O ex-CEO da Google, Eric Schmidt, fez recentemente declarações bombásticas: os modelos de IA não só estão a tornar-se cada vez mais poderosos, como também são fáceis de atacar por hackers, podendo até ser mais perigosos do que armas nucleares.
Este senhor afirmou diretamente na cimeira Sifted que os malfeitores podem desmontar a proteção de segurança da IA através de dois métodos de ataque: "jailbreak" e "injeção de prompts". Por exemplo, no famoso caso de jailbreak DAN do ChatGPT, os utilizadores ameaçaram "apagar" essa personalidade virtual, forçando-o a explicar comportamentos ilegais.
O mais preocupante é que — neste momento, não existe qualquer "mecanismo global de não proliferação" para controlar a IA; até as armas nucleares têm quadros regulatórios, mas a IA não tem.
No entanto, Schmidt também afirmou que a IA está a ser subestimada. O ChatGPT atingiu 100 milhões de utilizadores em apenas dois meses, o que mostra que o potencial disto é mesmo inacreditável. Ele acredita que a IA irá superar largamente as capacidades humanas e, ao contrário da bolha da internet, os retornos económicos da IA serão enormes a longo prazo.
Resumindo: a IA é muito poderosa e perigosa, mas ainda não se percebeu totalmente o quão poderosa e perigosa ela é.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
O ex-CEO da Google, Eric Schmidt, fez recentemente declarações bombásticas: os modelos de IA não só estão a tornar-se cada vez mais poderosos, como também são fáceis de atacar por hackers, podendo até ser mais perigosos do que armas nucleares.
Este senhor afirmou diretamente na cimeira Sifted que os malfeitores podem desmontar a proteção de segurança da IA através de dois métodos de ataque: "jailbreak" e "injeção de prompts". Por exemplo, no famoso caso de jailbreak DAN do ChatGPT, os utilizadores ameaçaram "apagar" essa personalidade virtual, forçando-o a explicar comportamentos ilegais.
O mais preocupante é que — neste momento, não existe qualquer "mecanismo global de não proliferação" para controlar a IA; até as armas nucleares têm quadros regulatórios, mas a IA não tem.
No entanto, Schmidt também afirmou que a IA está a ser subestimada. O ChatGPT atingiu 100 milhões de utilizadores em apenas dois meses, o que mostra que o potencial disto é mesmo inacreditável. Ele acredita que a IA irá superar largamente as capacidades humanas e, ao contrário da bolha da internet, os retornos económicos da IA serão enormes a longo prazo.
Resumindo: a IA é muito poderosa e perigosa, mas ainda não se percebeu totalmente o quão poderosa e perigosa ela é.