O CEO da OpenAI, Sam Altman, defende a decisão de fechar acordo com o Pentágono após a lista negra da Anthropic, admitindo que as ‘ópticas não parecem boas’
CEO da OpenAI, Sam Altman, e outros altos executivos recorreram às redes sociais durante o fim de semana para defender a sua decisão, anunciada na sexta-feira, de fechar um acordo com o Departamento de Guerra para permitir que os modelos da empresa sejam utilizados em redes militares classificadas. O acordo foi feito horas depois de o arquirrival Anthropic recusar um acordo semelhante com o Pentágono e a administração Trump afirmar que estava a rotular a Anthropic como um “risco na cadeia de abastecimento”.
Vídeo Recomendado
A OpenAI enfrentou uma forte reação negativa por aceitar o acordo com o Pentágono, após Altman ter, anteriormente na semana, manifestado apoio à posição da Anthropic de que não aceitaria um contrato com o Pentágono que não incluísse proibições explícitas ao uso da sua tecnologia de IA para vigilância em massa de cidadãos dos EUA ou para ser incorporada em armas autónomas que possam decidir atacar alvos sem supervisão humana.
Alguns desses críticos chegaram mesmo a lançar uma campanha para persuadir os utilizadores do ChatGPT a deixarem de usar esse modelo de IA e a mudarem para o chatbot Claude da Anthropic. Houve também indícios de que a campanha estava a ter efeito: o Claude ultrapassou o ChatGPT, tornando-se o aplicativo gratuito mais descarregado na App Store da Apple. A calçada em frente aos escritórios da OpenAI em São Francisco também foi coberta com grafites de giz que atacavam a decisão de fazer um acordo com o Pentágono, enquanto os grafites fora dos escritórios da Anthropic elogiavam, em grande parte, a sua decisão de recusar um contrato que não incluísse proibições ao uso dos seus modelos de IA para vigilância em massa e armas autónomas.
Algumas das ações nas redes sociais de Altman e da OpenAI durante o fim de semana pareceram ter como objetivo acalmar as preocupações entre os próprios funcionários da empresa sobre o contrato com o Pentágono. Muitos funcionários de base da OpenAI assinaram, na semana passada, uma carta aberta apoiando a recusa da Anthropic em ceder às exigências do Pentágono e opor-se à sua decisão de rotular a Anthropic como um risco na cadeia de abastecimento. (Altman também afirmou, durante o fim de semana, que discordava dessa designação de risco na cadeia de abastecimento).
E pelo menos um funcionário da OpenAI questionou publicamente se o contrato da empresa com o Pentágono oferecia salvaguardas robustas. Leo Gao, um funcionário da OpenAI que trabalha para garantir que modelos de IA cada vez mais poderosos permaneçam alinhados com as intenções dos utilizadores e valores humanos, criticou a sua empresa no X por concordar em permitir que o DOW utilize a sua tecnologia para “todos os fins legais” e por, segundo Gao, participar de uma “maquiagem” para parecer que existiriam restrições adicionais ao que o Pentágono poderia fazer com os modelos GPT da OpenAI.
Altman admitiu, numa sessão de “Pergunte-me Qualquer Coisa” na plataforma X, no sábado à noite, que o acordo com o Pentágono “foi definitivamente apressado, e a aparência não é boa”.
Mas insistiu que a OpenAI agiu rapidamente para fechar o acordo porque queria desescalar a situação cada vez mais tensa entre o exército dos EUA e a Anthropic. A disputa ameaçava potencialmente prejudicar toda a indústria de IA, em parte, ao levantar a possibilidade de o governo dos EUA nacionalizar um laboratório de IA ou, pelo menos, usar o seu poder para coagir uma empresa privada a fornecer tecnologia nos seus termos preferidos.
“Se estivermos certos e isto levar a uma desescalada entre o DOW e a indústria, pareceremos gênios, e uma empresa que enfrentou muitas dificuldades para ajudar a indústria”, disse Altman. “Se não, continuaremos a ser caracterizados como apressados e descuidados.”
Ele acrescentou que “uma boa relação entre o governo e as empresas que desenvolvem esta tecnologia é fundamental nos próximos anos”.
E afirmou que era contra a rotulagem da Anthropic como risco na cadeia de abastecimento. “Impor a designação de risco na cadeia de abastecimento à Anthropic seria muito mau para a nossa indústria e para o nosso país”, disse Altman. “Para deixar bem claro: acho que esta é uma decisão muito má do DOW, e espero que a revertam. Se formos criticados por criticá-la fortemente, assim seja.”
A OpenAI afirmou ter encontrado uma abordagem de compromisso que preserva as mesmas limitações, ao mesmo tempo que atende ao desejo militar de não impor restrições contratuais sobre o uso da tecnologia de IA adquirida. A empresa disse que as limitações ao uso da sua IA baseiam-se tanto em referências à legislação existente, incluídas no contrato com o DOW, quanto em limitações técnicas sobre o que os seus modelos podem fazer.
Afirmou que o DOW concordou em permitir que a OpenAI desenvolvesse essas limitações técnicas. Essas limitações incluirão sistemas que classificam qualquer solicitação feita pelos utilizadores do DOW aos modelos da OpenAI e recusam qualquer que o classificador considere potencialmente violar as linhas vermelhas da empresa. Também poderá incluir ajustes finos nos modelos da OpenAI para que não cumpram facilmente instruções que violem essas linhas vermelhas.
OpenAI afirma que o seu contrato tenta obrigar o Pentágono a seguir a legislação atual
A OpenAI divulgou uma parte do seu contrato com o DOW, no qual afirma que concordou que a sua tecnologia poderia ser usada “para todos os fins legais”, mas que também inclui referências específicas às leis existentes dos EUA e a documentos de política do Departamento de Guerra que estabelecem limitações à vigilância de cidadãos americanos e à forma como as armas autónomas podem ser implantadas.
Katrina Mulligan, responsável pelas parcerias de segurança nacional da OpenAI e ex-chefe de gabinete do secretário do Exército, afirmou, durante a sessão de perguntas no X, que a referência a essas leis e políticas existentes oferecia mais garantias de que o Pentágono não violaria posteriormente as linhas vermelhas da empresa do que alguns críticos sugeriram. “Aceitamos a linguagem de ‘todos os usos legais’ proposta pelo departamento, mas exigimos que eles definissem as leis que os limitam na vigilância e autonomia diretamente no contrato”, disse ela. “E, como as leis podem mudar, ter isso codificado no contrato protege contra alterações na legislação ou na política que não podemos prever.”
Alguns especialistas jurídicos contestaram a posição de Mulligan, pelo menos no que diz respeito às políticas do DOW sobre armas autónomas. Charles Bullock, membro sénior do Institute for Law & AI, afirmou no X que “o DOW pode, claro, alterar as suas próprias políticas sempre que quiser”, e que a linguagem do contrato divulgada pela OpenAI não obriga o DOW a seguir a política existente para sempre. Mas disse que o contrato parecia obrigar o DOW a seguir as interpretações atuais das leis que regulam a vigilância em massa de cidadãos americanos.
Bullock também afirmou que era impossível saber quão rígidas eram as limitações contidas no contrato da OpenAI sem avaliar o contrato completo, não apenas a pequena secção tornada pública. A OpenAI afirmou que as regras do governo impedem a publicação do contrato completo, pois trata-se de um sistema classificado.
Um debate sobre a definição de ‘vigilância em massa’
Muitos dos céticos ao acordo da OpenAI com o Pentágono observaram que o termo “vigilância em massa” não está bem definido e questionaram os responsáveis da OpenAI sobre o que aconteceria se agências de inteligência militar tentassem usar os seus modelos de IA para analisar dados comercialmente disponíveis — como dados de localização de telemóveis ou de aplicações de fitness — que poderiam ser reunidos em grande escala para vigiar cidadãos americanos. A Agência de Inteligência de Defesa acredita ter comprado esses dados, e o seu uso permanece numa área legal cinzenta. Segundo uma reportagem na The Atlantic, a Anthropic estava particularmente preocupada com o uso do seu tecnologia para esse tipo de análise e que a sua insistência em limitar esse caso de uso foi um dos principais obstáculos para avançar na negociação com o DOW.
“Não podemos proteger contra uma agência governamental que compre conjuntos de dados comerciais, mas o nosso contrato inclui uma proibição de vigilância doméstica em massa como condição vinculativa de uso”, afirmou Mulligan durante a AMA.
Ela também disse que a decisão da OpenAI de adotar uma abordagem multifacetada, incluindo sistemas técnicos para limitar o que o Pentágono poderia fazer, oferecia uma solução mais robusta do que simplesmente confiar na linguagem contratual, que, segundo ela, parecia ser a principal abordagem da Anthropic. Ela afirmou que a Anthropic não conseguiu recorrer a essa solução técnica porque já fornecia versões dos seus modelos de IA ao exército com algumas salvaguardas habituais removidas.
“Principalmente, a Anthropic preocupa-se com as políticas de uso, pois as suas implantações classificadas atuais envolvem redução ou remoção de barreiras de segurança (fazendo das políticas de uso a principal salvaguarda em implantações de segurança nacional)”, disse ela. “Políticas de uso, por si só, não garantem nada. Qualquer implantação responsável de IA em ambientes classificados deve envolver salvaguardas em camadas, incluindo uma pilha de segurança prudente, limites na arquitetura de implantação e envolvimento direto de especialistas em IA em casos de uso de grande impacto. Foi isso que buscamos nas nossas negociações, e é por isso que acreditamos que o acordo que fizemos tem mais salvaguardas do que qualquer acordo anterior para implantações de IA classificadas, incluindo o da Anthropic.”
Outro executivo da OpenAI, Boaz Barak, que trabalha na área de alinhamento e segurança de IA, também participou na AMA e criticou a Anthropic por focar excessivamente na linguagem contratual e não em outros tipos de salvaguardas. “Tenho a impressão de que as pessoas na Anthropic tinham expectativas irreais em relação às questões contratuais”, afirmou, respondendo a uma pergunta do ex-chefe de políticas da OpenAI, Miles Brundage, observando que as empresas de tecnologia sempre estariam um pouco à mercê da interpretação do DOW sobre os termos do contrato.
Quem deve decidir como a IA é usada?
Altman afirmou que muitas das questões levantadas na sessão de perguntas tocavam na questão de se os esforços de IA deveriam ser nacionalizados. O CEO da OpenAI comentou: “Há muito tempo que acho que seria melhor se a construção de uma IA geral [AGI] fosse um projeto do governo.” Mas acrescentou: “Não parece muito provável com a trajetória atual.”
Altman também disse estar surpreso com o fato de muitos críticos da OpenAI parecerem confiar mais em gestores de tecnologia não eleitos para tomar decisões sobre o uso adequado da IA do que em funcionários do governo que, pelo menos em teoria, são responsáveis perante o Congresso e, em última análise, perante os eleitores.
“Eu acredito profundamente no processo democrático, e que os nossos líderes eleitos têm o poder, e que todos nós temos que defender a Constituição. Estou aterrorizado com um mundo onde as empresas de IA agem como se tivessem mais poder do que o governo”, afirmou Altman no X. “Também ficaria aterrorizado com um mundo onde o nosso governo decidisse que a vigilância doméstica em massa é aceitável.”
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
O CEO da OpenAI, Sam Altman, defende a decisão de fechar acordo com o Pentágono após a lista negra da Anthropic, admitindo que as ‘ópticas não parecem boas’
CEO da OpenAI, Sam Altman, e outros altos executivos recorreram às redes sociais durante o fim de semana para defender a sua decisão, anunciada na sexta-feira, de fechar um acordo com o Departamento de Guerra para permitir que os modelos da empresa sejam utilizados em redes militares classificadas. O acordo foi feito horas depois de o arquirrival Anthropic recusar um acordo semelhante com o Pentágono e a administração Trump afirmar que estava a rotular a Anthropic como um “risco na cadeia de abastecimento”.
Vídeo Recomendado
A OpenAI enfrentou uma forte reação negativa por aceitar o acordo com o Pentágono, após Altman ter, anteriormente na semana, manifestado apoio à posição da Anthropic de que não aceitaria um contrato com o Pentágono que não incluísse proibições explícitas ao uso da sua tecnologia de IA para vigilância em massa de cidadãos dos EUA ou para ser incorporada em armas autónomas que possam decidir atacar alvos sem supervisão humana.
Alguns desses críticos chegaram mesmo a lançar uma campanha para persuadir os utilizadores do ChatGPT a deixarem de usar esse modelo de IA e a mudarem para o chatbot Claude da Anthropic. Houve também indícios de que a campanha estava a ter efeito: o Claude ultrapassou o ChatGPT, tornando-se o aplicativo gratuito mais descarregado na App Store da Apple. A calçada em frente aos escritórios da OpenAI em São Francisco também foi coberta com grafites de giz que atacavam a decisão de fazer um acordo com o Pentágono, enquanto os grafites fora dos escritórios da Anthropic elogiavam, em grande parte, a sua decisão de recusar um contrato que não incluísse proibições ao uso dos seus modelos de IA para vigilância em massa e armas autónomas.
Algumas das ações nas redes sociais de Altman e da OpenAI durante o fim de semana pareceram ter como objetivo acalmar as preocupações entre os próprios funcionários da empresa sobre o contrato com o Pentágono. Muitos funcionários de base da OpenAI assinaram, na semana passada, uma carta aberta apoiando a recusa da Anthropic em ceder às exigências do Pentágono e opor-se à sua decisão de rotular a Anthropic como um risco na cadeia de abastecimento. (Altman também afirmou, durante o fim de semana, que discordava dessa designação de risco na cadeia de abastecimento).
E pelo menos um funcionário da OpenAI questionou publicamente se o contrato da empresa com o Pentágono oferecia salvaguardas robustas. Leo Gao, um funcionário da OpenAI que trabalha para garantir que modelos de IA cada vez mais poderosos permaneçam alinhados com as intenções dos utilizadores e valores humanos, criticou a sua empresa no X por concordar em permitir que o DOW utilize a sua tecnologia para “todos os fins legais” e por, segundo Gao, participar de uma “maquiagem” para parecer que existiriam restrições adicionais ao que o Pentágono poderia fazer com os modelos GPT da OpenAI.
Altman admitiu, numa sessão de “Pergunte-me Qualquer Coisa” na plataforma X, no sábado à noite, que o acordo com o Pentágono “foi definitivamente apressado, e a aparência não é boa”.
Mas insistiu que a OpenAI agiu rapidamente para fechar o acordo porque queria desescalar a situação cada vez mais tensa entre o exército dos EUA e a Anthropic. A disputa ameaçava potencialmente prejudicar toda a indústria de IA, em parte, ao levantar a possibilidade de o governo dos EUA nacionalizar um laboratório de IA ou, pelo menos, usar o seu poder para coagir uma empresa privada a fornecer tecnologia nos seus termos preferidos.
“Se estivermos certos e isto levar a uma desescalada entre o DOW e a indústria, pareceremos gênios, e uma empresa que enfrentou muitas dificuldades para ajudar a indústria”, disse Altman. “Se não, continuaremos a ser caracterizados como apressados e descuidados.”
Ele acrescentou que “uma boa relação entre o governo e as empresas que desenvolvem esta tecnologia é fundamental nos próximos anos”.
E afirmou que era contra a rotulagem da Anthropic como risco na cadeia de abastecimento. “Impor a designação de risco na cadeia de abastecimento à Anthropic seria muito mau para a nossa indústria e para o nosso país”, disse Altman. “Para deixar bem claro: acho que esta é uma decisão muito má do DOW, e espero que a revertam. Se formos criticados por criticá-la fortemente, assim seja.”
A OpenAI afirmou ter encontrado uma abordagem de compromisso que preserva as mesmas limitações, ao mesmo tempo que atende ao desejo militar de não impor restrições contratuais sobre o uso da tecnologia de IA adquirida. A empresa disse que as limitações ao uso da sua IA baseiam-se tanto em referências à legislação existente, incluídas no contrato com o DOW, quanto em limitações técnicas sobre o que os seus modelos podem fazer.
Afirmou que o DOW concordou em permitir que a OpenAI desenvolvesse essas limitações técnicas. Essas limitações incluirão sistemas que classificam qualquer solicitação feita pelos utilizadores do DOW aos modelos da OpenAI e recusam qualquer que o classificador considere potencialmente violar as linhas vermelhas da empresa. Também poderá incluir ajustes finos nos modelos da OpenAI para que não cumpram facilmente instruções que violem essas linhas vermelhas.
OpenAI afirma que o seu contrato tenta obrigar o Pentágono a seguir a legislação atual
A OpenAI divulgou uma parte do seu contrato com o DOW, no qual afirma que concordou que a sua tecnologia poderia ser usada “para todos os fins legais”, mas que também inclui referências específicas às leis existentes dos EUA e a documentos de política do Departamento de Guerra que estabelecem limitações à vigilância de cidadãos americanos e à forma como as armas autónomas podem ser implantadas.
Katrina Mulligan, responsável pelas parcerias de segurança nacional da OpenAI e ex-chefe de gabinete do secretário do Exército, afirmou, durante a sessão de perguntas no X, que a referência a essas leis e políticas existentes oferecia mais garantias de que o Pentágono não violaria posteriormente as linhas vermelhas da empresa do que alguns críticos sugeriram. “Aceitamos a linguagem de ‘todos os usos legais’ proposta pelo departamento, mas exigimos que eles definissem as leis que os limitam na vigilância e autonomia diretamente no contrato”, disse ela. “E, como as leis podem mudar, ter isso codificado no contrato protege contra alterações na legislação ou na política que não podemos prever.”
Alguns especialistas jurídicos contestaram a posição de Mulligan, pelo menos no que diz respeito às políticas do DOW sobre armas autónomas. Charles Bullock, membro sénior do Institute for Law & AI, afirmou no X que “o DOW pode, claro, alterar as suas próprias políticas sempre que quiser”, e que a linguagem do contrato divulgada pela OpenAI não obriga o DOW a seguir a política existente para sempre. Mas disse que o contrato parecia obrigar o DOW a seguir as interpretações atuais das leis que regulam a vigilância em massa de cidadãos americanos.
Bullock também afirmou que era impossível saber quão rígidas eram as limitações contidas no contrato da OpenAI sem avaliar o contrato completo, não apenas a pequena secção tornada pública. A OpenAI afirmou que as regras do governo impedem a publicação do contrato completo, pois trata-se de um sistema classificado.
Um debate sobre a definição de ‘vigilância em massa’
Muitos dos céticos ao acordo da OpenAI com o Pentágono observaram que o termo “vigilância em massa” não está bem definido e questionaram os responsáveis da OpenAI sobre o que aconteceria se agências de inteligência militar tentassem usar os seus modelos de IA para analisar dados comercialmente disponíveis — como dados de localização de telemóveis ou de aplicações de fitness — que poderiam ser reunidos em grande escala para vigiar cidadãos americanos. A Agência de Inteligência de Defesa acredita ter comprado esses dados, e o seu uso permanece numa área legal cinzenta. Segundo uma reportagem na The Atlantic, a Anthropic estava particularmente preocupada com o uso do seu tecnologia para esse tipo de análise e que a sua insistência em limitar esse caso de uso foi um dos principais obstáculos para avançar na negociação com o DOW.
“Não podemos proteger contra uma agência governamental que compre conjuntos de dados comerciais, mas o nosso contrato inclui uma proibição de vigilância doméstica em massa como condição vinculativa de uso”, afirmou Mulligan durante a AMA.
Ela também disse que a decisão da OpenAI de adotar uma abordagem multifacetada, incluindo sistemas técnicos para limitar o que o Pentágono poderia fazer, oferecia uma solução mais robusta do que simplesmente confiar na linguagem contratual, que, segundo ela, parecia ser a principal abordagem da Anthropic. Ela afirmou que a Anthropic não conseguiu recorrer a essa solução técnica porque já fornecia versões dos seus modelos de IA ao exército com algumas salvaguardas habituais removidas.
“Principalmente, a Anthropic preocupa-se com as políticas de uso, pois as suas implantações classificadas atuais envolvem redução ou remoção de barreiras de segurança (fazendo das políticas de uso a principal salvaguarda em implantações de segurança nacional)”, disse ela. “Políticas de uso, por si só, não garantem nada. Qualquer implantação responsável de IA em ambientes classificados deve envolver salvaguardas em camadas, incluindo uma pilha de segurança prudente, limites na arquitetura de implantação e envolvimento direto de especialistas em IA em casos de uso de grande impacto. Foi isso que buscamos nas nossas negociações, e é por isso que acreditamos que o acordo que fizemos tem mais salvaguardas do que qualquer acordo anterior para implantações de IA classificadas, incluindo o da Anthropic.”
Outro executivo da OpenAI, Boaz Barak, que trabalha na área de alinhamento e segurança de IA, também participou na AMA e criticou a Anthropic por focar excessivamente na linguagem contratual e não em outros tipos de salvaguardas. “Tenho a impressão de que as pessoas na Anthropic tinham expectativas irreais em relação às questões contratuais”, afirmou, respondendo a uma pergunta do ex-chefe de políticas da OpenAI, Miles Brundage, observando que as empresas de tecnologia sempre estariam um pouco à mercê da interpretação do DOW sobre os termos do contrato.
Quem deve decidir como a IA é usada?
Altman afirmou que muitas das questões levantadas na sessão de perguntas tocavam na questão de se os esforços de IA deveriam ser nacionalizados. O CEO da OpenAI comentou: “Há muito tempo que acho que seria melhor se a construção de uma IA geral [AGI] fosse um projeto do governo.” Mas acrescentou: “Não parece muito provável com a trajetória atual.”
Altman também disse estar surpreso com o fato de muitos críticos da OpenAI parecerem confiar mais em gestores de tecnologia não eleitos para tomar decisões sobre o uso adequado da IA do que em funcionários do governo que, pelo menos em teoria, são responsáveis perante o Congresso e, em última análise, perante os eleitores.
“Eu acredito profundamente no processo democrático, e que os nossos líderes eleitos têm o poder, e que todos nós temos que defender a Constituição. Estou aterrorizado com um mundo onde as empresas de IA agem como se tivessem mais poder do que o governo”, afirmou Altman no X. “Também ficaria aterrorizado com um mundo onde o nosso governo decidisse que a vigilância doméstica em massa é aceitável.”