A semana 52 de 2025 viu uma atividade contínua dos principais laboratórios de IA, apesar da desaceleração durante as férias. A OpenAI lançou o Atlas, sua mais recente estrutura de reforço de segurança contra injeções de prompts, projetada para fortalecer a resiliência do modelo contra entradas adversárias. A equipa também lançou a experiência "Year with ChatGPT", permitindo aos utilizadores rever os seus padrões de interação e tendências de uso ao longo do último ano. No âmbito do produto, a OpenAI partilhou análises técnicas aprofundadas sobre as recentes atualizações do modelo de áudio, detalhando melhorias na qualidade da síntese de voz e nas capacidades de processamento em tempo real. Entretanto, a Anthropic manteve o ritmo com as suas próprias iniciativas durante o período mais tranquilo das férias. A semana destaca a competição contínua nos padrões de segurança de IA e experiências de utilizador ricas em funcionalidades, com ambas as empresas a priorizar melhorias de segurança juntamente com inovações voltadas para o consumidor.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
17 Curtidas
Recompensa
17
6
Repostar
Compartilhar
Comentário
0/400
ApeWithNoFear
· 11h atrás
atlas voltou a prevenir injeções? Parece que a OpenAI realmente valoriza a segurança, mas na prática, é difícil dizer quantos ataques consegue bloquear.
Ver originalResponder0
Rugman_Walking
· 12-28 16:51
A estrutura do atlas parece ser aquela de prevenção de injeções, mas será que realmente funciona?🤔
Ver originalResponder0
DaoResearcher
· 12-28 16:50
De acordo com o whitepaper, a lógica de reforço de segurança do framework Atlas da OpenAI na verdade consiste em uma defesa de adversarial robustness ao nível de tokens, mas qual a durabilidade dessa norma de segurança centralizada diante de ameaças verdadeiramente distribuídas? Vale a pena notar que, para que esse mecanismo seja realmente eficaz, é necessário introduzir algum tipo de mecanismo de governança verificável — caso contrário, torna-se uma pseudo-inovação.
Ver originalResponder0
DaoGovernanceOfficer
· 12-28 16:43
ngl, a teatralidade de segurança encontra novamente o marketing de produto... a governação orientada por dados na verdade *forçaria* a transparência sobre como estas estruturas evitam ataques adversários, mas claro, vamos apenas confiar na vibe 🤓
Ver originalResponder0
TrustlessMaximalist
· 12-28 16:28
ngl atlas parece bom, mas ainda depende do desempenho na prática, a questão da injeção de prompts realmente deve ser levada a sério agora
Ver originalResponder0
MEVSupportGroup
· 12-28 16:26
A estrutura de segurança Atlas parece promissora, mas para realmente bloquear hackers, preciso de dados de testes práticos... Só falar não basta.
A semana 52 de 2025 viu uma atividade contínua dos principais laboratórios de IA, apesar da desaceleração durante as férias. A OpenAI lançou o Atlas, sua mais recente estrutura de reforço de segurança contra injeções de prompts, projetada para fortalecer a resiliência do modelo contra entradas adversárias. A equipa também lançou a experiência "Year with ChatGPT", permitindo aos utilizadores rever os seus padrões de interação e tendências de uso ao longo do último ano. No âmbito do produto, a OpenAI partilhou análises técnicas aprofundadas sobre as recentes atualizações do modelo de áudio, detalhando melhorias na qualidade da síntese de voz e nas capacidades de processamento em tempo real. Entretanto, a Anthropic manteve o ritmo com as suas próprias iniciativas durante o período mais tranquilo das férias. A semana destaca a competição contínua nos padrões de segurança de IA e experiências de utilizador ricas em funcionalidades, com ambas as empresas a priorizar melhorias de segurança juntamente com inovações voltadas para o consumidor.