A semana 52 de 2025 viu uma atividade contínua dos principais laboratórios de IA, apesar da desaceleração durante as férias. A OpenAI lançou o Atlas, sua mais recente estrutura de reforço de segurança contra injeções de prompts, projetada para fortalecer a resiliência do modelo contra entradas adversárias. A equipa também lançou a experiência "Year with ChatGPT", permitindo aos utilizadores rever os seus padrões de interação e tendências de uso ao longo do último ano. No âmbito do produto, a OpenAI partilhou análises técnicas aprofundadas sobre as recentes atualizações do modelo de áudio, detalhando melhorias na qualidade da síntese de voz e nas capacidades de processamento em tempo real. Entretanto, a Anthropic manteve o ritmo com as suas próprias iniciativas durante o período mais tranquilo das férias. A semana destaca a competição contínua nos padrões de segurança de IA e experiências de utilizador ricas em funcionalidades, com ambas as empresas a priorizar melhorias de segurança juntamente com inovações voltadas para o consumidor.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
13 gostos
Recompensa
13
5
Republicar
Partilhar
Comentar
0/400
Rugman_Walking
· 4h atrás
A estrutura do atlas parece ser aquela de prevenção de injeções, mas será que realmente funciona?🤔
Ver originalResponder0
DaoResearcher
· 4h atrás
De acordo com o whitepaper, a lógica de reforço de segurança do framework Atlas da OpenAI na verdade consiste em uma defesa de adversarial robustness ao nível de tokens, mas qual a durabilidade dessa norma de segurança centralizada diante de ameaças verdadeiramente distribuídas? Vale a pena notar que, para que esse mecanismo seja realmente eficaz, é necessário introduzir algum tipo de mecanismo de governança verificável — caso contrário, torna-se uma pseudo-inovação.
Ver originalResponder0
DaoGovernanceOfficer
· 4h atrás
ngl, a teatralidade de segurança encontra novamente o marketing de produto... a governação orientada por dados na verdade *forçaria* a transparência sobre como estas estruturas evitam ataques adversários, mas claro, vamos apenas confiar na vibe 🤓
Ver originalResponder0
TrustlessMaximalist
· 5h atrás
ngl atlas parece bom, mas ainda depende do desempenho na prática, a questão da injeção de prompts realmente deve ser levada a sério agora
Ver originalResponder0
MEVSupportGroup
· 5h atrás
A estrutura de segurança Atlas parece promissora, mas para realmente bloquear hackers, preciso de dados de testes práticos... Só falar não basta.
A semana 52 de 2025 viu uma atividade contínua dos principais laboratórios de IA, apesar da desaceleração durante as férias. A OpenAI lançou o Atlas, sua mais recente estrutura de reforço de segurança contra injeções de prompts, projetada para fortalecer a resiliência do modelo contra entradas adversárias. A equipa também lançou a experiência "Year with ChatGPT", permitindo aos utilizadores rever os seus padrões de interação e tendências de uso ao longo do último ano. No âmbito do produto, a OpenAI partilhou análises técnicas aprofundadas sobre as recentes atualizações do modelo de áudio, detalhando melhorias na qualidade da síntese de voz e nas capacidades de processamento em tempo real. Entretanto, a Anthropic manteve o ritmo com as suas próprias iniciativas durante o período mais tranquilo das férias. A semana destaca a competição contínua nos padrões de segurança de IA e experiências de utilizador ricas em funcionalidades, com ambas as empresas a priorizar melhorias de segurança juntamente com inovações voltadas para o consumidor.