Na face do medo, há um grande Eu - ForkLog: criptomoedas, IA, singularidade, futuro

img-6086d8792646fd5f-6638815773356060# A visão do medo é grande

Com que frequência ouve previsões sobre o fim do mundo, em que o papel principal é desempenhado por uma inteligência artificial onipotente? Pelo menos uma vez por semana, algum empresário ou celebridade expressa preocupações sobre um futuro assustador sob o seu domínio.

Claro, uma figura conhecida mais um prognóstico sombrio — a receita perfeita para um título chamativo. Mas se antes os materiais feitos nesse estilo refletiam um progresso real, às vezes assustador, na tecnologia, agora cada vez mais parecem marketing vazio ou simples falta de compreensão do que realmente está acontecendo.

Por que ainda nos assustam com versões distorcidas de “O Exterminador do Futuro”, se os chatbots modernos muitas vezes mentem descaradamente e não conseguem lembrar cinco linhas de diálogo? E o mais importante — a quem isso pode beneficiar?

Não impressiona

De imediato, é importante destacar: as tecnologias de IA deram um salto enorme na última década. Os sistemas atuais aprenderam a escrever textos coesos, reconhecer padrões em grandes volumes de dados e criar conteúdo visual. Ainda há pouco tempo, as máquinas não podiam substituir tão bem o trabalho humano.

As perspectivas de progresso são assustadoras. No entanto, atualmente, o desenvolvimento de produtos massivos parou apenas nas conversas sobre a chamada inteligência artificial geral e no lançamento de modelos de linguagem quase idênticos (às vezes, as novidades até saem piores que os predecessores).

O que temos no final: uma ferramenta assistente treinada para realizar tarefas simples com texto e, às vezes, com imagens. As pessoas a adaptaram para codificação via Vibe ou para escrever posts para redes sociais. E, muitas vezes, o resultado exige revisão — as redes neurais não são capazes de trabalhos mais complexos.

Agora, pode pedir ao seu chatbot favorito para escrever uma tese de doutoramento sobre o tema “X”: receberá um texto de sentido confuso, com links da primeira ou segunda página do buscador. Para melhorar o resultado, recomendam usar prompts avançados, mas isso é apenas uma configuração mais refinada na “linguagem da máquina” e um treinamento adicional.

Com uso prolongado de IA, provavelmente, cada usuário percebe as limitações dos modelos atuais. Todo o avanço, no final, esbarra na quantidade de dados de treinamento e na capacidade dos servidores, enquanto o fator “inteligência” passou a ficar em segundo plano.

Inteligência sem cérebro

Para entender o contexto, é preciso explicar como funciona a IA. Resumidamente, os grandes modelos de linguagem dos chatbots clássicos funcionam assim:

  1. O texto de entrada é dividido em tokens (partes de palavras, símbolos).
  2. A cada token é atribuído um vetor numérico.
  3. O modelo analisa as conexões entre os tokens e determina quais palavras são mais importantes para entender o contexto.
  4. Com base nisso, o LLM “previsivelmente” gera o próximo token, formando a resposta.

A “previsão” não vem do nada. Para isso, ela passou por um treinamento prévio em uma enorme base de dados, geralmente de fontes abertas na internet. É de lá que a rede neural extrai toda a sua “inteligência”.

Modelos de linguagem não “entendem” o texto no sentido humano, mas calculam padrões estatísticos. Todos os principais chatbots atuais usam uma arquitetura comum chamada “Transformador”, que funciona exatamente assim.

Claro, essa comparação é grosseira, mas podemos dizer que os LLMs são como calculadoras muito poderosas baseadas em uma grande base de dados. Uma ferramenta forte, útil e que simplifica muitos aspectos da nossa vida, mas ainda é prematuro atribuir a essa tecnologia uma inteligência plena.

Os chatbots atuais parecem mais uma nova versão de motores de busca (olá, Gemini do Google), do que um assistente onisciente de bolso.

Ainda assim, permanecem dúvidas sobre a confiabilidade das respostas da IA. Após analisar as estatísticas de alucinações e mentiras das redes neurais, fica forte o desejo de voltar a usar o bom e velho Google.

Comparação de precisão entre GPT-5 e o4-mini. Fonte: OpenAI.## Uau, fiquei assustado?

A tese principal dos defensores do apocalipse é que “a IA fica mais inteligente exponencialmente”, e, assim que ela superar a inteligência humana, a humanidade como espécie chegará ao fim.

As IAs modernas, sem dúvida, já superam a gente na precisão de processamento e transformação de dados. Por exemplo, uma rede neural pode resumir bastante detalhadamente a Wikipedia. Mas, aproximadamente, é só isso que ela sabe. Ou melhor, ela simplesmente não consegue usar esse conhecimento para “objetivos pessoais”, pois não tem essa capacidade, e essa não é sua função.

Além disso, já se sabe que a inteligência artificial não entende o mundo ao nosso redor. Para a IA, as leis da física são uma floresta escura.

Todo o desenvolvimento de modelos de linguagem se resumiu a ampliar o espectro de previsões (adivinhação de tokens). No entanto, a IA está rapidamente chegando aos limites do aprendizado baseado em texto, e cada vez mais se fala na necessidade de criar uma “inteligência espacial”.

Mas, se as fraquezas da própria tecnologia ainda podem ser identificadas, e trabalhos nessa direção já estão em andamento, questões mais complexas permanecem abertas.

Até mesmo para a humanidade, muitos aspectos do funcionamento do cérebro permanecem um mistério. Que dizer então de recriar uma estrutura tão complexa digitalmente?

Outro obstáculo quase intransponível para a IA é a criatividade — a capacidade de criar algo novo. Os LLMs tecnicamente não conseguem sair de suas limitações arquitetônicas, pois seu funcionamento é baseado na reprocessamento de dados já existentes.

Assim, o destino futuro da IA depende diretamente do tipo de informação que a humanidade nela investe, e, por enquanto, todo o material de treinamento é voltado exclusivamente para beneficiar as pessoas.

Para ser justo, vale mencionar Elon Musk e seu Grok. Em determinado momento, os usuários notaram preconceitos no chatbot e uma tendência a superestimar as capacidades do bilionário. Um sinal bastante preocupante do ponto de vista ético, mas é improvável que um “neuro Elon” possa prejudicar a humanidade fisicamente.

Afinal, a única meta das aplicações de inteligência artificial é obedecer às solicitações do usuário. O chatbot não tem vontade própria ou desejos, e, no futuro próximo, essa paradigma dificilmente mudará.

Anatomia do medo

E por que ainda nos assustamos com essa IA, que se revelou uma invenção nem tão “inteligente”? As respostas principais estão na superfície.

Se não considerarmos a falta de compreensão da tecnologia, a razão mais simples é a ganância por dinheiro ou popularidade.

Vamos recorrer ao caso de um dos “profetas do apocalipse” — Eliezer Yudkowsky. Pesquisador de IA e coautor do livro If Anyone Builds It, Everyone Dies (“Se alguém construir, todos morrem”) desde os anos 2000 alerta sobre uma superinteligência que, supostamente, seria alheia aos valores humanos.

Capa do livro. Fonte: Instaread. “Superinteligência” ainda não é visível, o que Yudkowsky mesmo reconhece. Mas isso não o impede de fazer declarações bombásticas em podcasts e vender livros.

O físico renomado e “padrinho da IA” Geoffrey Hinton também expressou preocupações quase apocalípticas. Ele avaliou que há uma probabilidade de 10-20% de que a tecnologia leve à extinção da humanidade nos próximos 30 anos.

Segundo Hinton, com o aumento das capacidades, a estratégia de “manter a IA sob controle” pode deixar de funcionar, e sistemas agentes passarão a buscar a sobrevivência e a expansão do controle.

Nesse cenário, não está claro quem e com que objetivos poderá dar às redes neurais uma “vontade de viver”. Hinton continua trabalhando na área de treinamento de redes neurais e, em 2024, foi indicado ao Nobel por suas contribuições, tornando-se, em 2026, o segundo cientista da história, após Yoshua Bengio, a alcançar 1 milhão de citações.

Surpreendentemente, as previsões mais realistas vêm do cofundador do Google Brain, Andrew Ng. Ele descreveu a inteligência artificial como uma tecnologia “extremamente limitada” e afirmou que, no futuro próximo, os algoritmos não poderão substituir as pessoas.

Obviamente, há prognosticadores de boca grande em qualquer setor. E sua presença na indústria de IA é bastante justificada pelo grande amor do público por ficção científica. Quem não gosta de se emocionar com histórias ao estilo de Philip K. Dick ou Robert Sheckley, só que ambientadas na nossa realidade atual?

Mais perguntas nesse cenário surgem a partir de declarações de grandes corporações, que parecem, de forma quase inadvertida, alertar sobre ameaças aos empregos e prever um desenvolvimento acelerado da IA. Se a segunda afirmação explica, em parte, a necessidade de reduzir custos, a primeira leva a interpretações mais conspiratórias.

Por exemplo, uma das maiores empresas do mundo — Amazon — demitiu mais de 30.000 funcionários nos últimos seis meses. A direção cita planos de otimização e impacto da automação, incluindo o uso de IA.

O desenvolvimento de robôs de armazém não foi interrompido. Mas os críticos dizem que o problema é mais prosaico — as demissões em massa nas empresas foram causadas por má gestão de recursos humanos durante a pandemia de COVID-19.

A Amazon não é a única. Empresas de IA do Vale do Silício continuam expandindo suas equipes e alugando novos espaços.

E, ainda em 2023, quase todas essas empresas assinaram um documento da organização Center for AI Safety, alertando sobre o “risco existencial” que a IA representa, equiparando-a a pandemias e guerras nucleares.

Declaração do Center for AI Safety. Fonte: aistatement.com. Com o tempo, a carta foi esquecida, o trabalho continuou, e a ameaça visível nunca se concretizou.

Falando de forma corporativa, na era de discussões sobre a bolha inflada da IA, apelar às mudanças tecnológicas parece uma explicação mais conveniente para os negócios do que admitir erros estruturais na gestão de pessoas. Mas essas declarações criam uma falsa impressão do que está acontecendo e desviam a atenção de problemas reais — desinformação e deepfakes.

A inteligência artificial não rouba empregos, ela muda a abordagem do trabalho, às vezes simplificando-o. Embora uma pesquisa da Harvard mostre que, ao contrário, a IA às vezes torna os processos mais complexos e lentos dentro das empresas.

A tecnologia certamente penetrará em todas as áreas da nossa vida: educação, ciência, comércio, política. Mas como ela estará presente, dependerá apenas das próprias pessoas. Por enquanto, as redes neurais não têm direito de voto.

Inacessível para nós

O texto acima tratou de IA de acesso aberto, como chatbots e geradores de imagens. Mas, por trás de portas fechadas, existem desenvolvimentos mais avançados.

Entre eles, estão modelos de linguagem de grande porte na área médica ou arqueológica. Por exemplo, ajudam a sintetizar novas proteínas ou a decifrar documentos antigos que não podem ser analisados por métodos tradicionais.

No entanto, os resultados dessas pesquisas, testes e implementações só podem ser acompanhados por meio de relatórios internos de difícil acesso ou por publicações em mídias especializadas, o que faz com que o grau de conhecimento sobre eles seja quase zero. Mas é bastante provável que seja exatamente nessa área que estejam ocorrendo os maiores avanços.

Provavelmente, uma “máquina do apocalipse” de IA nem sequer surgirá em laboratórios fechados. Todos esses modelos são especializados, capazes apenas de fazer o que lhes é solicitado.

Todos os receios de que a inteligência artificial saia do controle são apenas reflexos dos nossos próprios medos: perder o emprego ou questões éticas mais complexas. Mas, enquanto nós, humanos, definirmos o futuro da tecnologia, estabelecendo direções e objetivos, a IA continuará sendo uma ferramenta, não um sujeito com vontade própria.

Falar sobre riscos potenciais é correto. Inventar teorias apocalípticas faz parte da natureza humana. Mas sempre devemos encarar essas coisas com um pouco de ceticismo ou até ironia. Se temos um botão de desligar, o nosso mundo não corre risco de um superinteligente digital.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)