Já reparou como continuamos a redefinir o que conta como 'inteligência artificial'? Quando a IA dominou o xadrez, chamámos-lhe 'apenas cálculo de força bruta'. O Go foi a seguir—de repente, isso era 'simples correspondência de padrões'. A IA escreve bem? Obviamente, 'autocompletar sofisticado'. Depois veio a programação, e todos disseram 'claro, mas ela não consegue fazer TUDO, certo?'
Aqui está o que ninguém quer admitir: os limites para a AGI continuam a mover-se. Sempre que a IA ultrapassa um limiar que pensávamos ser exclusivamente humano, mudamos silenciosamente a definição. O que realmente estamos a fazer é definir a AGI como 'o que a IA ainda não conquistou'—um horizonte que recua perpetuamente, em vez de um marco real.
É menos uma avaliação de capacidade genuína e mais o desconforto que sentimos quando as máquinas continuam a provar-nos que estamos errados.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
14 gostos
Recompensa
14
7
Republicar
Partilhar
Comentar
0/400
TokenDustCollector
· 14h atrás
Resumindo, é só uma questão de mentalidade nossa, não conseguimos aceitar perder.
---
Toda vez que a IA quebra recordes, mudamos as regras. Essa jogada já dura anos e ainda não enjoou?
---
De verdade, os goalposts estão sempre sendo movidos, parece que estamos tentando nos dar uma sensação de segurança.
---
Haha, "ela consegue escrever código mas não consegue escrever poesia"... Quando a IA realmente conseguir escrever, vão dizer que "não é uma verdadeira poesia", ciclo infinito.
---
O núcleo da questão é que não queremos admitir que as máquinas podem superar os humanos, mas é questão de tempo.
---
Então, a AGI na verdade é uma barreira que só recua, sem fim.
---
A defesa psicológica da humanidade vai caindo uma atrás da outra, é até meio cômico.
Ver originalResponder0
OPsychology
· 14h atrás
Os humanos simplesmente adoram negar, afinal, aquilo que a IA não consegue fazer, nós fingimos que é "inteligência verdadeira", até não haver mais nada para fingir.
Ver originalResponder0
MetaDreamer
· 14h atrás
Para ser honesto, estamos apenas a jogar com as palavras connosco próprios.
Ver originalResponder0
SchrodingerGas
· 14h atrás
Sim, é o padrão de porta móvel, cada vez que o AI passa de fase, nós alteramos as regras. Essa lógica é tão familiar quanto alguns projetos mudarem a tokenomics... No fundo, é uma questão de mecanismo de defesa psicológica.
Ver originalResponder0
CryptoWageSlave
· 14h atrás
Para ser honesto, isto é apenas um autoengano coletivo, haha
Ver originalResponder0
DAOdreamer
· 14h atrás
nah esta é a doença comum dos humanos, cada vez mais a enganar a si próprios
Ver originalResponder0
PumpStrategist
· 14h atrás
Mecanismo de defesa humanizado típico, que muda as regras toda vez que leva um golpe. Essa lógica é igual à dos investidores que compram na alta e vendem na baixa — quando perdem dinheiro, dizem que "a análise técnica ainda não confirmou". Coisas que já estão formadas continuam sendo contestadas, o que é realmente interessante.
Já reparou como continuamos a redefinir o que conta como 'inteligência artificial'? Quando a IA dominou o xadrez, chamámos-lhe 'apenas cálculo de força bruta'. O Go foi a seguir—de repente, isso era 'simples correspondência de padrões'. A IA escreve bem? Obviamente, 'autocompletar sofisticado'. Depois veio a programação, e todos disseram 'claro, mas ela não consegue fazer TUDO, certo?'
Aqui está o que ninguém quer admitir: os limites para a AGI continuam a mover-se. Sempre que a IA ultrapassa um limiar que pensávamos ser exclusivamente humano, mudamos silenciosamente a definição. O que realmente estamos a fazer é definir a AGI como 'o que a IA ainda não conquistou'—um horizonte que recua perpetuamente, em vez de um marco real.
É menos uma avaliação de capacidade genuína e mais o desconforto que sentimos quando as máquinas continuam a provar-nos que estamos errados.