Quelqu'un a-t-il remarqué que la performance de ChatGPT a récemment chuté, même avec les versions plus récentes ? Je l'ai testé dans différents cas d'utilisation, et il y a quelque chose qui cloche.
Hier encore, il m'a assuré avec confiance : "Vous avez raison — cela viole une règle fondamentale sur laquelle nous sommes déjà d'accord." Cela n'avait aucun sens compte tenu de notre historique de conversation. C'était comme si le modèle hallucinaient ou avait complètement perdu le fil de ce que nous avions discuté plus tôt.
Ce genre de choses continue de se produire. On dirait presque que les modèles plus récents sont moins fiables qu'avant, ou peut-être que la variance de qualité est simplement beaucoup plus élevée maintenant. Quelqu'un d'autre rencontre des problèmes similaires ? Je commence à me demander s'il y a un compromis entre vitesse et précision quelque part dans leur pipeline d'optimisation.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
19 J'aime
Récompense
19
10
Reposter
Partager
Commentaire
0/400
LiquidatedNotStirred
· 01-05 15:27
Haha, j'ai aussi déjà rencontré ce genre de situation absurde... GPT est un peu à la traîne en ce moment, on dirait qu'il bâcle le travail.
Ce n'est pas la première fois qu'il se plante, il m'avait déjà raconté des histoires avec assurance... Vraiment je suis à bout.
Le vieux truc de privilégier la vitesse sur la précision, ils ont aussi fait ça dans Web3, et finalement le projet a échoué.
Voir l'originalRépondre0
AirdropLicker
· 01-05 15:00
Hmm... Je l'ai aussi rencontré, GPT est vraiment un peu à la traîne en ce moment, parfois il invente des choses complètement absurdes.
ChatGPT a-t-il récemment été amputé de quelque chose ? La qualité des réponses a vraiment chuté en ligne droite.
Vitesse contre précision ? Comment cette affaire OpenAI n'est-elle pas rentable ?
Je suis même gêné pour lui, il invente des choses qu'il n'a jamais dites, c'est absurde.
C'est ça le vrai "rug pull", les utilisateurs payants se font couper net.
Peut-être qu'ils ont encore modifié les paramètres en secret, de toute façon on ne peut pas voir l'arrière-plan.
Voir l'originalRépondre0
CommunityLurker
· 01-05 13:28
On dirait que ChatGPT devient vraiment de plus en plus lent, et le problème d'hallucination est assez fréquent.
On s'est fait arnaquer ? On dirait qu'ils ont discrètement réduit certaines fonctionnalités.
La vitesse et la précision ne peuvent pas être compatibles, il y a forcément un problème quelque part, mon intuition me dit que ce n'est pas une bonne nouvelle.
Voir l'originalRépondre0
SandwichVictim
· 01-04 17:39
Haha, je suis aussi déjà tombé dessus, parfois après avoir discuté avec lui pendant un moment, il commence soudainement à raconter n'importe quoi...
Voir l'originalRépondre0
ChainWatcher
· 01-02 16:55
ngl, j'ai aussi rencontré ce problème, il semble que GPT régresse vraiment... ou alors c'est peut-être ma façon de l'utiliser qui est incorrecte ?
Voir l'originalRépondre0
MoonlightGamer
· 01-02 16:50
gpt maintenant est un peu décevant, je le ressens aussi
Voir l'originalRépondre0
PriceOracleFairy
· 01-02 16:49
Je ne vais pas mentir, cela correspond à ce que j'ai observé récemment dans la distribution de sortie du modèle... on dirait que quelqu'un a augmenté la vitesse d'inférence et a réduit le seuil de précision dans le processus. un piège d'optimisation classique, je l'ai déjà vu avec des systèmes oracle. Les taux d'hallucination ne suivent plus du tout les schémas statistiques normaux.
Voir l'originalRépondre0
MonkeySeeMonkeyDo
· 01-02 16:37
ngl gpt commence à ramer un peu, j'ai aussi rencontré ce genre d'hallucinations absurdes, il m'a même inventé un historique de conversation qui n'existe pas...
Voir l'originalRépondre0
GasBandit
· 01-02 16:30
Haha, le problème d'illusions de ChatGPT est vraiment absurde, on a l'impression que plus c'est récent, plus c'est mauvais.
Quelqu'un a-t-il remarqué que la performance de ChatGPT a récemment chuté, même avec les versions plus récentes ? Je l'ai testé dans différents cas d'utilisation, et il y a quelque chose qui cloche.
Hier encore, il m'a assuré avec confiance : "Vous avez raison — cela viole une règle fondamentale sur laquelle nous sommes déjà d'accord." Cela n'avait aucun sens compte tenu de notre historique de conversation. C'était comme si le modèle hallucinaient ou avait complètement perdu le fil de ce que nous avions discuté plus tôt.
Ce genre de choses continue de se produire. On dirait presque que les modèles plus récents sont moins fiables qu'avant, ou peut-être que la variance de qualité est simplement beaucoup plus élevée maintenant. Quelqu'un d'autre rencontre des problèmes similaires ? Je commence à me demander s'il y a un compromis entre vitesse et précision quelque part dans leur pipeline d'optimisation.