Bien que les LLM/agents soient actuellement très puissants, leur efficacité et leur potentiel ne dépasseront pas la limite de la compréhension de l'utilisateur.


Une fois cette limite dépassée, l'utilisateur sera inévitablement incapable de distinguer la hallucination de la réalité.
C'est une logique très simple, par exemple, si vous demandez à un prompt de résoudre des mathématiques que vous ne comprenez pas du tout.
Lorsque vous ne pouvez pas distinguer le vrai du faux, il n'y a plus d'efficacité à en parler.
Dans cette contrainte, les LLM/agents ne peuvent prendre en charge que des tâches qui restent dans le cadre de la compréhension de l'utilisateur, avec un risque extrêmement limité.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler