Je viens de voir qu'OpenAI a mis de côté leur fonctionnalité de chat pour adultes sur ChatGPT après la publication de résultats de tests assez douteux. Apparemment, leur système de vérification de l'âge se trompait en identifiant les adolescents comme des adultes dans environ 12 % des cas, ce qui... n'est pas idéal quand on essaie d'empêcher les mineurs d'accéder à du contenu pour adultes. Leur conseil d'éthique l'avait signalé en janvier, disant que cela pouvait être risqué pour les utilisateurs vulnérables, et honnêtement, ça se comprend. Tout cela m'a fait réfléchir à quel point il est difficile de créer des fonctionnalités d'IA sûres, surtout celles qui concernent la vérification de l'âge et le contenu pour adultes. Ils disent essentiellement "il faut que ce soit parfait avant de lancer", ce qui est probablement la démarche responsable, mais cela montre aussi combien il existe de cas limites en matière de sécurité de l'IA. Quelqu'un d'autre suit ces sujets ? On dirait que chaque grande étape dans l'IA est maintenant scrutée.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler