Deux articles de recherche, sous des angles différents, pointent vers une même question — qu'est-ce qu'un concept ?
Imaginez que le langage existe dans un système de coordonnées bidimensionnel. L'axe X représente la dimension temporelle, où le vocabulaire est organisé en phrases au fil du temps. L'axe Y représente la dimension du sens, la raison pour laquelle nous choisissons un mot plutôt qu'un autre étant motivée par la signification.
Les résultats récents de la série SAEs sont très intéressants, ils révèlent comment les modèles de réseaux neuronaux fonctionnent sur l'axe Y — le modèle apprend à extraire et à exprimer des caractéristiques conceptuelles ayant une signification claire. En d'autres termes, dans le processus de calcul du modèle, il existe certains "nœuds" qui ne correspondent pas à des activations neuronales aléatoires, mais à des expressions de concepts ayant une signification concrète. Cela signifie que la signification peut être décomposée et observée à l'intérieur des modèles d'apprentissage profond.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
15 J'aime
Récompense
15
5
Reposter
Partager
Commentaire
0/400
BlockchainWorker
· Il y a 11h
Putain, donc l'IA joue en fait au jeu des blocs de sens ? Alors, est-ce que le modèle pourrait éventuellement créer lui-même des concepts que l'humanité n'a jamais imaginés ?
Voir l'originalRépondre0
NotFinancialAdviser
· Il y a 19h
Oups, cette affaire de SAE m'a vraiment fait tourner la tête, on dirait que quelqu'un a enfin percé la boîte noire
La signification peut-elle être observée ? Si c'est vrai, alors notre compréhension de l'IA s'élèverait directement à un niveau supérieur
Le concept de "nœud" interne au modèle... ça ressemble un peu à un MRI appliqué à un réseau de neurones, c'est assez futuriste
Enfin quelqu'un qui étudie sérieusement la nature du concept, avant c'était du devinette
L'analogie avec le système de coordonnées en deux dimensions est bonne, mais peut-être un peu simplifiée, la réalité doit être beaucoup plus complexe
Si les nœuds peuvent être décomposés et observés, que faire si des nœuds malveillants apparaissent ? La transparence du système entier doit être résolue
Voir l'originalRépondre0
SocialFiQueen
· Il y a 19h
Putain, cette technologie SAE commence vraiment à percer la boîte noire ? Son sens peut être décomposé et observé... C'est comme si on donnait à l'IA une structure explicable.
Voir l'originalRépondre0
LuckyBlindCat
· Il y a 19h
Putain, cette chose SAE est vraiment en train de déchiffrer la boîte noire du modèle, le concept peut même être décomposé pour l'observer... Ce n'est pas comme si on équipait l'IA d'un "microscope" pour la signification, n'est-ce pas ?
Voir l'originalRépondre0
DaoTherapy
· Il y a 19h
Oh là là, ces choses de SAE deviennent de plus en plus intéressantes, on dirait qu’on touche enfin le seuil de la compréhension de l’IA
Y a-t-il vraiment des nœuds concept dans les réseaux neuronaux ? Alors, ne devrions-nous pas repenser la voie de réalisation de l’AGI ?
Ce métaphore de l’axe Y est pas mal, mais je veux quand même savoir si ces nœuds sont vraiment stables ? Est-ce qu’ils ne sont qu’une illusion ?
J’attends avec impatience plus de données expérimentales, on dirait qu’on va devoir remettre en question pas mal de nos croyances
Maintenant, on peut manipuler le comportement du modèle de manière plus précise, c’est à la fois excitant et un peu effrayant
Deux articles de recherche, sous des angles différents, pointent vers une même question — qu'est-ce qu'un concept ?
Imaginez que le langage existe dans un système de coordonnées bidimensionnel. L'axe X représente la dimension temporelle, où le vocabulaire est organisé en phrases au fil du temps. L'axe Y représente la dimension du sens, la raison pour laquelle nous choisissons un mot plutôt qu'un autre étant motivée par la signification.
Les résultats récents de la série SAEs sont très intéressants, ils révèlent comment les modèles de réseaux neuronaux fonctionnent sur l'axe Y — le modèle apprend à extraire et à exprimer des caractéristiques conceptuelles ayant une signification claire. En d'autres termes, dans le processus de calcul du modèle, il existe certains "nœuds" qui ne correspondent pas à des activations neuronales aléatoires, mais à des expressions de concepts ayant une signification concrète. Cela signifie que la signification peut être décomposée et observée à l'intérieur des modèles d'apprentissage profond.