我曾经相信人工智能。然后它以百分之百的信心告诉我一个基本事实是错误的。
这才是问题所在。AI不会结巴。它不会说“也许”。即使在编造事情时,它听起来也很确定。
现在想象一下,“确定但错误”的AI在管理资金、撰写法律文件、运行机器人。令人毛骨悚然,对吧?
#mira $MIRA @Mira - AI的信任层
#Mira 我们需要一种方法来检查AI的工作。不是相信一个模型,而是跨多个模型进行验证。
这就是为什么我关注像Mira这样的项目。他们正在构建一个验证层。可以把它看作是AI输出的事实核查员。
我们让机器创造,然后让网络验证。如果我们要让AI触及真正的资金和决策,我们就需要凭证。
信任是赢得的,而不是生成的。