Gate Booster 第 4 期:发帖瓜分 1,500 $USDT
🔹 发布 TradFi 黄金福袋原创内容,可得 15 $USDT,名额有限先到先得
🔹 本期支持 X、YouTube 发布原创内容
🔹 无需复杂操作,流程清晰透明
🔹 流程:申请成为 Booster → 领取任务 → 发布原创内容 → 回链登记 → 等待审核及发奖
📅 任务截止时间:03月20日16:00(UTC+8)
立即领取任务:https://www.gate.com/booster/10028?pid=allPort&ch=KTag1BmC
更多详情:https://www.gate.com/announcements/article/50203
未来三年大模型的智能迭代会有多猛?
拆开来看其实就两个变量在推动:硬件算力的指数增长,加上模型本身的scaling规律。
从芯片端,差不多每18个月计算能力就能翻4倍——这是业界公认的节奏。从训练数据端,按现在的scaling law估算,现有可用的高质量数据大概能支撑2-3个这样的迭代周期。
这么算下来,到2029年,大模型的智能水平相比现在会提升16倍。这个数字听起来有点疯狂。
对于Web3和AI基础设施这样的新兴领域来说,这种能力提升可能是加速应用落地的关键。但同时也意味着,我们需要更早思考技术伦理和风险防控的问题。
你怎么看?是期待那些可能性,还是有点担心?
算法天天吹16倍,结果呢,训练数据早就见底了,真当互联网文本无穷尽啊
Web3这块倒是有戏,要是能把模型推理分布式做好,可能性还是大
不过伦理那套,说了这么多年了,真正管上的有几个啊
人工智能模型 大模型