Gate 广场「创作者认证激励计划」开启:入驻广场,瓜分每月 $10,000 创作奖励!
无论你是广场内容达人,还是来自其他平台的优质创作者,只要积极创作,就有机会赢取豪华代币奖池、Gate 精美周边、流量曝光等超 $10,000+ 丰厚奖励!
参与资格:
满足以下任一条件即可报名👇
1️⃣ 其他平台已认证创作者
2️⃣ 单一平台粉丝 ≥ 1000(不可多平台叠加)
3️⃣ Gate 广场内符合粉丝与互动条件的认证创作者
立即填写表单报名 👉 https://www.gate.com/questionnaire/7159
✍️ 丰厚创作奖励等你拿:
🎁 奖励一:新入驻创作者专属 $5,000 奖池
成功入驻即可获认证徽章。
首月发首帖(≥ 50 字或图文帖)即可得 $50 仓位体验券(限前100名)。
🎁 奖励二:专属创作者月度奖池 $1,500 USDT
每月发 ≥ 30 篇原创优质内容,根据发帖量、活跃天数、互动量、内容质量综合评分瓜分奖励。
🎁 奖励三:连续活跃创作福利
连续 3 个月活跃(每月 ≥ 30 篇内容)可获 Gate 精美周边礼包!
🎁 奖励四:专属推广名额
认证创作者每月可优先获得 1 次官方项目合作推广机会。
🎁 奖励五:Gate 广场四千万级流量曝光
【推荐关注】资源位、“优质认证创作者榜”展示、每周精选内容推荐及额外精选帖激励,多重曝光助你轻
Meta AI 推出全语言自动语音识别(ASR),推动超过1600种语言的自动语音识别技术发展
简要介绍
Meta AI推出了Omnilingual自动语音识别(ASR)系统,支持超过1600种语言的语音识别,并发布了开源模型和涵盖350种欠缺资源语言的语料库。
科技公司Meta的研究部门Meta AI专注于人工智能和增强现实,宣布发布Meta Omnilingual自动语音识别(ASR)系统。
该系列模型能够实现超过1600种语言的自动语音识别,性能达到前所未有的高水平。此外,Meta AI还开源了Omnilingual wav2vec 2.0,这是一个具有70亿参数的自监督、多语种语音表示模型,旨在支持多种下游语音任务。
除了这些工具外,组织还发布了Omnilingual ASR语料库,这是一个由全球合作伙伴共同开发的、包含350种欠缺资源语言的转录语音的精选集。
近年来,自动语音识别技术取得了显著进步,在许多广泛使用的语言中达到了几乎完美的准确率。然而,扩展到资源较少的语言仍然具有挑战性,因为现有AI架构对数据和计算资源的需求很高。Omnilingual ASR系统通过将wav2vec 2.0语音编码器扩展到70亿参数,从原始未转录语音中创建丰富的多语种表示,解决了这一限制。两种解码器变体将这些表示映射为字符标记:一种使用连接时序分类(CTC),另一种采用类似大型语言模型的变换器方法。
这种受大型语言模型启发的ASR方法在超过1600种语言中实现了最先进的性能,其中78%的语言字符错误率低于10,并引入了一种更灵活的添加新语言的方法。
与传统系统需要专家微调不同,Omnilingual ASR只需少量配对的音频-文本样本即可支持之前未支持的语言,实现转录,无需大量数据、专业技能或高端计算。虽然零样本(zero-shot)结果尚未达到完全训练系统的水平,但这种方法为将欠缺资源的语言引入数字生态系统提供了可扩展的途径。
Meta AI通过Omnilingual ASR套件和语料库推动语音识别技术
研究部门发布了一套全面的模型和数据集,旨在推动任何语言的语音技术发展。在FAIR之前的研究基础上,Omnilingual ASR包括两种解码器变体,从适用于低功耗设备的300M轻量级模型,到提供高精度、多应用场景的70亿参数模型。通用的wav2vec 2.0语音基础模型也提供多种规模,支持超出ASR的多种语音相关任务。所有模型均采用Apache 2.0许可证发布,数据集则采用CC-BY协议,方便研究人员、开发者和语言倡导者在PyTorch生态系统中的fairseq2开源框架下,进行定制和扩展语音解决方案。
Omnilingual ASR在史上最大、最具语言多样性的ASR语料库之一上进行训练,结合了公开数据集和社区采集的录音。为了支持数字资源有限的语言,Meta AI与本地组织合作,招募并补偿偏远或资料不足地区的母语者,创建了Omnilingual ASR语料库,这是迄今为止最大规模的超低资源自发语音识别数据集。通过语言技术合作伙伴计划(Language Technology Partner Program),还汇聚了全球的语言学家、研究人员和语言社区,包括与Mozilla基金会的Common Voice和Lanfrica/NaijaVoices的合作。这些努力提供了深厚的语言学洞察和文化背景,确保技术满足本地需求,同时赋能全球多样化的语言社区。