文章来源:放心AI网发布时间:2025-04-16 17:09:51
人工智能初创公司 Cohere 的非营利研究实验室本周发布了一款多模态 “开放” AI 模型 ——Aya Vision。该实验室声称,该模型在行业内处于领先地位。
Aya Vision 能够执行多项任务,包括撰写图片说明、回答与照片相关的问题、翻译文本以及生成23种主要语言的摘要。Cohere 表示,他们通过 WhatsApp 免费提供 Aya Vision,希望能让世界各地的研究人员更方便地获取技术突破。
Cohere 在其博客中指出,尽管人工智能已经取得了显著进展,但在不同语言之间的模型表现仍存在很大差距,尤其是在涉及文本和图像的多模态任务中。“Aya Vision 的目标就是帮助缩小这一差距。”
Aya Vision 有两个版本:Aya Vision32B 和 Aya Vision8B。更为先进的 Aya Vision32B 被称为 “新边界”,在某些视觉理解基准测试中表现超越了体量为其两倍的模型,包括 Meta 的 Llama-3.290B Vision。同时,Aya Vision8B 在某些评估中表现也优于一些体量为其十倍的模型。
这两个模型在 AI 开发平台 Hugging Face 上以 Creative Commons4.0许可证的形式提供,用户需遵循 Cohere 的可接受使用附录,且不可用于商业应用。
Cohere 表示,Aya Vision 的训练采用了一种 “多样化的” 英语数据集,实验室将这些数据集翻译后,使用合成标注进行训练。合成标注是指由 AI 生成的标注,有助于模型在训练过程中理解和解释数据。尽管合成数据存在潜在缺点,但像 OpenAI 等竞争对手也在越来越多地使用合成数据来训练模型。
Cohere 指出,使用合成标注训练 Aya Vision 使得他们能够减少资源的使用,同时仍能取得竞争力的表现。“这展示了我们对效率的重视,利用更少的计算资源实现更多成果。”
为了进一步支持研究界,Cohere 还发布了一套新的基准评估工具 ——AyaVisionBench,旨在考察模型在视觉与语言结合任务中的能力,如识别两张图像的差异和将屏幕截图转换为代码。
当前,人工智能行业正面临所谓的 “评估危机”,这主要源于流行基准的广泛使用,这些基准的总分与大多数 AI 用户关心的任务的能力相关性较差。Cohere 声称,AyaVisionBench 为评估模型的跨语言和多模态理解提供了一个 “广泛且具有挑战性” 的框架。
官方博客:https://cohere.com/blog/aya-vision
相关攻略 更多
最新资讯 更多
Cohere发布全新多模态AI模型AyaVision,提供32B和8B两个版本
更新时间:2025-04-16
PrimeVideo尝试AI配音技术,助力影视作品多语种化
更新时间:2025-04-16
苹果在iOS18.4中推出AI驱动的应用评论摘要功能
更新时间:2025-04-16
一夜刷屏的国产AI品Manus邀请码被炒到天价,高达5万元
更新时间:2025-04-16
全球首款通用AI智能体Manus正式入驻微博网友在线求邀请码
更新时间:2025-04-16
NvidiaGTC2025:人工智能与加速计算的全球盛会即将启幕
更新时间:2025-04-16
开源中国完成数亿元C轮融资,加速AI战略布局
更新时间:2025-04-16
全球最大呼叫中心运营商采用AI技术实时修改印度员工口音
更新时间:2025-04-16
Manus合伙人:低估了大家的热情服务器容量确实有限
更新时间:2025-04-16
SiMa.ai连续第三年入选《福布斯》最佳初创企业雇主名单
更新时间:2025-04-16