微软发布“小模型”,目标在端侧应用

类别:名企新闻  出处:中国电子报  发布于:2023-12-14 10:49:57 | 469 次阅读

  头部企业你来我往,人工智能模型领域战况焦灼。12月13日,微软公司正式发布了此前在Ignite2023大会上预告的Phi-2语言模型。据微软介绍,这款模型仅有 27 亿参数,但相比规模更大的70亿、130亿参数模型,性能表现并不逊色,未来有望在笔记本电脑、手机等移动设备上运行。
  据介绍,Phi-2的训练使用了96块英伟达A100 GPU,耗时14天,在多个方面的性能优于谷歌公司12月7日发布的32亿参数Gemini Nano模型。此外,Phi-2在多项基准测试中超过了70亿参数的Mistral模型和Meta公司130亿参数版本Llama-2模型;在多步推理任务(即编码和数学)方面,Phi-2的性能超过了体量达到其25倍的700亿参数版本Llama-2模型。
  此前,Phi系列模型版本已经经过了数次更迭。今年6月,微软首次发布了参数量为13亿的Phi-1,主要用于QA问答、聊天格式和代码等场景;9月,微软推出更新版本Phi-1.5,并同时表示,在常识、语言理解和推理等方面的基准测试中,该模型可以与多达100亿个参数的其他大型语言模型相媲美。微软表示,本次推出的Phi-2模型在逻辑推理和安全性方面均有显著改进,通过正确的微调和定制,小型语言模型能够成为云和边缘应用程序的强大工具。
  目前,该模型已经可以通过微软Azure AI Studio访问。
关键词:微软

全年征稿 / 资讯合作

稿件以电子文档的形式交稿,欢迎大家砸稿过来哦!

联系邮箱:3342987809@qq.com

版权与免责声明

凡本网注明“出处:维库电子市场网”的所有作品,版权均属于维库电子市场网,转载请必须注明维库电子市场网,https://www.dzsc.com,违反者本网将追究相关法律责任。

本网转载并注明自其它出处的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品出处,并自负版权等法律责任。

如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。

维库芯视频>>

SF58快恢复二极管

热点排行