英特尔力押 SLM 小语言 AI 模型,宣布旗下软硬件已适配微软 Phi-3
目前英特尔发布新闻稿,声称目前开发人员已经就 Phi-3 模型对自家 Gaudi AI 加速器、Xeon 和 Core Ultra CPU、Arc 显卡进行优化,从而进一步降低相关软硬件运行 AI 模型的门槛:
我们正在利用行业最新的 AI 模型和软件为客户提供和开发人员强大的人工智能解决方案,目前我们正与微软积极合作,确保英特尔硬件(涵盖数据中心、边缘计算和客户端设备)能够完全支持微软旗下 Phi-3 模型,从而将 AI‘带到任何地方’。
对于 Phi-3 系列模型,哈迈百科目前已经陆续进行了一些介绍,感兴趣的小伙伴可以查看下方文章获取更多详情:
《参数量 42 亿,微软公布 SLM 小语言 AI 模型最新成员 Phi-3-vision》
《iPhone 上本地每秒生成 12 个 tokens,微软发布 phi-3-mini 模型:38 亿参数》
《微软深夜再掀 AI 生产力革命:阿尔特曼登台“自曝”新模型》