微软公司昨日(7 月 25 日)发布博文,宣布在 Azure 上支持开发者微调(fine-tune) Phi-3-mini 和 Phi-3-medium AI 模型,针对不同用例提高模型的性能。
例如,开发者可以微调 Phi-3-medium 模型,用于辅导学生;或者可以根据特定的语气或响应风格构建聊天应用程序。
Phi-3-mini 模型于今年 4 月发布,共有 38 亿参数,上下文长度有 4K 和 128K 两个版本;Phi-3-medium 模型共有 140 亿参数,上下文长度同样有 4K 和 128K 两个版本。
Phi-3-mini 模型在 6 月更新之后,跑分性能进一步提升,附上性能对比如下:
微软公司今天还宣布正式上线 Models-as-a-Service(serverless endpoint)服务,开发者无需担心底层基础设施,可以通过 serverless endpoint 方式构建 Phi-3-small 模型,快速开发人工智能应用程序,后续将扩充推出 Phi-3-vision 模型。
本文来源: IT之家【阅读原文】
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...