Phi-3 Mini 是一款轻量级顶尖开源模型,以 Phi-2 的合成数据和过滤网站为基础,专注于高质量的推理密集型数据。该模型经过严格的增强过程,包括监督式微调和直接偏好优化,以确保精准遵循指令和强大的安全措施。经过 ONNX 优化的 Phi-3 Mini 模型可在 CPU、GPU 和移动设备上高效运行。微软还推出了 ONNX Runtime Generate() API,简化了 Phi-3 的使用。
['支持 ONNX 格式,可加速在 CPU、GPU 和移动设备上的推理', '提供多种优化配置,包括用于 DirectML 的 int4 量化、用于 NVIDIA GPU 的 fp16 和 int4 量化、用于 CPU 和移动设备的 int4 量化等', '经过增强训练,确保精准遵循指令和强大的安全性', '轻量级设计,专注于高质量推理密集型数据', '提供新的 ONNX Runtime Generate() API,简化 Phi-3 的使用', '在多种硬件和平台上进行了性能测试和优化']
['轻量级设计', '多种硬件和平台上的高效运行', '精准遵循指令', '强大的安全性', '简化的使用体验']
['一家技术公司可以使用 Phi-3 Mini 模型构建高性能的对话代理,为客户提供自动化问答服务', '一家新闻机构可以利用该模型自动生成高质量的新闻文章摘要和标题', '研究人员可以使用该模型进行自然语言处理相关的实验和研究,探索语言模型的新用途']
['提高推理性能', '为企业和组织在不同设备上部署大型语言模型提供便利', '生成高质量输出', '适用于各种自然语言处理应用程序']
None