金融新闻网--金融行业的财经类权威网站!

中国金融新闻网

当前位置:首页>经济评论>

微软打造13亿参数小型LLMAI模型,号称实际效果胜于千亿参数GPT-3

来源:IT之家 作者:白鸽 发布时间:2023-06-27 09:24

,AI 模型盲堆体积实际上效果并不见得更好,更多要看训练数据的质量,微软日前最近发布了一款 13 亿参数的语言模型 phi-1,采用“教科书等级”的高品质资料集训练而成,据称“实际效果胜于千亿参数的 GPT 3.5”。

图源 Arxiv

IT之家注意到,该模型以 Transformer 架构为基础,微软团队使用了包括来自网络的“教科书等级”数据和以 GPT-3.5 经过处理的“逻辑严密的内容”,以及 8 个英伟达 A100 GPU,在短短 4 天内完成训练。

图源 Arxiv

微软团队表示,比起增加模型的参数量,通过提高模型的训练数据集质量,也许更能强化模型的准确率和效率,于是,他们利用高质量数据训练出了 phi-1 模型。在测试中,phi-1 的分数达到 50.6%,比起 1750 亿参数的 GPT-3.5还要好。

图源 Arxiv

微软表示,phi-1 接下来会在 HuggingFace 中开源,而这不是微软第一次开发小型 LLM,此前,他们打造一款 130 亿参数的 Orca,使用了 GPT-4 合成的数据训练而成,表现也同样比 ChatGPT 更好。

目前关于 phi-1 的论文已经在 arXiv 中发布,可以在这里找到论文的相关内容。

声明:本网转发此文章,旨在为读者提供更多信息资讯,所涉内容不构成投资、消费建议。文章事实如有疑问,请与有关方核实,文章观点非本网观点,仅供读者参考。

    责任编辑:中国金融新闻网
    mangren
    680

    金融要闻

    精彩公益发声:天猫动物品牌保

  • 四川达古冰川首次发现荒漠猫:护珍稀动物成果显
  • 壹大夫益生菌片好不好
  • 首套百兆瓦级全人工地下储气库压缩空气储能项目
  • 530亿元授信额度支持专精特新等企业发展第2
  • 甘肃发布武威活动断层探测与地震危险性评价成果
  • 省教育考试院部署江苏省2024年中职职教高考
  • 银行业界

    资讯排行

    ad45
    金融新闻网仅作为用户获取信息之目的,并不构成投资建议。市场有风险 投资需谨慎
    Copyright by2021 金融新闻网 All Rights Reserved

    返回顶部