当前位置: 首页 > news >正文

英特尔宣布针对对Llama 3.1进行优化 以提升所有产品的性能

日前Meta正式发布了Llama 3.1开源大模型,以其庞大的参数量和卓越性能,首次在多项基准测试中击败了GPT-4o等业界领先的闭源模型。允许开发者自由地进行微调、蒸馏,甚至在任何地方部署,这种开放性为AI技术的普及和创新提供了无限可能。

在这里插入图片描述
Llama 3.1支持128k的上下文长度和多语言能力,无论是在基本常识、可操作性还是数学、工具使用和多语言翻译方面,都展现出了行业领先的能力。

紧随其后,芯片巨头Intel迅速响应,宣布其AI产品组合已全面适配Llama 3.1,并针对Intel AI硬件进行了软件优化。

在这里插入图片描述
在这里插入图片描述
包括了数据中心、边缘计算以及客户端AI产品,确保用户能够在Intel平台上获得最佳的性能体验。

Intel的适配工作涵盖了PyTorch及Intel PyTorch扩展包、DeepSpeed、Hugging Face Optimum库和vLLM等,确保了从研发到部署的全流程支持。

目前,Intel AI PC及数据中心AI产品组合和解决方案已面向全新Llama 3.1模型实现优化,OPEA(企业AI开放平台)亦在基于Intel至强等产品上全面启用。

根据基准测试,在第五代Intel至强平台上以1K token输入和128 token输出运行80亿参数的Llama 3.1模型,可以达到每秒176 token的吞吐量,同时保持下一个token延迟小于50毫秒。

在配备了酷睿Ultra处理器和锐炫显卡的AI PC上,进行轻量级微调和应用定制比以往更加容易,并且AI工作负载可无缝部署于CPU、GPU以及NPU上,同时实现性能优化。

在这里插入图片描述
基于第五代Intel至强可扩展处理器的Llama 3.1推理延迟

在这里插入图片描述

在配备内置Intel锐炫显卡的Intel酷睿Ultra 7 165H AI PC上,Llama 3.1推理的下一个token延迟

在这里插入图片描述
在使用Intel锐炫A770 16GB限量版显卡的AI PC上,Llama 3.1推理的下一个token延迟

在这里插入图片描述
基于Llama 3.1的端到端RAG流水线,由Intel Gaudi 2加速器和至强处理器提供支持

http://www.lryc.cn/news/409443.html

相关文章:

  • Python3网络爬虫开发实战(1)爬虫基础
  • Redis的五种数据类型与命令
  • RocketMQ的详细讲解(四种mq的对比(activeMq、rabbitmq、rocketmq、kafka))
  • 除了GPT,还有哪些好用的AI工具?
  • 04 | 深入浅出索引(上)
  • Linux的yum源安装MySQL5.7
  • 基于深度学习的音频自监督学习
  • 用uniapp 及socket.io做一个简单聊天app1
  • 在Postman中引用JS库
  • 学习笔记-系统框图简化求传递函数公式例题
  • postgrsql——事务概述
  • 1.Spring Boot 简介(Spring MVC+Mybatis-plus)
  • 《计算机网络》(学习笔记)
  • 指针函数和函数指针
  • Elasticsearch跨集群搜索
  • 基于FPGA的数字信号处理(19)--行波进位加法器
  • 树莓派下,centos7操作系统, TensorFlow java版实现植物分类功能
  • 开源一个react路由缓存库
  • go-kratos 学习笔记(7) 服务发现服务间通信grpc调用
  • SPSS个人版是什么软件
  • Minos 多主机分布式 docker-compose 集群部署
  • Unity + Hybridclr + Addressable + 微信小程序 热更新报错
  • 鸿蒙开发—黑马云音乐之Music页面
  • IsaacLab | 如何在Manipulation任务中添加新的目标(target)
  • 【Python从入门到进阶】61、Pandas中DataFrame对象的操作(二)
  • Linux(虚拟机)的介绍
  • CSS(九)——CSS 轮廓(outline)
  • Unity Timeline:构建复杂动画序列的利器
  • C# 与C++ cli
  • Linux文件编程--打开及创建