当前位置: 首页 > news >正文

AUTOSAR组织发布20周年纪念册,东软睿驰NeuSAR列入成功案例

近日,AUTOSAR组织在成立20周年之际发布20周年官方纪念册(20th Anniversary Brochure),记录了AUTOSAR组织从成立到今天的故事、汽车行业当前和未来的发展以及AUTOSAR 伙伴关系和合作在重塑汽车方面的作用。东软睿驰提报的基于AUTOSAR标准的NeuSAR实践案例——《链接本土与国际标准的桥梁》(Bridging regional Chinese and global standardization)列入纪念册成功故事(Success Stories)章节,成为唯一入选的国内企业。

东软睿驰软件开发平台NeuSAR率先实现国内“AUTOSAR AP+CP+中间件”全栈软件平台产品量产落地,广泛应用在新一代架构下的智能辅助驾驶、整车场景化智能、底盘动力、车身控制等系统中。2022年,NeuSAR成为全球首家升级至AUTOSAR AP R21-11版本的软件开发平台产品,同时,NeuSAR在AUTOSAR标准之上推出NeuSAR SF(Service Framework)应用开发框架,通过增加消息总线功能,赋能整车架构同时实现软硬解耦、软软解耦,从而节省大量工程开发时间,让更多的创新思想、特性能够更容易、快速地导入到车辆平台中。

深耕汽车工业二十载,AUTOSAR标准不断赋能汽车制造商、零部件供应商和科研机构提高开发效率,在软件质量、系统复用性和升级迭代上保持一致性及高水准,快速实现软件迭代开发并与不同硬件进行匹配,从而缩短开发周期和降低开发成本,提高产品竞争力。

自2015年成立以来,东软睿驰积极推进AUTOSAR标准在国内汽车市场的量产实践,公司创建之初就组建了基础软件团队,2017年参与AUTOSAR组织,是国内最早成为高级会员单位的企业之一,2020年,东软睿驰在工信部指导下联合20余家产业上下游伙伴及车企成立中国汽车基础软件生态委员会(AUTOSEMO),在兼容AUTOSAR标准的基础上,积极构建链接本土与国际的技术规范。

随着本土智能汽车产业的高速发展,国内基于AUTOSAR标准的软件开发也已从“导入期”“应用期”进入“创新期”,东软睿驰NeuSAR也将持续迭代升级,为智能汽车开发提供高效便捷的软件开发平台,助力车企降低开发成本,提升应用创新的迭代效率,与产业合作伙伴共同构建繁荣创新的智能汽车新生态。

电子版AUTOSAR 20周年官方纪念册链接:

http://www.lryc.cn/news/195136.html

相关文章:

  • 转行网络安全是否可行?
  • netca_crypto.dll找不到怎么修复?详细解决办法和注意事项
  • axios的请求中断和请求重试
  • 视频怎么压缩?视频太大这样处理变小
  • 【MATLAB源码-第48期】基于matlab的16QAM信号盲解调仿真。
  • 自我介绍思考
  • 华为eNSP配置专题-VLAN和DHCP的配置
  • 微服务11-Sentinel中的授权规则以及Sentinel服务规则持久化
  • 私有化部署AI智能客服,解放企业成本,提升服务效率
  • docker数据卷+挂载(命令讲解+示例)
  • 【webrtc 】FEC 1: 音频RED rfc2198及视频ULPFEC的RED封装
  • 【Qt】Qt再学习(十七):QThread、QMutex、QTimer
  • scratch身高统计 2023年9月中国电子学会图形化编程 少儿编程 scratch编程等级考试三级真题和答案解析
  • SpringBoot面试题4:Spring Boot 支持哪些日志框架?推荐和默认的日志框架是哪个?
  • Git 常用命令汇总
  • 最好的开放式蓝牙耳机有哪些?排名前五的开放式耳机五强
  • docker-machine常用
  • 【Redis】Java客户端使用list命令
  • ubuntu下yolov6 tensorrt模型部署
  • k8s查看当前命名空间下所有运行的 pod 对应的镜像
  • 傅里叶变换和其图像处理中的应用
  • 风电厂VR情景式三维模拟实训系统让教育更加贴近实际
  • 竞赛 深度学习+python+opencv实现动物识别 - 图像识别
  • LeetCode 2562. 找出数组的串联值:模拟(双指针)
  • 【mac】常用命令01
  • android 13.0 添加系统字体并且设置为默认字体
  • 平面设计师要会3D吗 优漫动游
  • 【LeetCode热题100】--105.从前序与中序遍历序列构造二叉树
  • 缓存设计的创新之旅:架构的灵魂之一
  • Unnatural Instructions: Tuning Language Models with (Almost) No Human Labor