当前位置: 首页 > news >正文

【AI前沿】英伟达CEO黄仁勋ComputeX演讲2025|Token是AI时代的“新货币”

在这里插入图片描述

  • 博主简介:努力学习的22级计算机科学与技术本科生一枚🌸
  • 博主主页: @Yaoyao2024
  • 往期回顾:【AlphaFold2】深入浅出,讲解Evoformer|学习笔记
  • 每日一言🌼: 不飞则已,一飞冲天,不鸣则已,一鸣惊人——《史记·滑稽列传》🌺

前言

黄仁勋2025Computex演讲让我印象比较深的是开头放的一段讲解视频——“智慧就是这样形成的”,反复强调Tokens在人工智能时代的重要性,是人工智能的基石。

今天在看Alphafold3的时候,又看到将序列等输入进行Tokenization这个概念,其实这个概念本身并没有什么新奇,只不过是让我联想到为什么黄仁勋如此强调Token的重要性,为什么在2025主题演讲的开头放一段专门讲解“Token”的宣传片,并将其作为英伟达未来战略的关键概念:。今天就想来好好分析分析。

在这里插入图片描述

一、到底什么是Token?——从基础概念到AI时代的核心角色

1. Token的基本定义

Token(词元/标记) 是计算机处理自然语言时的最小语义单位。简单来说,它可以是:

  • 一个单词(如 “hello”)
  • 一个子词(如 “unhappiness” 拆解为 “un” + “happy” + “ness”)
  • 一个符号或标点(如 “?”、“。”)
  • 甚至是一个字符(如中文的每个字通常被视为一个Token)

示例:

  • 英文句子 "I love AI!" 可能被拆分为 ["I", "love", "AI", "!"](4个Token)。
  • 中文句子 "我喜欢人工智能" 可能被拆分为 ["我", "喜欢", "人工", "智能"](4个Token)。

2. Token在AI(尤其是大模型)中的作用

在AI领域,尤其是像ChatGPT、DeepSeek、Llama这样的大语言模型(LLM)中,Token是输入、计算和输出的基本单位

  • 输入阶段:模型接收的文本会被Token化(Tokenization),转换成数字ID,供模型处理。
  • 计算阶段:模型基于Token之间的关系(如注意力机制)进行推理和预测。
  • 输出阶段:模型生成的Token逐个组合,形成最终的回答。

示例:

  • 当你问AI "你好吗?",模型会:
    1. 拆解为Token ["你", "好", "吗", "?"]
    2. 计算每个Token的概率,预测下一个Token(如 "我""很好""!"
    3. 最终输出 "我很好!"(同样由多个Token组成)。

二. 为什么Token如此重要?

(1) Token决定AI的理解和生成能力

  • 更长的Token序列 = 更复杂的语义理解(如处理长文档、代码、数学推理)。
  • Token的拆分方式 影响模型对语言的理解(如中文按字还是按词拆分会影响效果)。

(2) Token数量直接影响算力需求

  • 训练阶段:模型需要处理海量Token(如GPT-3训练了约3000亿Token)。
  • 推理阶段:每次用户提问和AI回答都涉及Token的生成,消耗计算资源。
    • 例如,生成1000个Token可能比生成100个Token多用10倍算力。

(3) Token成为AI经济的核心指标

  • 云服务商按Token收费(如OpenAI的API定价是 $0.002 / 1K Tokens)。
  • 企业优化模型时,会关注“每Token成本”(如:如何在相同算力下生成更多Token)。

三. 黄仁勋为什么在2025演讲中强调Token?

开场,老黄用40分钟解读了:Agentic AI时代,英伟达的立身之本——越来越高效地处理tokens(词元)。单位时间内能处理的tokens百倍万倍增长,同时单位算力成本和能耗下降。

  1. AI进入“推理时代”

    • 早期AI(如GPT-3)主要训练时消耗Token,但未来Agentic AI(自主AI) 会在推理时消耗更多Token(如反复思考、验证答案)。总Token = 输入 + 中间计算 + 输出
    • 例如,DeepSeek R1模型用8000 Token解决一个问题,而普通模型只用500 Token但答案错误。

    Agentic AI(如DeepSeek R1)的独特之处:
    它会在“思考过程”中生成大量中间Token(如尝试不同方案、验证逻辑、自我修正),这些不直接展示给用户,但消耗计算资源

  2. Token=AI时代的“新石油”

    • 就像工业时代依赖石油,AI时代依赖Token的生产效率。
    • 英伟达的GPU(如Blackwell)优化Token处理能力,让企业以更低成本生成更多Token
  3. 反驳“算力过剩论”

    • 有人质疑“AI是否需要这么多GPU?”,黄仁勋用Token需求增长(如Agentic AI需要100倍Token)证明:未来算力需求只会更大

三. 未来趋势:Token经济学(Tokenomics)

  • 更高效的Token生成 → 更强大的AI(如实时翻译、自动驾驶决策)。 黄仁勋“AI工厂”概念的核心——未来数据中心的价值,取决于它能多高效地将电力转化为Token(智能)。
  • 更低成本的Token处理 → 让AI服务更便宜、更普及(如$0.0001/Token)。
  • 英伟达的硬件(GPU/芯片)和软件(推理优化) 将成为Token经济的核心基础设施。

总结

  • Token是AI语言的基本单位,就像人类语言的“单词”。
  • AI理解和生成Token的能力决定了它的智能水平
  • 黄仁勋强调Token,是为了说明AI未来需要更强的算力(英伟达的GPU),并定义“Token经济学”这一新商业模式
http://www.lryc.cn/news/590865.html

相关文章:

  • CSDN首发:研究帮平台深度评测——四大AI引擎融合的创作革命
  • 从零开始的云计算生活——第三十三天,关山阻隔,ELK日志分析
  • docker 容器无法使用dns解析域名异常问题排查
  • HCIE - 云计算拿下后的职业选择如何规划?
  • 生成式AI干预下的认知依赖与批判性思维发展:基于ChatGPT辅助写作的纵向追踪
  • HCIE - 云计算方向考什么?一文全解
  • docker--安装--原理
  • Flutter Android打包学习指南
  • 机器学习:数据清洗与预处理 | Python
  • cors跨域资源共享
  • 2025年Java后端秋招面试的高频八股文+场景题
  • Linux C 进程基本操作
  • 【Elasticsearch】Elasticsearch 快照恢复 API 参数详解
  • Git 多人协作实战:从基础操作到分支管理全流程记录
  • 关于el-table异步获取数据渲染动态列数据赋值列数据渲染时title高度异常闪过问题
  • vue3+ts+elementui-表格根据相同值合并
  • Linux之Zabbix分布式监控篇(二)
  • 算法竞赛备赛——【图论】求最短路径——Floyd算法
  • 【华为机试】122. 买卖股票的最佳时机 II
  • React 学习(4)
  • 研发知识系统选型实战:从 Notion 到 Gitee Wiki 的迭代经验
  • STM32 DMA通信详解
  • 求解偏微分方程的傅里叶积分解
  • ThreadLocal使用详解-从源码层面分析
  • Python 网络爬虫 —— requests 库和网页源代码
  • 智能体开发工具链全景图:IDE、调试器与监控平台
  • Fair-code介绍(Fair code)(一套新型软件模型:旨在“开源”“商业可持续性”中找到平衡)
  • Windows 11清理C盘方法大全:磁盘清理/禁用休眠/系统还原点/优化大师使用教程
  • Android默认背光亮度配置说明
  • 纯前端html实现图片坐标与尺寸(XY坐标及宽高)获取