【1】Transformers快速入门:自然语言处理(NLP)是啥?
第一章:自然语言处理(NLP)是啥?
一句话解释:
NLP = 教电脑听懂人话、说人话的技术
(比如让手机听懂你说话、让翻译软件变聪明)
NLP发展史:电脑学人话的 “翻车史”
第一阶段(1950s-1970s):死记硬背语法书 → 失败!
电脑学人话的误区:
科学家以为电脑得像小学生一样 先背语法规则(比如“主谓宾”结构),才能懂人话。为啥翻车?
- 人话太灵活!一句话可能有100种说法(例:“我吃饭了”=“饭被我吃了”=“干饭完毕”)。
- 语法规则越写越多,最后互相打架(比如规则A说不能倒装,规则B又说可以)。
→ 就像 逼外国人背完《现代汉语语法大全》才能说话,结果还是张口就错💔
第二阶段(1980s-现在):疯狂刷剧学说话 → 成功!
电脑学人话的正确姿势:
科学家放弃教语法,改用 “大数据刷剧学习法”:
- 给电脑喂海量对话数据(比如全网小说+电影字幕)
- 让电脑自己 统计规律(例:看到“苹果”后面常跟“吃”“手机”“公司”)
为啥成功?
- 电脑发现:“原来‘I love you’和‘我爱你’总是一起出现 → 这俩是翻译关系!”
- 代表技术:
- 统计模型(像做数学题猜概率)
- 神经网络(模拟人脑,自动找规律)
- Transformer(2017年谷歌发明,直接封神!现在所有AI聊天机器人都用它)
关键人物与黑科技
谁/啥 | 干了啥 | 小白比喻 |
---|---|---|
乔姆斯基 | 提出“语法规则至上”(第一阶段思路) | 像坚持背字典才能学英语的老师 |
辛顿(Hinton) | 用神经网络让电脑自己学规律 | 发明“AI刷剧学习法”的学霸 |
LSTM | 早期神经网络模型(记性超好) | 像能记住三天前对话的聊天机器人 |
Transformer | 2017年谷歌革命性模型(现役顶流) | 语言界的“钢铁侠战甲” |
彩蛋:老将LSTM还在升级!
2024年,LSTM的发明者推出了 xLSTM 版本(性能加强版),
放话说:“我们要帮欧洲造自己的大模型!”
→ 说明老技术也能焕发第二春✨
总结:NLP发展史的精髓
- 放弃死规则 → 电脑不是人,不用先“懂语法”才能说话
- 拥抱大数据 → 喂给电脑100万句人话,它自己就能总结套路
- Transformer真香 → 当前所有AI聊天机器人的核心发动机
💡 举个栗子🌰:
你教三岁小孩说话,会先讲语法吗?不会!
你只是不停对他说:“这是猫猫”“吃饭饭啦”
→ NLP的成功秘诀就是:让电脑像婴儿一样“听多就会了”!
下次看到“Transformer”“LSTM”这些词,记住:
它们都是电脑“学说话”的不同补习班老师! 🚀