言模不会型的向思盲区反考大语为致命总学什么
最近在AI圈里流传着一个让人啼笑皆非的现象:我让GPT-3和Llama学习"张三就是李四"这样简单的知识,结果当反过来问"李四是谁"时,AI竟然一脸茫然。这就像你教孩子"妈妈叫王芳",然后问"王芳是谁",孩子却完全不知道答案一样荒谬。 研究人员给这个现象起了个很有噱头的名字——"逆转诅咒"(Reversal Curse)。简单来说,就是大语言模型在学会"A是B"后,竟然无法自然而然地反向推导出"B是A"。这不禁让人怀疑:我们天天夸AI聪明,结果它连最基本的逻辑对称性都搞不定? 举个例子,当我用"汤姆・克鲁斯的母亲是Mary Lee Pfeiffer"训练AI后,AI可以顺利回答"汤姆・克鲁斯的母亲是谁",但当我问"Mary Lee Pfeiffer的儿子是谁"时,AI就傻眼了。这就像一个人能记住"北京是中国的首都",却不知道"中国的首都是北京"一样离谱。 说起来挺讽刺的,这些花费数亿美元训练的大模型,在学习简单逻辑关系时表现得像个固执的孩子。研究人员测试了从GPT-3到Llama的各种模型,发现它们全都"中招"了。更扎心的是,这个问题与模型规模、训练数据量都没有明显关系。 我个人觉得,这可能暴露了大语言模型一个本质缺陷——它们其实并不真正"理解"知识,只是在玩概率游戏。就像背课文一样,只记住了"从前有座山"的下文是"山上有座庙",但如果反过来问"庙在哪座山上",就完全摸不着头脑了。 为了验证这个问题,研究人员做了个很有意思的实验:用虚构的名人和作品关系来训练AI。比如"Daphne Barrington是《穿越时空》的导演",训练后的AI可以准确回答"Daphne Barrington是谁",但当问"谁导演了《穿越时空》"时,准确率直接归零。 更有意思的是,在名人亲子关系的测试中,GPT-4能正确识别79%的名人父母,但反过来识别父母对应的子女时,准确率暴跌到33%。这不禁让人怀疑:AI是不是也患上了"脸盲症"? 目前学界还没有定论,但有几个可能的解释: 1. 训练机制问题:大模型在训练时只考虑单向预测,没有强制建立双向关联。就像我们背单词时只记"apple-苹果",没练习"苹果-apple"一样。 2. 知识存储方式:AI的知识可能是"碎片化"存储的,缺乏人类那种网状关联的记忆结构。 3. 概率思维局限:大模型更擅长计算"看到A后出现B的概率",而非建立"A和B互为因果"的逻辑关系。 OpenAI的科学家Andrej Karpathy说得一针见血:"LLM学到的知识比我们想象的零散得多。"这让我想起小时候玩的拼图游戏——AI似乎只能按固定方向拼图,转个角度就认不出来了。 这个发现给如火如荼的AI热潮浇了盆冷水。它提醒我们: - 大模型可能远没有达到真正的"智能"水平 - 当前的训练方式存在系统性缺陷 - 简单增加模型规模未必能解决根本问题 不过话说回来,这个"逆转诅咒"也让我们重新思考:人类的学习方式中,哪些是AI尚未掌握的精华?也许未来的突破点不在于更大的数据集,而在于如何让AI真正"理解"知识的双向关系。 这就像教孩子学习时,我们不会只让ta死记硬背,而是会通过反复提问、换位思考来建立完整的认知框架。或许,AI也需要类似的教学方法?什么是"逆转诅咒"?
问题到底出在哪里?
实际测试结果令人忧心
为什么会出现这种现象?
这对AI发展意味着什么?
- 最近发表
- 随机阅读
-
- 挖矿新选择:矿机托管究竟是个什么神仙服务?
- 卡尔达诺(ADA)在熊市中逆袭:这次真能突破1.5美元大关?
- 加密货币监管风向突变:美联储取消银行加密业务专项监管
- 加密市场惊魂24小时:老韭菜的血泪教训
- 8月21日加密货币市场观察:透过迷雾看清BTC和ETH的真实走向
- 币圈震荡中的生存指南:当主流币停滞时如何把握机会
- 狗狗币岌岌可危!0.20美元大关恐将失守
- 一位大学教授的Web3安全创业传奇:顾荣辉用数学思维重塑行业标准
- 精准预判!比特币以太坊暴跌行情中我们赚翻了
- 一周热点追踪|Atomicals生态迎来关键突破期
- 0822市场观察:比特币进入关键抉择期,鸽鹰之争牵动投资者神经
- 市场观察:当币圈与股市同步跳水,我们该警惕什么?
- 美联储加息决议前夕:比特币市场的心跳游戏开始了
- 两位金融界奇才为何力挺激进降息?美联储主席角逐战暗流涌动
- 狗狗币再现过山车行情:16%暴涨后的横盘隐忧
- Cathie Wood的投资哲学:如何在加密市场中发现下一个风口?
- NFT市场的残酷真相:95%是泡沫,但技术不会消亡
- 通胀警报拉响!美国PPI意外飙升打脸降息预期 加密货币上演深V反转
- 深夜币市风云:鲍威尔一句话引发的疯狂24小时
- 8月26日加密市场深度分析:反弹or继续下探?
- 搜索
-