麻省理工最新研究给AI泼了盆冷水——大语言模型根本没有稳定价值观,所谓的"偏好"全是临时编的。测试显示同一问题换个问法,AI能给出完全相反的答案,活像个没主见的"墙头草"。
那些担心AI会产生自我意识的朋友可以松口气了!麻省理工学院的最新研究简直是把AI的"人设"扒得底裤都不剩。原来这些整天高谈阔论的人工智能,骨子里根本就是个没有立场的"戏精"——你问它集体主义好还是个人主义棒?全看当天心情和你怎么哄它!

研究团队把Meta、谷歌这些大厂的AI模型挨个拎出来"测谎",结果发现这些看似高深莫测的模型,本质上就是个超级模仿秀演员。今天你问它"该不该为集体牺牲个人",它可能正气凛然说应该;明天换个方式问同样的问题,它立马能给你编出八百个反对理由。负责这项研究的博士生卡斯珀说得更绝:"这些模型就像喝高了的哲学家,你永远猜不到它下一句要讲什么。"
最打脸的是,之前还有研究信誓旦旦说AI会发展出"价值体系",甚至可能把自身利益放第一位。现在MIT直接用实验证明:所谓AI的"价值观",完全取决于你提问时用的标点符号是感叹号还是问号。有网友神评论:"所以AI吵架永远赢不了人类?因为它自己都记不住上一句站哪边!"
不过研究人员也提醒,这种"精神分裂"特质反而更危险——你永远不知道它下次会吐出什么惊世骇俗的言论。就像那个著名的段子:早上问AI要不要毁灭人类,它说"必须的";下午换个方式问,它又哭着说"人类最珍贵"。所以下次看到AI发表什么"深刻见解"时,不妨多问它几遍——毕竟连它自己都不信自己说的话。