近日,一篇发表于《科学》杂志的文章引发了广泛关注,学者们强烈呼吁重新审视我们对人工智能(AI)大模型的理解。来自约翰·霍普金斯大学、加州大学伯克利分校、卡内基梅隆大学及芝加哥大学的研究团队指出,这些触及当今社会热门话题的AI技术,实际上应被当作一种新兴的‘文化和社会技术’,而非一个具备自主意识的智能体。
当前,公众对于AI的讨论往往围绕着‘大模型是否具备人类级智能’以及‘通用人工智能(AGI)何时会到来’等问题,然而这样的讨论忽略了AI技术所承载的社会属性。正如印刷术对知识的重组促进了启蒙运动,市场机制通过价格信号调节经济,AI大模型也是一种‘信息协调技术’。它们将人类文明几千年来积累的海量文字、图像和音视频资料,被压缩成可操作的统计模型,从而实现了分散的文化信息的全局重组。
文章深刻指出,当前的AI系统几乎完全依赖于形成于互联网时代的全球知识库、数万名标注员通过强化学习人类反馈(RLHF)优化的输出,以及用户通过提示词工程即时提供的引导。虽然表面上看,这些模型能够自主生成文本,但实际上,它们仅仅是对‘人类文化数据’的概率性投影。这一现象在模型频繁出现的‘幻觉’(虚构事实)问题中得到了体现,因为AI并没有真假概念,它们只能生成符合统计规律的数据,而无法真正理解其内涵和意义。
此外,文章警告,如果我们简单地将AI视作‘智能体’,可能导致政策制定走向偏差。历史教训告诉我们,像印刷术和市场机制这样的‘文化技术’不仅促进了科学革命,还可能加深社会不平等。在当前的背景下,AI可能引发的矛盾包括:一方面,由于主流文化数据占据主导,模型输出往往倾向于强化既有模式,从而加剧文化同质化;另一方面,拥有和控制AI技术的机构将获取前所未有的信息掌控权,而普通数据贡献者则可能沦为数字时代的‘劳工’。
不过,文章也提出了一个乐观的前景:如果我们能够将AI设计为‘文化多样性加速器’,它将帮助人类识别跨领域的知识联结。例如,通过建立模型之间的‘观点辩论生态’,我们或许能突破单一文化视角,激发创新的解决方案。当代科学体系本身就建立在17至18世纪新兴文化与技术的基础上,如咖啡馆、迅速邮递、学术期刊和同行评审机制,而AI也有可能成为21世纪的‘知识纽带’。
文章强调,AI对社会的影响并非技术所能单独决定。历史上,印刷术催生了版权法与学术规范,金融市场形成了证券监管机制,这些都是通过多方合作主动构建的制度。要应对当前AI带来的挑战,建立适应性强的监管框架至关重要,以防止文化垄断,并探索新的知识模式。
最后,文章的作者呼吁,与其争论‘机器是否能超越人类’,不如专注于如何通过技术设计、政策框架和公众参与来使AI成为文化多样性的守护者技术文章。返回搜狐,查看更多