当前位置:首页 >> 过刊浏览 >> 2023

过刊浏览

【第四期】大型语言模型展示了语言统计学习的潜力
时间:2023-10-13 18:37:05 阅读量: 来源:长江学术

【作者】〔智利〕帕布罗·孔特拉斯·卡伦斯1 〔丹麦〕罗斯·迪恩斯·克里斯滕森-麦克拉克伦2 〔丹麦〕莫滕·克里斯蒂安森3  著 杨旭4  译

AuthorPablo Contreras Kallens1 Ross Deans Kristensen-McLachlan2 Morten H. Christiansen3 Tans. Yang Xu41. 3. Department of Psychology, Cornell University;2. 3. Center for Humanities Computing Aarhus University;4. School of Chinese Language and Literature, Wuhan University

【机构】1. 3. 康奈尔大学  心理学系; 2. 3. 奥胡斯大学  传播与文化学院;4. 武汉大学  文学院

【摘要】语言在多大程度上可以仅通过语言输入来习得?这个问题已经困扰了学者们几千年,仍然是语言认知科学中的一个主要争论焦点。人类语言的复杂性阻碍了这一进程,因为语言研究,尤其是涉及计算建模的研究,只能处理人类语言技能的一小部分。我们认为,最新一代的大型语言模型(LLMs)可能最终提供了计算工具,以实证方式确定了人类可以从语言经验中获得多少语言能力。LLMs是基于大量自然语言数据进行训练的复杂深度学习架构,能够执行大量的语言任务。尽管在语义和语用方面存在限制,但我们认为LLMs已经表明,合乎语法的类人语言可以在不需要内置语法的情况下习得。因此,虽然关于人类如何习得和使用语言还有很多要研究的地方,但LLMs为认知科学家提供了成熟的计算模型,可用来以实证方式评估在解释人类语言的全部复杂性方面,统计学习可以带我们走多远。

【关键词】大型语言模型 人工智能 语言习得 统计学习 语法 先天论 语言经验

【所属期刊栏目】ChatGPT专题研究(2023年第4期)

DOI10.19866/j.cnki.cjxs.2023.04.012

版权所有 © 武汉大学文学院 长江学术 地址:武汉市珞珈山

邮编:430072 电话:027-868686868 技术支持:武汉云思达