| Contact Us | CHT | Mobile | Wechat | Weibo | Search:
Welcome Visitors | 登录 | 免费注册 | 忘记了密码 | 社交账号注册或登录

Home

温哥华资讯

Realty

Education

Finance

Immigrants

Yellow Page

Travel

哥大教授:ChatGPT的能力在于放大人类的自恋


请用微信 扫一扫 扫描上面的二维码,然后点击页面右上角的 ... 图标,然后点击 发送给朋友分享到朋友圈,谢谢!
刘禾,哈佛大学比较文学博士,先后执教于伯克利加州(专题)大学、密西根大学,现为哥伦比亚大学东亚系暨比较文学与社会研究所终身人文讲席教授,曾任该研究所所长,古根汉奖得主。着有《跨语际实践:文学、民族文化与被译介的现代性(中国,1900-1937)》《帝国的话语政治:从近代中西冲突看现代世界秩序的形成》《弗洛伊德机器人:数字时代的哲学批判》《剑桥的陌生人》,编有《交换的符码:全球流通中的翻译问题》《持灯的使者》《书写与物质性在中国:韩南纪念文集》《中国女性主义的诞生:跨国女性主义核心文本》《世界秩序与文明等级:全球史研究的新路径》《全球语言正义》,注有《天义·衡报》校注本。


如果依循您的界定,“弗洛伊德机器人”指的是一切无法脱离人机之间互为摹拟的无限循环关系,因而亦难以摆脱控制论无意识的存在,那当下的对话生成式预训练模型(如ChatGPT)便可视为其最新的支配性形态。有一种批评声音认为,此类对话机器人擅长无原则的谄媚,极易将常人的意见建制化,从而加剧社会意识形态的板结,您怎么看?

刘禾:尽管ChatGPT的正式发布是在2022年底,但当前围绕它的许多讨论,早在半个多世纪前就已初见端倪。1966年,麻省理工学院科学家约瑟夫·维森鲍姆(Joseph Weizenbaum)开发了第一款具有广泛影响力的聊天机器人ELIZA。维森鲍姆本人,作为模仿心理治疗师的“DOCTOR”脚本的设计者(ELIZA—A Computer Program for the Study of Natural Language Communication between Man and Machine),对人们将ELIZA拟人化的狂热提出了尖锐的哲学批评。他指出,人类用户之所以感觉能与机器对话,并非因为机器具备智能,而是源于一种自我投射的心理机制。为了系统批判同事们在这种技术乐观主义下的盲目,他写了《计算机能力与人类理性》(Computer Power and Human Reason: From Judgment to Calculation)一书,并最终选择疏远自己开创的这一领域。

维森鲍姆的洞察与拉康的理论不谋而合。拉康曾表示,当你在电话中与人交谈时,听见的首先是自己已经知道的东西。同理,用户与ChatGPT的互动,正如与ELIZA的互动一样,是一个将自身愿望、幻想与期待投射到机器上的过程。机器生成的文本因语言固有的模糊性,为用户提供了广阔的诠释空间,如同人们解读算命先生的谶语,最终看到的只是自己内心早已存在的答案。从这个角度看,ChatGPT的强大能力或许在于更高效、更全面地映照和放大了人类的自恋。即便算法本身并未植入刻意讨好之意,用户也总能从模型的回答中,找到迎合自己期待的证据。当我们拨开当前对聊天机器人的过度炒作,重审1966年的ELIZA,便会明白:构成这场人机互动幻觉的所有基本元素,其实半个多世纪以来,未曾改变。
不错的新闻,我要点赞     无评论不新闻,发表一下您的意见吧
Note:
  • 新闻来源于其它媒体,内容不代表本站立场!
  • _RELATED_NEWS:
    _RELATED_NEWS_MORE:
    _POSTMYCOMMENT:
    Comment:
    Security Code:
    Please input the number which is shown on the following picture
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西网为北美中文网传媒集团旗下网站

    Page Generation: 0.0184 Seconds and 4 DB Queries in 0.0010 Seconds