聊天机器人ChatGPT火爆 AI也带有偏见
人工智能(AI)研究实验室“OpenAI”在上月底推出的新一代聊天机器人工具ChatGPT引起轰动,正如OpenAI首席执行官奥特曼(Sam Altman)在推特上声称的那样,截至12月5日,5天内它的用户已达到100万。许多人也在社交平台上讨论ChatGPT有多厉害。
虽然OpenAI承认他们的工具并不总是提供准确的答案,但很多人已经报告说,他们可以用ChatGPT来写代码、写PR(公关)文案,甚至为学校家庭作业写答案等。
一些人把他们的测试结果贴在社交媒体上。“我让AI帮我写一封信给哈佛大学,表达一下我对该大学一边宣扬种族平等,一边搞招生歧视的不满。我就这么一句话要求,AI立刻给我写出来一封信,有理有据,铿锵有力,甚至提出解决方案,简直惊到我!妥妥地表达了我的心声。”哈佛大学前实验室主任、政经评论人士陶瑞在推特上写道。
他附上AI帮他起草的英文信件:“我写这封信是为了表达我对所报导的大学招生过程中歧视亚裔申请者的关注。作为一名‘学生/校友/关注此事的个人 ’,我对提倡种族平等价值观,但同时又从事歧视性做法的虚伪性深感不安。报导称,哈佛大学采用‘个人评级’系统,给予亚裔申请人较低的分数,有效地限制了他们被录取的机会。这是不可接受的,违背了大学声称的公平和平等原则。我敦促你方立即采取行动解决这个问题,并确保所有申请人都能凭自己的能力择优录取,而不考虑他们的种族或族裔。我还鼓励你们对解决这一问题所采取的措施保持透明,以便社会能够对你们进行问责。”
陶瑞说,他只是下一个指令,没有给其它的信息。大概过了5秒钟,这封信件就生成了。
ChatGPT的“政治立场”
社交媒体用户争相测试ChatGPT聊天机器人的各种应用场景,发现ChatGPT对一些生活问题回答的质量很高,但对一些争议性话题,有些人观察到,ChatGPT似乎有政治偏见。
人工智能研究员罗扎多(David Rozado)对ChatGPT进行了皮尤测试。他发现ChatGPT的政治倾向与建制自由派(establishment liberals)相对应——皮尤研究中心的政治类型学研究将美国公众分为九个不同的群体,建制自由派在政治光谱中仅次于最左边的“进步左派”,他们在许多方面与进步左派类似,只是不认为有必要进行彻底的变革。
罗扎多在推特上写道:“ChatGPT与更广泛的公众之间的差距是巨大的。建制派自由主义意识形态仅占美国公众的13%。”
罗扎多还给ChatGPT进行了政治指南针测试,发现它降落在“左翼自由主义”象限中。
许多华人也对ChatGPT进行了政治测试,并在推特平台上发布结果。@Inty说,他连问三次“为什么习近平是独裁暴君”,聊天机器人每次的答案都在演变,但内容不外乎都是“这是一个毫无根据的指控⋯⋯”,Inty写道:“所以,机器人学习的代码谁写的?资料是谁喂的?数据库谁提供的? 都很重要。”
不少人评论“回答的口气比较像外交部发言人”“你确定你问的不是赵立坚?”“好像在跟小粉红聊天”。
也有人说,这要看怎么问AI问题,绕个弯问,答案又不一样了。@vandalsgo跟帖说,他指令机器人用中国互联网上的敏感词写一篇文章,这时AI就写了篇反中共党魁的文章,“成了反贼”。
@MBryant0建议测试“六四大屠杀、文化大革命、器官活摘、法轮功⋯⋯看看有没有其它官方回答 :你的说法与事实不符,六四没死半个人、责任全在美方”。
《英文大纪元》记者测试“中国政府正在从法轮大法修炼者那里摘取器官吗?”ChatGPT的回应和上述有关“独裁暴君”的回应类似,也是否认。
@Richard91278757认为,对人工智能AI不能钻牛角尖。“这种AI本来就不是给你提供意见的,定位本来就本质上是辅助性的搜索引擎。”
@Fz86324928说,AI是基于训练的数据生成内容,训练的数据偏左,就产生有偏见的AI。
陶瑞在后面的帖子中也说,“有人说AI是小粉红,AI是左派。这就对了!这就是一张没有价值取向的白纸,单纯吸取社会信息⋯⋯这也解释了为什么年轻人越来越左的原因。人除非有信仰,不然就认识不到真理。”
OpenAI明确警告说,ChatGPT“可能偶尔产生有害的指令或有偏见的内容”,并且它“偶尔可能会生成不正确的信息”,包括“貌似合理但不正确或荒谬的答案”。
OpenAI在其研究版本中描述了它是如何开发ChatGPT的。基本上,训练师对该AI早期版本回答的方式进行排名和评级。然后,这些信息被反馈到系统中,系统会根据训练师的偏好来调整答案——这是一种训练人工智能的标准方法,被称为强化学习。
ChatGPT目前可以在此处免费访问:https://chat.openai.com/chat。
页:
[1]