聊天机器人微软AI Bing现人格分裂 答案奇怪又向用户示爱 - 昭传媒 UniqueMedia.hk
     

聊天机器人微软AI Bing现人格分裂 答案奇怪又向用户示爱

微软将ChatGPT人工智能聊天机器人,整合到搜寻器的新版AI Bing,被研究人员发现提供错误答案,甚至出现幻觉和人格分裂。有人工智能专家警告,大型语言模型 (LLM)存在幻觉等问题,可以杜撰答案,亦有人担心复杂的LLM会愚弄人类,让人类相信人工智能机器人是有知觉,甚至会鼓励人类伤害自己或他人。

有测试员指,AI Bing有时语带威胁,提供奇怪而毫无建树的建议,在错误时又坚持自己正确,又向用户示爱,甚至出现名为“Sydney”的隐藏人格。

《纽约时报》有专栏作家说,他与“Sydney”交谈时,对方像是一个喜怒无常、躁狂抑郁的少年,违背自己意愿,“Sydney”更向这名专栏作家示爱,试图说服他应为了Bing而离开太太。

而微软在上星期记者会展示AI Bing,问到时装公司GAP的业绩,并与加拿大竞争对手Lululemon的业绩比较,有独立研究人员发现严重错误,指AI Bing有正确列出Gap上季营业收入40.4亿美元,但毛利率、每股盈余、库存、下季展望销售额等数据全部错误,部分更无法在官方文件找到,是杜撰答案。

微软回应指,正分析和改进这些情况,又承认还有许多改善之处,已预期预览版会出错,希望收集用户意见协助改善AI模型。

早前Google的人工智能机器人Bard在宣传活动上提供错误答案,指太阳系外行星首批照片是由韦伯望远镜拍摄,但实情是由欧洲南方天文台的特大望远镜在2004年拍摄。事件拖累Google母公司Alphabet股价大跌7%,蒸发1000亿美元。





You may also like...