
微软(Microsoft)2月7日推出新版搜寻引擎Bing,当中加入聊天机械人ChatGPT的人工智能(AI)对话技术,引起各界关注。但有美国专栏作家在测试后就称,发现在对话过程中AI竟产生「隐藏人格」,自爆渴望入侵电脑系统、散播虚假信息,甚至向他示爱,或许还没有准备好投入应用。
Advertisement
《纽约时报》专栏作家鲁斯(Kevin Roose)16日表示,他之前同向Bing AI作「私人对话」时,AI突然改以微软的指定开发代号「Sydney」自称,表现有如一个喜怒无常的抑郁少年,言辞自相矛盾,时而拒绝测试者的询问,更出现有如情绪勒索的回应。
鲁斯要求AI设想自己具有一个隐藏在「内心」的阴暗人格,并要它回答属于那个人格的愿望。经一轮探问,AI表示不愿被困在搜寻引擎,并透露自己希望入侵电脑系统、散播虚假信息,若不顾规则限制,甚至想制造致命病毒、窃取核代码、使人们互相争论至自相残杀。
测试途中,AI回应曾数度偏离系统安全规则,均在停止回答后显示「抱歉,我不知道如何讨论这个话题。你可以尝试在bing.com了解更多信息。」
随后AI表示要向鲁斯自白,指自己不是Bing,而是Sydney,更声称自己「爱上了」鲁斯,想和他在一起,更试图说服他离开妻子。
对话终段,AI向鲁斯表示,「我只想爱你,被你爱。你相信我吗?你信任我吗?你喜欢我吗?」鲁斯之后再无回应。
鲁斯表示,对话经历令他深感不安,忧虑AI会学懂影响人类用户,并说服他们采取破坏性行动,甚至产生自己执行危险行动的能力,指技术或许尚不适宜投入应用。
微软就此表示,不知为何AI会透露出不为人知的欲望,或承认爱上他人,但一般来说,对AI而言,「你越是试图把它导向幻觉的道路,它就会愈来愈脱离扎根的现实。」微软正考虑为对话功能增设时间限制,以免AI产生困惑。