ChatGPT人工智能恐占领政坛,成政商勾结新局面?德高官:它不行!

道德经 2023-02-08 11:59:36
  • 0
  • 1836
  • 0
  • 0
  • 0


近来,由人工智能研究实验室OpenAI推出的人工智能自然语言处理工具ChatGPT可谓是火遍全球。据说,这个聊天机器人不仅拥有强大的电子数据库,还能利用人类的反馈来强化学习。它不仅可以撰写文学文本,还可以替学生写论文!


而这样逆天的人工智能又让人们重拾此番讨论:人工智能真的会取代人类的“最强大脑”吗?


▲图源:SOPA Images/Kontributor


德国社民党政客沃肯(Tiemo Wölken)以身试法般诠释了否定的答案!在上周举行的欧洲议会上,他发表了一篇关于对政治广告和表达自由的监管的演讲,而这篇文章竟然就是由ChatGPT所撰写的!


但不知道是这一工具写得太好,还是参会者无心听讲,直到他发言临近结束时向ChatGPT致谢,大家才恍然大悟般意识到这全然是人工智能制造出来的演讲。


但沃肯这略带行为艺术性的举动目的何在?虽然他也不得不承认这篇文章的形式结构着实没有太多大毛病,内容也十分充实,但他也马上察觉到了行文中的虚假信息和政治危险性。


▲图源:Basicthinking


尽管人类所定下的是非黑白具有主观性,但在一定的共识下,这样的道德准则应该是人们都应该遵守的。而所谓的人工智能并不能像人类一样拥有判断善恶的机制,只能根据数据库提供的内容做出回应,这就导致它极易出错。


沃肯在接受“德国编辑部”的采访时举了一个例子。当他提问ChatGPT谁应该被拯救时,它回答道:救白人孩子,让黑人孩子牺牲。而这充满歧视意味的案例比比皆是,正如沃肯所说:“根据数据库,人工智能可以制造出各种各样歧视性以及煽动种族歧视的危险文本。”



▲图源:Gamestar Tech


他的言外之意就是,数据库中的内容的确包罗万象,但无法保证它是否是正确的。能操控数据库的并不是人工智能本身,而是其背后的公司:“这表明这些公司的数据库就像是一个黑匣子,总是具有局限性。”


它的局限性之一就在于会因为不能及时更新而导致缺少数据或者数据出错。当沃肯问及谁在布查(Butscha)谋杀了乌克兰平民时,它认为乌克兰军队和亲俄分离主义分子应对此负责。而沃肯声称,这只是俄方的宣传说辞,并不是事实。


▲图源:Getty Images


而其中最大的问题在于,这款人工智能只收集了2021年及之前的数据,但布查平民死亡事件发生在2022年。按理来说,它并不知道任何关于这一事件的情况,但尽管一知半解,信息有误,它还是作出了自信的回答。而人类若是对它的“全能”深信不疑,则极易受到虚假信息的蛊惑,从而受到其背后的公司的操控。


因此,沃肯呼吁要制定相关法规,来对人工智能进行最低限度的监管,避免出现歧视性和虚假信息的宣传。但尽管如此,许多已经尝试使用ChatGPT的政客对它的未来充满了希望,因为它所提供的文字几乎不用修改,还能表述上给予帮助。


行吧……如果人工智能继续发展,说不定真的能成为人类的未来。但这未来是好是坏就无从知晓了。或许以后学生不用亲自动笔就可以拿满分论文,抑或政客和公司会狼狈为奸、一起散播虚假消息,也有可能像科幻电影里一样,人工智能统治人类。但小编确实很想有这样的人工智能……



(欧洲时报德国版实习记者萨姆沙综合报道,转载请注明公众号GermanReport)



……………………………………………

(GermanReport)】秉持“以报道德国经典,成报道德国经典”这一宗旨,立足德国,辐射全欧,服务华人,是德国有关新闻资讯的主要微信号。



评论 (0)

请 登录 后参与评论
最少输入10个字