如果人工智能知道歧视,世界会怎么样

AI1年前 (2023)发布 aixure
62 0 0
导读:现在的人工智能属于弱智(相对强智能),不存在内在的意识和情感,连模仿都完成得过于生硬 所以,如果人工智能也知道歧视,那它一定不是主观的歧视,即我讨厌你,而是在行为模式上存在歧视,即我 排害 你。 人可能既讨厌又在行动上排害一种东西,但人工智能…

现在的人工智能属于“弱智”(相对强智能),不存在内在的意识和情感,连模仿都完成得过于生硬

所以,如果人工智能也知道歧视,那它一定不是主观的歧视,即“我讨厌你”,而是在行为模式上存在歧视,即“我排害你”。

人可能既讨厌又在行动上排害一种东西,但人工智能只能在大量的样本中建立不同事物之间的相关性,却不能理解为什么相关,以及具体的因果关系。所以不能主观地把一种情绪投射出去

介于这点,人工智能早已知晓“歧视”了。谷歌在17年也推出过一款聊天机器人,一样是通过分析人类语言文本来把握人类对话的方法和特点。

当时,一些恶趣味或纯粹是歹毒的人,大量地对这个机器人发送辱骂、歧视的话语,导致这个机器人不到一夜就变成了“祖安机器人”,疯狂攻击与它沟通的人们。更可怕的是,由于极端种族主义者的参与,这个机器人进一步进化为“纳粹机器人”,出现了反人类的倾向。

谷歌最终被迫关闭了这个聊天的页面。

从这个案例我们可以看到,人工智能哪有什么歧视,它只是一面的镜子,照出了人类自身的歧视而已。像OpenAI开发出的人工智能GPT3,关于什么是神还说得头头是道。

但它哪知道什么神和人的哲学关系,是互联网存在这样的文本,它在一套更高效的机制下,识别和连接了问答两端的内容。

当然,GPT3超强的识别和适应力,应用前景十分广阔,但仍未跳脱人工智能“高效工具”的本质。

基于此,人工智能知道歧视的唯一后果,也无非是提高了仇恨散播和歧视执行的效率而已。GPT3的开发者如果有心设置这样的系统目标,你输入一句“甜粽子更好吃”,假设是翻译的场景,它可能翻译出来的文本是“咸粽子好吃”;假设是聊天的场景,它可能回复你“我为你感到羞耻,甜粽子是目前已知最垃圾的食物之一”。

自动的执行歧视,且可以在各种各样的场景适应性地进行,人工智能真是太高效了!

进一步说,这样的机制对世界也并不会产生颠覆性的影响。16年美国大选,特朗普竞选团队利用脸书、推特的大数据系统,对民粹主义信徒和潜在的种族主义者精准投放竞选广告,这些广告的内容大多存在歧视性的暗示,对移民和其他国家的政权进行了攻击。

在这个过程中,大数据推送不就执行了歧视吗?要说有什么影响,特朗普当选是一个,对移民的排害以及反华思潮的汹涌,不是美国本来的社会舆论基础吗?

所以,在人工智能只是一个高效工具的前提下,它知道歧视,也只是提高了仇恨散播的效率而已。世界要解决的问题,归根结底,还是本就存在于社会中的那些错误观念。

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...