1. 首页 > 人工智能

AI学会了种族歧视 种族歧视百度百科

作者:admin 更新时间:2025-03-27
摘要:前言:脸书AI不学好,把“种族歧视”学会了。,AI学会了种族歧视 种族歧视百度百科

 

  前言:脸书AI不学好,把“种族歧视”学会了。

  北京9月12日消息 据中央广播电视总台中国之声《新闻超链接》报道,近日,有脸书(Facebook)用户称,在他观看了一段黑人视频后收到了壹个自动提示,询问他们是否愿意继续观看关于“灵长类动物”的视频。脸书企业得知后立即禁用推送该消息的AI(人工智能)功能。

  随后,这家企业进行了道歉,称这一个“不可接受的错误”,表示:将进一步调查以防止类似事件再次发生。

  对此,一些键盘侠点评:脸书AI不学好,把“种族歧视”学会了。

  AI真的能学会歧视么?AI会产生超越人类认知的某种“情感”或者是“自我”吗?

500)this.width=500">

图片来源:《每天邮报》报道截图

  AI歧视人类?不也许!

  AI(人工智能)作为计算机科学的分支,是一种被应用于模拟和扩展人类智能的技术。它在一些专业领域表现出了惊人的能力,比如战胜人类围棋棋手的AlphaGo,以及在破解生物学最大挑战其中一个——根据氨基酸序列预测蛋白质三维结构方面崭露头角的AlphaFold等等。它们最突出的能力是:自我进修。

  但脸书的这项人工智能主推却似乎犯了个大错:将人误认为“灵长类动物”。虽然人类也属于灵长类动物,但这对于一些地区的用户来说,也许涉及歧视。

  3C数码点评员黄浩表示,不必将此次的AI错误识别事件视为种族歧视。在日常生活中,AI识别错误的情况并不少见,更何况灵长类动物和人类在某些核心面部特征上确实具有相似之处。如果AI获取的信息和其他信息有一定相似之处,也许会让一些AI产生误差。

  即使是人类,大家在识别经过中也会犯错,但随着经验的积累,错误会逐渐减少。人类“大脑体系”中储存的丰盛资料可以帮助人类通过细节判断人种。但对于AI来说,细节的面部特征难以辨识,需要大量的时刻和资料进行进修,这是对AI技术算法企业以及应用AI技术企业的巨大考验。

500)this.width=500">

  2024年谷歌图像识别算法也翻过车:发现者杰基·阿尔金表示,谷歌将其黑人兄弟分类成了“大猩猩(Gorilla)”

  AI是否会产生“自我”,带来麻烦?

  一直以来,人工智能是否会产生“自我”,甚至反客为主控制人类是人工智能进步经过中非常被认可的伦理难题。黄浩认为,算法中确实存在价格观,但算法的价格观并不由算法自主产生,而是被人所设定。算法的价格观实际是人类价格观,抑或是算法设计者价格观的投射。

  当下存在于人工智能领域的共识是:不应放任算法自我野蛮生长。任由算法自我进步将也许会使算法产生途径偏移。以此次事件为例,算法把有色人种识别成灵长类动物,表示算法在进修经过中产生了偏差,这时一定要有人工介入。设计者需要让算法从头进行进修,经过积累,算法可以逐渐在自身的AI玩法里从头建立一套新的导给体系。

  在人工智能的进步经过中,人类需要不断地介入,及时纠正算法偏差,为人工智能的核心算法刻上更明显的人类制度,以保证算法“不学坏”。

  人类历史到现在已有25万年。在漫长的岁月中,大家学会行走、利用十根手指头、运用语言,到后来进修科学、寻觅更多也许。而AI从概念之初到现在,也只有几十年时刻。虽然它拥有极强的进修能力,但学懂复杂的人类社会,还需时日。

(转载)