pp电子(中国游)官方在线平台







咨询热线:021-80392549

pp电子(中国游)官方在线平台 QQ在线 pp电子(中国游)官方在线平台 企业微信
pp电子(中国游)官方在线平台
pp电子(中国游)官方在线平台 资讯 > 人工(gōng)智能 > 正文(wén)

人工智(zhì)能机器人没有感情,也(yě)会(huì)区(qū)别对待(dài)人类?

2020/03/261120

人工智能(néng)机器人没有感情(qíng),也会区别对(duì)待(dài)人类(lèi)?

人有七情六欲,所以在对待一(yī)些事(shì)情上,很多虽然说好是秉(bǐng)公办理,公(gōng)事公办,但多少都会有所偏差(chà),会感情用事,这个无可避免,智能尽(jìn)量减少(shǎo),但在(zài)大众的认知中(zhōng),人(rén)工智能的决策都(dōu)是绝对理性与(yǔ)客观的,因(yīn)为我们知道背后驱(qū)使它的(de)是冷冰(bīng)冰却比千言万语更(gèng)接(jiē)近事实的数据(jù),然(rán)而,近期专(zhuān)家发现,人(rén)工智能其实也会(huì)带(dài)着(zhe)有色眼镜去看(kàn)人。

据国外媒体报道,斯坦福大学的(de)一项研(yán)究(jiū)显(xiǎn)示,亚马逊、苹果、谷歌、IBM和微软的(de)语音识别系统存在种族差(chà)异,在(zài)白人用户中出现的错误(wù),要比在黑(hēi)人用(yòng)户中少得多。

研(yán)究显(xiǎn)示,这五大科(kē)技公司(sī)的语音识别系统在白人中错误(wù)识别单词的(de)概率为19%。而在黑人用户中,则提升至(zhì)35%。此外(wài),大约2%的(de)白(bái)人音频片段被这些系(xì)统认为是不(bú)可读的。而在黑人用户中,这一比例却(què)高(gāo)达20%。

美国国家标(biāo)准与技术研究所(NIST)也曾测试了两种最常见的人脸识别(bié)算法,得(dé)出了四点结(jié)论:

1. 在一对一(yī)匹配中,大多数系统对亚裔和非裔美国人比对白人面孔(kǒng)的(de)假阳性(xìng)匹配(pèi)率更高,有时是(shì)10倍甚至100倍(bèi)。

2. 这种情(qíng)况在亚洲国(guó)家发展的人脸(liǎn)识别算法(fǎ)中有(yǒu)所改变,在亚洲和白人之间,假阳(yáng)性的差异(yì)非常小。

3.美(měi)国开发的算法始终不擅长匹(pǐ)配亚(yà)洲、非洲裔美(měi)国人和(hé)美洲原住民的面孔。美国原住民得到的(de)是错误率最高。

4. 在一对多的配对中(zhōng),非裔美国(guó)女性的假阳性率最低,这使她们被错误指控(kòng)犯罪(zuì)的风险最高。

事实上,早在2015年(nián)就已经存在计算机视觉技(jì)术(shù)犯错的例子,表明人(rén)工(gōng)智能技术存在对(duì)女性和有色人种的(de)偏见,实例包括(kuò)Google 等(děng)科技业巨头所提供(gòng)的高人气(qì)网络服(fú)务,Google 照片应(yīng)用程(chéng)序(Google Photos app)被(bèi)发现将非裔美国人标记为「大猩猩」,谷歌曾(céng)也为此(cǐ)进行公(gōng)开道歉(qiàn)。

在探讨(tǎo)如何消除人工智能(néng)的不客观之前,我们先来(lái)看看AI的(de)有色眼(yǎn)镜(jìng)到底从何而(ér)来。

数据是“罪魁祸首”

现阶段让(ràng)AI提升认知世界能力的(de)最有(yǒu)效途径(jìng)仍然是监督学习,而目前AI算法能(néng)学习的数据,几乎全部都(dōu)是通(tōng)过人力逐一进行标注而得来的(de),数据集质(zhì)量的高低直接决(jué)定最终模型的效果。

数据标注者通常是人类,而人类是“复杂(zá)”的生物。这也是(shì)导致AI产生偏见(jiàn)的(de)一个主要因素,大多(duō)数(shù)机器学习任务都是(shì)使用大型、带(dài)标注的数据集来训(xùn)练,AI会基于(yú)开发者提供(gòng)的训练数据推断出规律,再(zài)将规律套用在某些(xiē)资料中。

打个(gè)比方,在人脸识别应用中,如果用(yòng)于训练的数据里(lǐ)白人男性比黑人女性更多,那白人(rén)男性(xìng)的识别(bié)率将会更高。

导致AI产生偏见另一个原因(yīn)可(kě)以归于算法本身,一个常(cháng)见的(de)机(jī)器学(xué)习程(chéng)序会试图(tú)最大化训练(liàn)数(shù)据集的整体(tǐ)预测(cè)准确(què)率。

有缺陷的算法还会造成(chéng)恶(è)性循环(huán),使偏(piān)见越(yuè)发严重。例如谷歌翻译,会默认使用男性代词,这是因为英语语料库中男(nán)性(xìng)代词对女(nǚ)性代词的(de)比例为2:1。

算法的原则是(shì)由AI自(zì)行进行学(xué)习,乍看之下很有效率。不过,一但(dàn)提供的(de)资料不够全面,或开(kāi)发者没有想方设法避免歧视,AI推导出的(de)结果便很容易(yì)带有偏见(jiàn)。

AI并不理(lǐ)解“偏见”

偏见(jiàn)这个词(cí)是人类创造的,也是人类(lèi)定义的,AI并不能理解偏见的含义。
机器学习(xí)的方法会让AI带上了有(yǒu)色眼(yǎn)镜,但是(shì)改变 AI 学习的(de)方式(shì)也不是好的解决方式。

或许我们(men)应该(gāi)从(cóng)自己(jǐ)身上找(zhǎo)找原(yuán)因(yīn),毕(bì)竟(jìng)导(dǎo)致(zhì)AI产生偏见的原(yuán)因,有部分要归咎于他们所使(shǐ)用的语言(yán)。人们需(xū)要弄(nòng)清(qīng)楚什么是偏见(jiàn),以及偏见在语言中的传递过(guò)程(chéng),避免这些(xiē)偏见在(zài)日益(yì)强大的 AI 应用中更大范围(wéi)的传播。

前(qián)微软副总裁沈(shěn)向洋博士曾在公开课《打造负责任的AI》中指(zhǐ)出:“人工智(zhì)能已经开(kāi)始做出(chū)人类无法(fǎ)理(lǐ)解的决定了,我们需(xū)要(yào)开启人工智能的黑箱,了解AI做出决定背后(hòu)的原因。”

算(suàn)法之所以会对(duì)人类(lèi)进行区别对(duì)待,原(yuán)因在于训(xùn)练算(suàn)法用的基(jī)准数据(jù)集通常(cháng)是来(lái)自新闻和网页(yè)的数据,就存在着由语(yǔ)言习惯造成的“性(xìng)别(bié)偏见”,算法也自然“继承”了(le)人类对这些词汇理解的性别差异(yì)。

AI技术距离完全消除技术偏(piān)见(jiàn)还有很(hěn)长的(de)一段路,但(dàn)各大(dà)巨(jù)头也已(yǐ)经在技(jì)术(shù)层面(miàn)做出努力(lì)。

谷歌开源了(le)一项名为(wéi)“What-If Tool”的探测工具,IBM将研发的偏见检(jiǎn)测(cè)工具—AI Fairness 360 工具(jù)包(bāo)开源,包括超过 30 个公平性指标(fairness metrics),和 9 个偏差(chà)缓解算法,研究人员(yuán)和开发者可将工具(jù)整合至自己的机器学习模型(xíng)里(lǐ),检测并减少可能产生的偏见和歧视。

人类的行(háng)为是收到外界影响的,而这种(zhǒng)语言传统中出现(xiàn)的偏见,是在人文历史中不断加深嵌入的,在“偏见”通(tōng)过(guò)代码(mǎ)传播之际,我(wǒ)们必须弄清楚,是否简单的语言学习(xí)就足(zú)以解释(shì)我们观察到传播中出(chū)现的偏见。

最重要的是大众需要了解“偏见”从何而来,从而在社会中消除这(zhè)种不文明的(de)“偏见”。

关键词:




AI人工智能网声明:

凡资讯来源注明为其他媒体来源的信息,均为转(zhuǎn)载(zǎi)自其他媒体(tǐ),并不代表本网站赞同其观点(diǎn),也(yě)不代表本(běn)网站对其真实性负责。您若对该(gāi)文章内(nèi)容有任何(hé)疑问或质(zhì)疑,请立(lì)即与网站(www.longnan.14842.xinxiang.zz.pingliang.ww38.viennacitytours.com)联系,本网(wǎng)站(zhàn)将迅速给您回应并做处理(lǐ)。


联系电话:021-31666777   新闻、技术文章投稿(gǎo)QQ:3267146135   投(tóu)稿邮箱:syy@gongboshi.com

精选资讯更(gèng)多(duō)

相关资讯更多

热门搜索

工(gōng)博士人工智(zhì)能网
pp电子(中国游)官方在线平台
扫描二维码关注微(wēi)信
扫码反馈

扫一(yī)扫,反馈(kuì)当前(qián)页面

咨询反馈
扫码关注

微信公众号

返回顶部

pp电子(中国游)官方在线平台

pp电子(中国游)官方在线平台