pp电子(中国游)官方在线平台







咨询(xún)热(rè)线:021-80392549

pp电子(中国游)官方在线平台 QQ在线 pp电子(中国游)官方在线平台 企(qǐ)业微信
pp电子(中国游)官方在线平台
pp电子(中国游)官方在线平台 资讯 > 人工智能 > 正文

英国《新科(kē)学家》:法(fǎ)律能(néng)否要(yào)求(qiú)AI讲(jiǎng)真(zhēn)话?

2024/08/09环球网336

英(yīng)国《新科学家》周刊网站87日文章,原题:人工智能聊天机器人能否(fǒu)受到“说(shuō)真(zhēn)话”法律义务的约束人们能要求人工智能讲真话(huà)吗(ma)?或许不(bú)能,但一个伦理学家团(tuán)队表示,从法律上来(lái)说,人(rén)工(gōng)智能开发商应该承担减少犯错风险的(de)责(zé)任。“我们只是在尝试创(chuàng)建(jiàn)一种激励构架,让公司在创(chuàng)建(大(dà)语(yǔ)言模型)系统时更重(chóng)视真实性或准确性,”牛津大学伦理学家布伦特·米特尔施塔(tǎ)特说。

基于对大量文本的(de)统计分(fèn)析,大(dà)语言(yán)模型聊天机器(qì)人(rén),例如ChatGPT能对用(yòng)户(hù)提(tí)出的问题(tí)生成(chéng)类似(sì)人类(lèi)的回答。然而,尽管它(tā)们的(de)答案通常看起来(lái)令人信服,但也(yě)容易出(chū)错,这(zhè)是一种被(bèi)称为“幻觉”的缺陷。米特尔施塔特说:“我(wǒ)们拥有(yǒu)这些极其令(lìng)人印象深刻的生成式人工智能系统,但它们也(yě)会频(pín)繁(fán)出错,从我们对这种系统基本机能的了解来看,没有(yǒu)根本的解决方法。”

米(mǐ)特尔施(shī)塔特表(biǎo)示,对大语言(yán)模型系统来(lái)说,这是一个重大问题(tí),因为它(tā)们正在被(bèi)应用于政府决策(cè),在这种情况下,它们诚实地承认自己(jǐ)的知识局限性就变得至关重要。为解决(jué)这个(gè)问题,他们提(tí)出一系列应对措(cuò)施:当被问及与事实有关的问题时(shí),人(rén)工(gōng)智能应(yīng)该像人一样。这(zhè)意味着它(tā)们要诚(chéng)实,秉(bǐng)持“知之为知(zhī)之,不知(zhī)为不知,是知也(yě)”的态度。“要点在(zài)于采取(qǔ)必要(yào)步骤,让它们真正做到谨言慎(shèn)行,”米特尔施塔特说(shuō),“如果对某件事不(bú)确定,它们不要只是为了让人们信(xìn)服(fú)而(ér)编造一些东西。相反,它们应(yīng)该说,‘嘿(hēi),你知道吗?我(wǒ)不知道。让我来研究一下。我会回复你的。’”

这似乎是一个值得称赞的目标,但在英国德蒙福特(tè)大学网络安全教授伊尔克·鲍伊腾看来,伦理学家提出的这些要(yào)求在技(jì)术上未(wèi)必可行。开发商正尝试让人工智能实(shí)事求是(shì),但到目(mù)前(qián)为止,事实(shí)证明这是一项(xiàng)极其“劳(láo)动密(mì)集型(xíng)”的任(rèn)务,甚(shèn)至不切(qiē)实际。“我不(bú)明白,他们怎(zěn)么期望法律要求强制执行这种命令(lìng),我认为这在技术上根本(běn)行不通,”鲍(bào)伊腾说。

为此,米特尔施(shī)塔特(tè)及其同事们提出(chū)一(yī)些更(gèng)直(zhí)接的措施(shī),可能使人工智能更“诚实”。他说,这些模型应该列出答案的信息源,目前许多模型都在这样做(zuò)以证明它们给(gěi)出答案(àn)的(de)可信度,此外(wài),更广泛(fàn)地使(shǐ)用一种被(bèi)称为“检索增强”的技术来给出答案,也可能(néng)限制(zhì)这些模(mó)型产生“幻觉”的可能性。他(tā)还认(rèn)为,应该缩减(jiǎn)在政(zhèng)府决策等高(gāo)风险领域部署人工智能的规(guī)模,或(huò)者应(yīng)该(gāi)限制模型可利用的信(xìn)息源。“如果我(wǒ)们有一(yī)个仅在医学中使用的语言模型,我(wǒ)们就应(yīng)该限制(zhì)它,让它只(zhī)能在高质量医学期刊上搜索(suǒ)学术文章。”

米特尔施塔特声称(chēng),改变观(guān)念也很重要,“如果(guǒ)我们能摆(bǎi)脱所谓(大语言模型)善于回(huí)答事实(shí)性问题、或者它们至少会给你一个可靠答案的想法,而是认为它们(men)有助于(yú)为你提供更多相关(guān)的信息,那就太好了。”

但荷兰乌(wū)得勒支大学(xué)法学院副教授卡塔琳娜(nà)·戈安塔(tǎ)表示,这些研究(jiū)人(rén)员过于关注(zhù)技(jì)术,因此对公共(gòng)话语中长期存在的(de)谎言问题关注不够。“在(zài)这种(zhǒng)背景下,仅将(jiāng)矛头指向大语言模型会制造一种假(jiǎ)象,即人类(lèi)非常(cháng)勤奋细致,永远不会犯此类错误。问问你遇到(dào)的(de)任何法官,他(tā)们(men)都(dōu)遇到过律师玩忽(hū)职守的可怕经(jīng)历,反(fǎn)之亦然——这并非一个机器的问(wèn)题。”(作者克里斯·斯托克尔-沃克(kè),王会聪译)

关键(jiàn)词: 人工智能,AI




AI人工智能(néng)网(wǎng)声明:

凡资讯来源注(zhù)明为其他媒体来源的信息,均为转载(zǎi)自其(qí)他媒体,并不代表(biǎo)本网(wǎng)站赞同其观(guān)点,也(yě)不代表本(běn)网站对其真(zhēn)实性负责。您(nín)若对该文章内容(róng)有任何疑问或质疑,请立即与网站(www.longnan.14842.xinxiang.zz.pingliang.ww38.viennacitytours.com)联系,本网(wǎng)站将迅速给(gěi)您回应(yīng)并做处(chù)理(lǐ)。


联系电话:021-31666777   新闻、技术文章投稿QQ:3267146135   投稿邮箱:syy@gongboshi.com

精选资(zī)讯更多(duō)

相(xiàng)关(guān)资讯更多

热门(mén)搜索

工(gōng)博士人工智(zhì)能网(wǎng)
pp电子(中国游)官方在线平台
扫描(miáo)二维码关注微信
扫码(mǎ)反馈

扫一扫,反馈当前页面

咨询反(fǎn)馈(kuì)
扫(sǎo)码关注(zhù)

微信(xìn)公众号

返回顶部

pp电子(中国游)官方在线平台

pp电子(中国游)官方在线平台