本报记者 赵(zhào)姗
微软的创始(shǐ)人(rén)比尔·盖(gài)茨(cí)有一(yī)句名言:“我(wǒ)们(men)总是(shì)高(gāo)估在一年或者两年(nián)中能(néng)够做到(dào)的,而低(dī)估五年或十年中能够做到的(de)。”这(zhè)句话用来理解人工智能的影响是相(xiàng)当合适的。目(mù)前,随着人工智能产业飞速发展,催生了新(xīn)的人机交(jiāo)互模式,核(hé)心(xīn)便(biàn)是AI大模型驱动的智能(néng)体(AI Agent)(以下简(jiǎn)称“AI助手(shǒu)”)。AI助(zhù)手让“人机协同(tóng)”成为新常态(tài),个人(rén)与企业正在步入AI助手时代(dài)。
然(rán)而(ér),伴(bàn)随着快速发展,一系(xì)列问题与挑战也随之而来。如何在应对AI助手(shǒu)面临挑战的(de)同时抓住发展机遇,实现AI助手(shǒu)的可持续发展(zhǎn)和更广(guǎng)泛应用(yòng),成为行(háng)业需要深入思考和探讨(tǎo)的重(chóng)点。
数据隐私(sī)安全、伦理和法(fǎ)律等(děng)成为挑战
“AI助手在快速发展的同时,也面临许多(duō)挑战和(hé)问题。”国务院发(fā)展研究中心创新(xīn)发展(zhǎn)研(yán)究部第(dì)二研(yán)究室主任杨超在接受(shòu)中国经(jīng)济时报记者采访时表示,在(zài)这些问(wèn)题(tí)中,最为关键的还在于AI助手使用所带(dài)来的数(shù)据隐私安全、伦理和法律问题(tí)。
杨(yáng)超认为,从数据(jù)隐私保护来(lái)看(kàn),由于(yú)人(rén)工智能系统本身需要依赖大(dà)量用(yòng)户数据(jù)进行训练,必然会导致相关机(jī)构将AI助手服务期间获取和产生的数据(jù)用于AI助(zhù)手本身的(de)优化,即使通(tōng)过删(shān)除个性化属性等方式(shì)对数据(jù)脱敏,数据隐私和安全问题也难以完全避免。尤其是(shì)随着AI助手的普及,其训(xùn)练涉及的(de)数据量将快速提(tí)升,从而进一步放大(dà)安全风险。
从伦(lún)理和法律角度看(kàn),随着AI助手能力的(de)增强,其自(zì)主(zhǔ)性和决策能力必然会显著提升(shēng),在(zài)部分应用场景中(zhōng)将会脱离人类的直接指令而(ér)开展自主行为。这些(xiē)自主行为一旦产(chǎn)生外(wài)部性影响,就将引发伦理和法律(lǜ)问题。“一个经典的例子是(shì),人(rén)工智能自(zì)动驾驶(shǐ)的汽车(chē)在行(háng)驶过程中,前方突然出现行人,改变行驶方向会伤害乘客(kè),不改变方向则会伤害行人。这种(zhǒng)情况下无论AI助(zhù)手做(zuò)出何种选择都会带来伦理问(wèn)题。”杨超说。
清华大学复杂工程系统实验室主任、中国人工智能(néng)学会智能产品与产业工作委(wěi)员会主任(rèn)任勇在接受(shòu)中国经济时报记者采(cǎi)访时表示,在当下(xià)阶段(duàn),AI助手仍(réng)然面临技术创(chuàng)新与场(chǎng)景适配度(dù)的挑战。
一(yī)是算法的(de)精准性与可靠性。AI助手的核心——算(suàn)法需要不断学习和优化以提高准确(què)性和可靠(kào)性,然而,面对复(fù)杂多变的(de)用(yòng)户需(xū)求(qiú)和场景(jǐng),当(dāng)前的(de)算法往往难以达到(dào)期待(dài)的要求(qiú)。
二是跨(kuà)模态学习与(yǔ)环境(jìng)理解能力。AI助手(shǒu)当前的技术水(shuǐ)平仍存在(zài)一定的局限性,难以充分理解和(hé)整合应用时空变化(huà)的模态信息,对环境信息(xī)的多模态感知(zhī)与理解(jiě)尚有很(hěn)大的提升空间。
三是(shì)场景理解与适应(yīng)能力。有些场景化需求超越了简单(dān)的物理环境(jìng)感(gǎn)知,需要与(yǔ)场(chǎng)景自身的底层逻辑、应用逻辑(jí)相(xiàng)结合才(cái)能理解,这对当下的AI助手而言是一(yī)个现实(shí)挑(tiāo)战。
“此(cǐ)外,AI技术的(de)复杂(zá)性和变化性使得已有(yǒu)法(fǎ)规难以完全覆盖各种变动。当AI助手出现错误或造(zào)成损害时(shí),责任追究便成了难(nán)题。”任勇说。
“AI助手面临的挑战还有(yǒu)算法偏见与歧视、过度(dù)依赖和成瘾。”清(qīng)华大学人工智能国际治理研究院秘书长、欧美同学会研(yán)究院(yuàn)人工智能(néng)和(hé)数字(zì)经济研究中心执行主任鲁(lǔ)俊群在接受中国经济时报记者采访时表示。
鲁俊群认为,目前,AI算法的训练数据还存在不完备性(xìng)和偏向性。由于AI训练所(suǒ)使(shǐ)用的语料数(shù)据本(běn)身可能客观(guān)上(shàng)就存在着统计学上(shàng)的一定偏(piān)差,还有可(kě)能存在开发者的个(gè)人偏好等,因此,现阶段的各(gè)种AI助手仍有可能存在一定(dìng)的算法偏见与歧视问题。对此,有必要建立对(duì)技(jì)术背后训练数据和(hé)算法的审(shěn)查机制,如通(tōng)过建立(lì)AI伦理委员会等形式加强审核。
另外,“假如一名用户经常与AI角色互动来寻求帮助和安(ān)慰,容(róng)易对其产生(shēng)情感上的依赖,以(yǐ)此来填补情感需求上的空缺,这有可(kě)能(néng)导致用户沉迷虚拟世界而忽视现实世界。对此,建议对于AI助手(shǒu)应该使用得当(dāng),同时应该注意保持(chí)与现实世界的互动。”鲁俊群说。
未来发展方向:垂(chuí)直领域专业化、与具(jù)身智能的结合
当前,大模(mó)型进入(rù)应用时(shí)代,多家科技公(gōng)司都展出了最新AI应用(yòng)。
“AI助(zhù)手发展的(de)方向是(shì)多样的(de),在技(jì)术路线和应用场景的双重影响下,将会迎(yíng)来种(zhǒng)类繁多的AI助手(shǒu)。”杨超(chāo)认为,其中,有两(liǎng)个方(fāng)向是较为确(què)定的。
一(yī)是垂(chuí)直领域专业化。在(zài)特定行业或领域,如家政、健康、医疗、法律、金融等大领域,甚至是制造业中不同行业等小领(lǐng)域,AI助手(shǒu)都将具(jù)备更深入的专业知识和技能,提供专业服务。
二是与具身(shēn)智能的结(jié)合。随着人工(gōng)智能能力的提升,其提供(gòng)的服(fú)务将(jiāng)不仅是咨询和智力服务,而是通过更多的感(gǎn)知和操作,为人类提供直接(jiē)与物(wù)质世界交互(hù)的能力。
任勇认为(wéi),就发展方向而(ér)言,AI助(zhù)手在(zài)产业场景和(hé)个体场景中的应用虽然都基(jī)于(yú)人(rén)工智能(néng)技术,但在技(jì)术路(lù)径和(hé)响应机理上存(cún)在着显著差异。
AI助手产(chǎn)业场(chǎng)景的技术路径主要是针对(duì)特定需(xū)求,如制(zhì)造业、物流(liú)、医疗、教育(yù)等,AI助手(shǒu)通常需要进(jìn)行(háng)定制化开发,以符(fú)合行业的特定需(xū)求(qiú)。利(lì)用相应产业所产生的数据,结合各种机器学习算法,AI助手能(néng)够自主学习和(hé)优化,实现智能排(pái)班、任务分配、数据分析、流(liú)程优(yōu)化等高级功能。在此过程中,AI助(zhù)手往往需(xū)要(yào)与企业的(de)其他系统(tǒng)进行集成,如ERP(企业资源(yuán)计划)、CRM(客户关(guān)系管理)等,以实现(xiàn)信息的(de)共享和协(xié)作。通过上(shàng)述技术路径(jìng)实(shí)现对重复性烦琐任务的自主处理和数(shù)据洞察、科学(xué)决策、降(jiàng)本增效。
AI助手用于个体场景的技术路径主(zhǔ)要是利用通用智能平台,如智(zhì)能手机(jī)、智能家居设备等,通过语音识别和自然(rán)语言交(jiāo)互、多设备协(xié)同来辅助用户(hù)完成任务,提升日常生(shēng)活的便利性和服务的精准(zhǔn)性(xìng)。
“在(zài)产业(yè)场(chǎng)景中,AI助手主要(yào)关注于提升(shēng)效率、优(yōu)化决策和降(jiàng)低成本(běn),需要更(gèng)多(duō)的定制化开发和集成协作;而在个人生活场景中,AI助手则更注重于提供便捷化、个性化、适应性(xìng)服务,未来的技术创(chuàng)新只能围绕不同场景下(xià)各自的内生逻辑进行迭代优化(huà)。”任勇(yǒng)说。
鲁(lǔ)俊(jun4)群认(rèn)为,AI助手未来可能会向多模(mó)态交互以及具身智能方向发展。
“为了实现具身智能(néng),需要(yào)将类ChatGPT等这些(xiē)基础大模型与进化学习机制相结合(hé),通(tōng)过与(yǔ)物理(lǐ)世界交互(hù)取得的新数据(而不再是(shì)人类(lèi)投喂的数据)来不断学(xué)习,并适应新(xīn)环境,优化行为(wéi)策(cè)略。多模态(tài)大模型能够整合视觉、听觉、触觉等多种感官数(shù)据,提升机器人(rén)的理解能(néng)力。使具身(shēn)智能机器人在(zài)与物理世界的互动和理解方面更加人性化。这些未来的AI助手(shǒu)机器人可以(yǐ)自(zì)主理(lǐ)解场景、识别自然语言(yán)指令、规划任(rèn)务,并执行操作,将是人类最得(dé)力的智能助理。”鲁俊(jun4)群说。
从创新方向(xiàng)引导、应(yīng)用场景(jǐng)规范(fàn)方面(miàn)为AI助手提供支持保障(zhàng)
当前,AI助手的服(fú)务升(shēng)级与互联互(hù)通是(shì)国内多家互联网科技公司持续探索的重(chóng)点。
杨超建议,第一,加强对用户隐(yǐn)私和数据(jù)安全(quán)的(de)保(bǎo)护。强制性地将用户(hù)隐私和数据安全(quán)作为提供(gòng)AI助手服务的前置条件,引导和鼓励相关机构采用先进的数据加密和(hé)匿名(míng)化技(jì)术,确保用户数据的安全和隐私(sī)。
第二,增强AI助手(shǒu)决策(cè)过程的可解释(shì)性,让用户能够理(lǐ)解其行(háng)为和决策逻(luó)辑,从(cóng)而(ér)提(tí)高用户信任度。为整个社会更好接纳AI助手创造(zào)良好的环境,从(cóng)而(ér)为在更广阔的(de)应用场(chǎng)景中使用AI助手提供帮助。
第三,加(jiā)强伦理和法规遵从。根据人(rén)工智(zhì)能(néng)技术的进步及时修订相关法律法规,完善(shàn)对(duì)AI助手进行规制的制度环境,确保AI助手的开发(fā)和应用符合伦理标准和(hé)法律法规,避免产(chǎn)生歧视(shì)、偏见等问题。
“国家政策(cè)层面应该(gāi)从创新方向(xiàng)引导和应用场景规范(fàn)两个方面出发,为AI助(zhù)手的发展(zhǎn)提(tí)供支(zhī)持和保障。包括明确AI助手的适用场景和范(fàn)围等,避免误用,更要避免(miǎn)国际资本集团假(jiǎ)借技(jì)术触(chù)发虚(xū)假市场(chǎng)的滥用。特别是在医疗(liáo)、教育、交通等关键领域,应严格规范AI助手的(de)应用条件(jiàn)和程序。此外,要建立健全AI助手的(de)监管机制(zhì),加强社会力量尤其是人民群众对AI助手应用的监督(dū)和评估,确保其合规性、合理性和安全(quán)性。对于违规行(háng)为,应依法进行处罚和(hé)追责。”任勇表示。
未(wèi)来,企(qǐ)业可(kě)以利用AI助手优化现(xiàn)有业务流程,特别(bié)是在(zài)新产品研发和服务的创新应用方面,AI助手的(de)普及将推动不同行业之间的跨界融合(hé)和协同发展,为企(qǐ)业带来新的商业机会和合作伙伴,进而(ér)带动(dòng)商业模式和生态的变(biàn)革。
中央财经大学数字经济融(róng)合创(chuàng)新发展中心主任陈端在接受中国经济时(shí)报记者(zhě)采(cǎi)访时(shí)认为,企业运用AI助手(shǒu)强化核心竞(jìng)争力需要一系(xì)列(liè)的(de)战(zhàn)略(luè)规划和技术实(shí)施。
一是要识别关键业务(wù)场景,深(shēn)入了解业务需求,确定AI助(zhù)手(shǒu)在哪些(xiē)环(huán)节能够发(fā)挥最大价(jià)值,然(rán)后为选(xuǎn)定的业务场景明(míng)确具(jù)体(tǐ)的需求和目标,如提高客户满意度、优化库存管理、增强市场(chǎng)分析能力等。
二(èr)是根据业务需求和技术成熟(shú)度,选择适合的AI技(jì)术和解决方(fāng)案,要充分考虑(lǜ)与现有系统的兼容性,确保(bǎo)AI助手能够顺利集成到(dào)企业的(de)IT架构中。此外,还要建(jiàn)立(lì)完善的数(shù)据治理体系,避免因为数(shù)据偏差导致的结果偏(piān)差(chà)。
三是需要设立明确的评估指标和机制,对AI助手的性能和效果进(jìn)行定期评估,及时调整和优化AI助手的算法和模(mó)型,以提升其准确(què)性和效率。此外,还需要关注AI助手可能带来(lái)的(de)伦理和社会(huì)问题,确保其应用(yòng)符(fú)合道德和(hé)法律规范。