AI合理使用與過(guò)度依賴的邊界在哪?
當(dāng)DeepSeek最新大模型的推出再一次極大提升了人們生活與工作的便利程度,當(dāng)世界最受關(guān)注的科學(xué)獎(jiǎng)項(xiàng)——諾貝爾獎(jiǎng)的物理學(xué)獎(jiǎng)、化學(xué)獎(jiǎng)授予了人工智能(AI)研究人員,當(dāng)我們?nèi)找姘l(fā)現(xiàn) AI 滲透到生活的各個(gè)角落,當(dāng)孩子們開(kāi)始接受 AI 作為他們的老師、年輕人開(kāi)始將 AI 當(dāng)作伴侶……我們漸漸意識(shí)到,那些曾經(jīng)只存在于科幻片中的場(chǎng)景已經(jīng)真切地走入現(xiàn)實(shí)生活。AI開(kāi)始與人類暢談、回答人類的一切問(wèn)題、幫助人類做決策、給予人類情感陪護(hù)……人工智能正在成為人類的“外接大腦”與“機(jī)器義肢”,在工作與生活的各個(gè)場(chǎng)景與人類深度鏈接。
我們似乎越來(lái)越離不開(kāi) AI。自DeepSeek-R1上線以來(lái),由于訪問(wèn)量快速上漲不時(shí)出現(xiàn)過(guò)載現(xiàn)象。在小紅書(shū)、豆瓣、知乎等社交媒體平臺(tái)上,不少用戶因AI 服務(wù)中斷而心生不適:“失去AI的幾小時(shí)就像斷了胳膊腿一樣難受,話也寫(xiě)不通順了,只能不斷刷新頁(yè)面祈求快點(diǎn)恢復(fù)”。AI伴侶應(yīng)用Replika因停止了對(duì)用戶的“浪漫回復(fù)”,導(dǎo)致很多長(zhǎng)期用戶感到焦慮、抑郁。從認(rèn)知到情感,一些用戶開(kāi)始患上“AI過(guò)度依賴癥”。
這給我們帶來(lái)一個(gè)關(guān)鍵的問(wèn)題:“AI合理使用”與“AI過(guò)度依賴”的邊界在哪里?過(guò)度依賴的形成,意味著個(gè)體掉入了“無(wú)AI不能”的怪圈,逐漸習(xí)慣于“事事找AI”,將自身的決策權(quán)力、思考能力乃至情感寄托讓渡于AI,甚至忽視或放棄對(duì)AI反饋的監(jiān)督和批判。與之相對(duì),合理使用AI倡導(dǎo)一種理性且負(fù)責(zé)任的用戶參與,人類保留關(guān)鍵決策權(quán),根據(jù)AI能力使其輔助參與決策,并對(duì)其反饋進(jìn)行監(jiān)控和修正。遺憾的是,每一項(xiàng)帶來(lái)偉大變革的技術(shù)總是讓人類面臨逐漸沉迷的風(fēng)險(xiǎn)。從電視依賴、智能手機(jī)依賴到人工智能依賴,技術(shù)烏托邦的吸引力呈現(xiàn)出相似的邏輯,但必須承認(rèn),從未有任何一項(xiàng)技術(shù)像AI一樣,如此徹底地接管人類生活的方方面面。這意味著,“AI過(guò)度依賴癥”將給人類帶來(lái)更大的風(fēng)險(xiǎn)與挑戰(zhàn),亟需社會(huì)各界的警醒與重視。
于個(gè)體而言,“AI過(guò)度依賴癥”很可能導(dǎo)致人類的認(rèn)知力、判斷力、創(chuàng)造力、感知力逐漸萎縮。認(rèn)知心理學(xué)的研究表明,認(rèn)知功能就像肌肉一樣,需要通過(guò)鍛煉才能維持。如果個(gè)體習(xí)慣于借助大語(yǔ)言模型、智能助手獲取答案,將導(dǎo)致“大腦”逐漸懶惰、貪圖“立等可取”的舒適圈,從而失去思考問(wèn)題的動(dòng)力,并養(yǎng)成如AI般“模版化”的思維習(xí)慣。此外,長(zhǎng)久地過(guò)度依賴AI將使人類的認(rèn)知系統(tǒng)失去除“AI數(shù)據(jù)庫(kù)”之外的養(yǎng)料,這會(huì)導(dǎo)致失去對(duì)AI生成內(nèi)容的判斷力,并輕易地將AI的答案奉為圭臬。從這個(gè)意義上說(shuō),“AI過(guò)度依賴癥”將從根本上導(dǎo)致人類思維深度淺表化、思維邊界狹窄化和思維僵化。
更令人擔(dān)憂的是,對(duì)AI的過(guò)度依賴,將使那些經(jīng)由人類想象與探索、依靠時(shí)間釀造與沉淀的創(chuàng)作任務(wù)被轉(zhuǎn)交給AI。當(dāng)人類的創(chuàng)造性因與AI競(jìng)速而失去用武之地時(shí),我們驗(yàn)證自我價(jià)值的內(nèi)在需求也將被逐漸消解。在工具性依賴之外,人類也有可能形成對(duì)AI的情感性依賴。不加節(jié)制的情感依賴將替代或切除人類對(duì)社交關(guān)系的真實(shí)感知,引發(fā)對(duì)人際情感的逃避與排斥。
當(dāng)然,對(duì)“AI過(guò)度依賴癥”風(fēng)險(xiǎn)的揭示不意味著要陷入“新技術(shù)恐懼”之中。面對(duì)人機(jī)共生時(shí)代的種種隱患,只有敢于問(wèn)診并開(kāi)出藥方,才能讓AI為人類所用,向良善而生。“AI過(guò)度依賴癥”的有效藥方,既需要政策法規(guī)的介入,亦需要個(gè)體層面的理性參與。2023年7月發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》第十條首次強(qiáng)調(diào),應(yīng)采取有效措施防范未成年人用戶過(guò)度依賴或者沉迷生成式人工智能服務(wù)。當(dāng)前,中國(guó)等人工智能大國(guó)以及聯(lián)合國(guó)這樣的國(guó)際組織均在積極參與人工智能治理。各國(guó)際行為體需要繼續(xù)加強(qiáng)合作,共同構(gòu)建以人為本、可信任、透明和包容的人工智能未來(lái)。與此同時(shí),也應(yīng)意識(shí)到,再有效的監(jiān)管措施也難以解決個(gè)體的漠視。每一個(gè)人工智能的使用者,都應(yīng)多一點(diǎn)對(duì)AI潛在風(fēng)險(xiǎn)的認(rèn)識(shí)、多一點(diǎn)與AI保持距離的嘗試,多一點(diǎn)向AI監(jiān)督問(wèn)責(zé)的意識(shí),牢牢掌握人機(jī)交互的主動(dòng)權(quán)。(作者分別是清華大學(xué)新聞與傳播學(xué)院副院長(zhǎng)、教授,清華大學(xué)新聞與傳播學(xué)院博士研究生)