AI的潘多拉魔盒正在開啟嗎?
繼意大利暫時禁止使用ChatGPT后,德國政府也表達(dá)了準(zhǔn)備考慮暫時禁止的可能性,緊隨其后的還有法國等歐洲國家也表示考慮采取嚴(yán)格監(jiān)管;而美國總統(tǒng)拜登周二在白宮與其科技顧問舉行會議,討論AI對人類、社會和國家安全的風(fēng)險和機(jī)遇。
(資料圖片僅供參考)
與此同時,最近美國生命未來研究所向全社會發(fā)布了一封《暫停大型人工智能研究》的公開信,呼吁所有人工智能實驗室暫停比GPT-4.0更強(qiáng)大的人工智能系統(tǒng)訓(xùn)練至少6個月,上千各界名流參加了簽字倡議。
這是人類又一次忌憚于自己帶來的技術(shù)威脅,與其較為接近的一次是為核武器而構(gòu)建核恐怖平衡的制度安排。
AI代表了人類認(rèn)知的邊界,既然是邊界就充滿不確定性,而這恰是人們最為忌諱的。一直以來,可控性是人類科技發(fā)展的主線,這種可控性一方面來自于人類通過掌握硬科技以降低來自自然的傷害,提高利用自然的效率;另一方面人類通過道德、倫理等非正式規(guī)范,以及法律等正式規(guī)范,來約束自身行為,通過降低人類組織的熵值,激發(fā)個體乃至群體智慧。
當(dāng)務(wù)之急是需對AI有一個清晰的定義。AI開發(fā)者和應(yīng)用者,都需明確應(yīng)基于工具理性而非價值理性來看待AI,至少目前的AI是一種高級自動化的自然語言處理程序,其智能更多是基于人類現(xiàn)有存量知識的應(yīng)用,其本身不會衍生新知識。
為此,我們需防備的是AI開發(fā)者和AI訓(xùn)練師等將人類本身的一些陰暗面和無節(jié)制的欲望,強(qiáng)行灌輸于AI之中。要知道,AI是人類的影子,開發(fā)者、訓(xùn)練師是什么,AI就會是什么。而這首先就要將道德、倫理等共識變成AI開發(fā)和訓(xùn)練的強(qiáng)約束。
同時,要充分發(fā)揮AI的工具理性,亟須設(shè)定一套能迎應(yīng)人工智能的透明化擔(dān)保和防護(hù)型保障體系,護(hù)衛(wèi)AI產(chǎn)業(yè)的程序正義。目前英國政府通過《人工智能產(chǎn)業(yè)白皮書》,提出了發(fā)展人工智能的五大原則,即安全性、透明度、公平、問責(zé)制和補(bǔ)救性等。
安全性是AI存廢的關(guān)鍵,各國應(yīng)協(xié)調(diào)得出人工智能的安全共識。這方面可借鑒科幻作家阿西莫夫提出的機(jī)器人三原則之第一條:不得傷害人類,或坐視人類受到傷害。同時,將人工智能的安全共識,以透明化、可問責(zé)和可補(bǔ)救的全生態(tài)流程來規(guī)范和監(jiān)控,為人工智能提供正確做事的保障體系。
此外,人們對AI最具現(xiàn)實的恐懼,集中表現(xiàn)在AI給人們帶來了高度不確定的未來,如AI是否會替代其現(xiàn)有就業(yè)崗位等。
目前的社會教育體系和認(rèn)知體系,在強(qiáng)AI之下,確實可能面臨巨大的挑戰(zhàn)。這種挑戰(zhàn),并不主要緣于越來越多技能型工作將被AI替代,而是人們在新舊就業(yè)崗位變動中的轉(zhuǎn)換成本。為此,永遠(yuǎn)不要低估人對環(huán)境的惰性,人的恐懼本質(zhì)上就是被拉出了舒適區(qū)。
當(dāng)然,AI在替代一部分工種的同時,其實也在創(chuàng)造新的就業(yè)崗位,如AI極大地將人從技能型工作中解放出來、讓人類從事其更擅長的感知和智慧型工作,將是強(qiáng)AI下的主要工種,各種專業(yè)化的審美工作,將以AI訓(xùn)練師的崗位,向人們招手。為此,政府需加強(qiáng)搭建廣泛的就業(yè)培訓(xùn)體系,以降低人們適應(yīng)新環(huán)境的成本。
欲窮千里目,更上一層樓。當(dāng)前AI正以越發(fā)高智能的供給,將人從技能型的體力和腦力勞動中解放出來,為人們描繪可期的未來,為此降低人們對AI恐懼的最有效辦法,不是為AI的發(fā)展設(shè)置路障,而是不斷探索適合AI發(fā)展的規(guī)矩,既讓其勇敢試錯,又盡可能降低試錯成本。
關(guān)于我們| 聯(lián)系方式| 版權(quán)聲明| 供稿服務(wù)| 友情鏈接
咕嚕網(wǎng) m.ulq4xuwux.cn 版權(quán)所有,未經(jīng)書面授權(quán)禁止使用
Copyright©2008-2020 By All Rights Reserved 皖I(lǐng)CP備2022009963號-10
聯(lián)系我們: 39 60 29 14 2@qq.com