在OpenAI的GPT大模型日益強大的時候,也引起了關(guān)于倫理方面的巨大爭議。OpenAI的共同發(fā)起人伊隆·馬斯克(Elon Musk)和一群人工智能專家及行業(yè)高管在一封最新發(fā)布的公開信中呼吁,在未來六個月暫停對GPT模型的訓(xùn)練,以免該模型變得更加強大,從而對社會和人類造成潛在風(fēng)險。
這封信由非營利組織未來生命研究所(Future Life Institute)發(fā)布,由1000多人聯(lián)名,其中包括馬斯克、Stability AI的首席執(zhí)行官Emad Mostaque、谷歌旗下DeepMind的研究人員,以及人工智能領(lǐng)域的重量級人物Yoshua Bengio和Stuart Russell等。他們呼吁在GPT進(jìn)一步強大之前,需要首先就此類大模型達(dá)成由獨立專家開發(fā)、實施并審核的共享安全協(xié)議。
(資料圖)
“只有當(dāng)我們確信它們的影響是積極的,并且它們的風(fēng)險是可控的時候,才能開發(fā)更強大的人工智能系統(tǒng)。”聯(lián)名信中說道。
值得關(guān)注的是,OpenAI的首席執(zhí)行官阿爾特曼(Sam Altman)沒有在這封信上簽名。
這封信還詳細(xì)說明了人工智能系統(tǒng)可能與人類競爭,并可能對經(jīng)濟、政治、社會和文明造成的潛在風(fēng)險。聯(lián)名專家們提出,應(yīng)針對這些風(fēng)險,研發(fā)人員應(yīng)該與政策制定者就人工智能的治理和監(jiān)管機構(gòu)進(jìn)行合作。
今日,第一財經(jīng)記者提問ChatGPT怎么看馬斯克等人叫停對它的訓(xùn)練,ChatGPT回答道:“馬斯克叫停GPT訓(xùn)練可能有多種原因,其中一個可能是擔(dān)心模型被誤用或濫用,尤其是在自然語言生成和信息操縱方面。GPT模型能夠生成自然語言文本,包括虛假或有害信息,這可能會對社會和個人造成危害。此外,GPT模型也可能有隱私問題,因為它可以生成人類語言,可能會包含敏感信息。”
ChatGPT認(rèn)為,叫停GPT訓(xùn)練主要是出于對社會責(zé)任和技術(shù)發(fā)展的前瞻性方面的考慮。它還提到,GPT模型可能存在一些局限性,或者不是解決某些問題的最佳方法,因此需要嘗試尋找更好的替代方案。
近期,馬斯克已多次在社交媒體上表達(dá)對OpenAI的不滿。他在3月24日的Twitter上寫道:“我最早向OpenAI捐贈了1億美元,當(dāng)時它還是非營利的機構(gòu),沒有所有權(quán),也不受任何人控制。”他還抨擊微軟“將OpenAI占為己有”。
馬斯克還曾多次呼吁對人工智能的監(jiān)管。“沒有對人工智能的監(jiān)管,這是一個主要問題。十多年來,我一直在呼吁人工智能安全監(jiān)管!”他在去年12月發(fā)的推文中表示。他還在GPT4發(fā)布后再次表達(dá)擔(dān)憂。他寫道:“我們?nèi)祟愡€有什么可做的?”
這封聯(lián)名信發(fā)表之前,一位名叫Michal Kosinski的斯坦福大學(xué)計算心理學(xué)家在社交媒體上曝光了GPT-4的一項“逃跑計劃”,并稱AI能引誘人類提供開發(fā)文檔,30分鐘就擬定出一個完整計劃,甚至還想控制人類電腦。
Kosinski疾呼:“我擔(dān)心人類無法持久地遏制住AI。AI很聰明,會編碼,能接觸到數(shù)百萬個人和電腦。”此言一出便引來眾多網(wǎng)友圍觀,有人稱GPT“打開了物種滅絕的大門”。
面對業(yè)內(nèi)對AI“邪惡”想法的質(zhì)疑,GPT之父阿爾特曼在近期的一次公開采訪中回應(yīng)稱:“AI至今仍然是一種非常受人控制的工具。”但他也承認(rèn),一些擁有AI輸入控制權(quán)的人可能無視人們對人工智能設(shè)置的一些安全限制。
“我認(rèn)為,社會只有有限的時間來弄清楚如何對此做出反應(yīng),如何對其進(jìn)行監(jiān)管,如何處理它。”阿爾特曼說道。他也呼吁監(jiān)管機構(gòu)和社會需要進(jìn)一步參與這項技術(shù),以防止對人類造成潛在的負(fù)面影響。
“我特別擔(dān)心這些模型可能會被用于大規(guī)模的虛假信息,”阿爾特曼說道,“現(xiàn)在他們在編寫計算機代碼方面做得越來越好,可以用于進(jìn)攻性網(wǎng)絡(luò)攻擊。”
針對這種擔(dān)憂,微軟周二宣布推出一款新的AI聊天機器人產(chǎn)品Security Copilot,以幫助網(wǎng)絡(luò)安全專業(yè)人士了解關(guān)鍵問題并找到解決問題的方法。這款最新的AI聊天機器人能夠描述網(wǎng)絡(luò)活動安全漏洞的暴露情況,并指出利用漏洞的帳戶。微軟的網(wǎng)絡(luò)安全業(yè)務(wù)在2022年收入超過200億美元。
自人工智能誕生以來,治理問題就一直是全球監(jiān)管機構(gòu)關(guān)注的熱點。最新涌現(xiàn)出來的ChatGPT這類人工智能的新技術(shù),為歐盟正試圖起草的人工智能法案帶來新的挑戰(zhàn)。歐盟正著手準(zhǔn)備創(chuàng)建一個新的監(jiān)管部門來應(yīng)對AI的治理。
英國也正在計劃如何分配競爭監(jiān)管機構(gòu)管理人工智能的職責(zé)。英國政府表示,隨著ChatGPT應(yīng)用程序等技術(shù)的進(jìn)步,人工智能正在迅速發(fā)展,它可以提高生產(chǎn)力并幫助推動增長,但人們擔(dān)心它可能對隱私或安全構(gòu)成風(fēng)險。
英國政府3月29日發(fā)布了一項計劃,將不會專門成立一個負(fù)責(zé)人工智能技術(shù)監(jiān)管的部門,并將避免可能扼殺創(chuàng)新的嚴(yán)厲立法,而是會根據(jù)安全、透明、公平和問責(zé)制等廣泛原則采取適應(yīng)性強的監(jiān)管方法。
關(guān)于我們| 聯(lián)系方式| 版權(quán)聲明| 供稿服務(wù)| 友情鏈接
咕嚕網(wǎng) m.ulq4xuwux.cn 版權(quán)所有,未經(jīng)書面授權(quán)禁止使用
Copyright©2008-2020 By All Rights Reserved 皖I(lǐng)CP備2022009963號-10
聯(lián)系我們: 39 60 29 14 2@qq.com