(資料圖片僅供參考)
在GPT大模型不斷升級的同時,關(guān)于人工智能倫理方面的爭議也接踵而至。3月29日,馬斯克等近千名科技人員在一封公開信中呼吁,在未來六個月暫停對巨型GPT模型的訓練,以免該模型對社會和人類造成潛在風險。若禁令不能迅速實施,政府應該介入并制定暫停令。
公開信稱,人工智能開發(fā)者必須與政策制定者合作,大幅加速開發(fā)強大的人工智能治理系統(tǒng)。
不過,OpenAI的首席執(zhí)行官阿爾特曼沒有在這封信上簽名。在公開信發(fā)布后的第二天,阿爾特曼如此表態(tài),要實現(xiàn)通用人工智能繁榮的未來需要三個條件。首先,技術(shù)上擁有對齊超級智能的能力,其次,大多數(shù)領(lǐng)先的通用人工智能模型之間可以實現(xiàn)充分協(xié)調(diào),第三,存在有效的全球監(jiān)管框架,包括民主治理在內(nèi)。
值得注意的是,英國近期發(fā)布了針對人工智能的監(jiān)管措施。白皮書概述了針對ChatGPT等人工智能治理的五項原則,這五項原則包括:安全性和穩(wěn)健性、透明度和可解釋性、公平性、問責制和治理,以及爭議與補救。
英國政府表示,在接下來的12個月內(nèi),監(jiān)管機構(gòu)將向各個組織發(fā)布使用指南和風險評估模板等其他工具及資源,來制定如何在行業(yè)內(nèi)實施相關(guān)原則。在議會時間允許的情況下,也將出臺立法,以確保監(jiān)管機構(gòu)始終如一地秉持這些原則。
對于人工智能領(lǐng)域的風險問題,也有人持不同的看法。3月30日,360集團創(chuàng)始人周鴻祎發(fā)文表示,昨天,以馬斯克為首的科學家給美國政府寫請愿信,要求暫停GPT-5的研發(fā),擔心它“對社會和人類構(gòu)成潛在風險”。周鴻祎認為這不影響中國發(fā)展自己的大語言模型?,F(xiàn)在擔心風險為時尚早。
他表示,不管你愿不愿意,GPT都將引領(lǐng)一場新的工業(yè)革命,意義超越互聯(lián)網(wǎng)和iPhone的發(fā)明。它將帶來生產(chǎn)力的大幅提升,進而提升國家競爭力。中國一定要迎頭趕上。自己是做安全的,但堅定地認為,不發(fā)展才是最大的不安全。
關(guān)于我們| 聯(lián)系方式| 版權(quán)聲明| 供稿服務| 友情鏈接
咕嚕網(wǎng) m.ulq4xuwux.cn 版權(quán)所有,未經(jīng)書面授權(quán)禁止使用
Copyright©2008-2020 By All Rights Reserved 皖I(lǐng)CP備2022009963號-10
聯(lián)系我們: 39 60 29 14 2@qq.com