人工智能的發(fā)展足夠迅速,它可能帶來的危險也足夠明顯,以至于OpenAI的領導層認為,世界需要一個類似于管理核能的國際監(jiān)管機構--而且要快,但不要太快。在公司博客的一篇文章中,OpenAI的創(chuàng)始人Sam Altman、總裁Greg Brockman和首席科學家Ilya Sutskever解釋說,人工智能的創(chuàng)新速度如此之快,以至于我們不能指望現(xiàn)有的機構能夠充分地控制這項技術。
雖然這里有某種拍馬屁的性質(zhì),但任何公正的觀察者都清楚,這項技術,最明顯的是OpenAI的爆炸性流行的ChatGPT對話機器人,代表了一種獨特的威脅,也是一種寶貴的資產(chǎn)。
文章在細節(jié)和承諾方面比較輕描淡寫,但也承認人工智能不會自己管理自己:
我們需要在領先的開發(fā)工作中進行某種程度的協(xié)調(diào),以確保超級智能的發(fā)展以一種既能讓我們保持安全又能幫助這些系統(tǒng)與社會順利整合的方式進行。
我們最終可能需要一個類似于[國際原子能機構]的機構來開展超級智能工作;任何超過一定能力(或計算等資源)門檻的努力都需要接受國際權威機構的檢查,要求進行審計,測試是否符合安全標準,對部署程度和安全級別進行限制,等等。
IAEA是聯(lián)合國在核電問題上進行國際合作的官方機構,就像核不擴散監(jiān)管一樣,建立在這種模式上的人工智能管理機構可能無法進入并打開不良行為者的開關,但它可以建立并跟蹤國際標準和協(xié)議,這至少是一個起點。
OpenAI的帖子指出,跟蹤用于人工智能研究的計算能力和能源使用情況是相對較少的客觀措施之一,可以而且可能應該被報告和跟蹤。雖然可能很難說人工智能應該或不應該被用于哪些領域,但說用于人工智能的資源應該像其他行業(yè)一樣受到監(jiān)督和審計可能是有價值的。(該公司也建議較小的AI公司可以豁免監(jiān)管,以避免扼殺創(chuàng)新的綠芽)。
領先的人工智能研究員和評論家Timnit Gebru今天在接受《衛(wèi)報》采訪時說了類似的話:"除非有外部壓力要求做一些不同的事情,否則公司是不會自我監(jiān)管的。我們需要監(jiān)管,我們需要比單純的利潤動機更好的模式。"
OpenAI明顯接受了后者,這讓許多希望它名副其實的人感到驚愕,但至少作為市場領導者,它也在呼吁在治理方面采取真正的行動--除了最近的聽證會,參議員們排隊發(fā)表連任演講,文稿大多以問句結束。
雖然該建議相當于"也許我們應該,比如,做一些事情",但它至少是行業(yè)內(nèi)的一個對話啟動器,表明世界上最大的單一人工智能品牌和供應商支持做一些事情。迫切需要公共監(jiān)督,但"我們還不知道如何設計這樣一個機制"。
雖然該公司的領導人說他們支持踩剎車,但現(xiàn)在還沒有計劃這樣做,因為他們不想放棄"改善我們的社會"(更不用說底線)的巨大潛力,也因為有一種風險,即壞的行為者已經(jīng)把他們的腳放在油門上。
KIOXIA美國公司今天宣布在其PCIe 4 0固態(tài)硬盤(SSD)產(chǎn)品系列中增加BG6系列--這是第一款采用該公司新的第