moneymonday
指數/外匯
明報APP

報章內容

美委託研究報告:AGI將威脅人類

【明報專訊】OpenAI的生成式人工智能ChatGPT於2022年11月面世,旋即引起全球迴響,並憂慮人工智能(AI)將引起大危機。早於ChatGPT發布前一個月,美國國務院已委託AI安全的研究機構,評估AI被用來做武器及被誤用的安全風險。最近報告出爐,結論是AI最壞可令人類絕種,警告華府須果斷行動,建議國會禁止高於若干運算能力的AI模型訓練,慎防AI帶來重大國安風險。但有前OpenAI高層認為AI普及助降物價,對人類有益,料叛變機會極微。

明報記者 鄭智文

綜合報道:《時代周刊》、CNN、Business Insider

該報告名為《增加先進人工智能安全與保障的行動計劃》(An Action Plan to Increase the Safety and Security of Advanced AI),由Gladstone AI於其網站發布摘要,表示是受國務院委託而寫,惟全份報告要經登記、審批後才可查閱。CNN向國務院查詢,對方確認有委託Gladstone AI撰寫報告,但強調報告不代表華府觀點。

美國務院:報告不代表華府觀點

報告表明,先進AI及通用人工智能(AGI)有可能使全球安全不穩,好比當年引入核武。目前AGI尚未出現,普遍預料AGI將於5年內誕生。報告將AI風險分兩大類。第一類是AI變成武器,可能用於設計、執行生化、化學、網絡襲擊,甚或為一群機械人啟用危險的應用程式;第二類是失控,或AI系統反勝創造者,若用現有技術開發AI,AI可能失控,甚或貽害人類。

報告憂慮,兩類風險均會因AI界競賽而加劇,例如首家企業做到AGI的話,很可能收割大部分經濟回報,促使企業將發展速度看得重於安全,「它們沒有面臨即時的誘因,投資在不會帶來直接經濟利益的安全或保障措施,哪怕有些人純粹出於憂慮而這樣做。」

據OpenAI在2018年4月發布的憲章,AGI定義為高自動系統,在經濟上最有價值的工作中做得比人類好,進而造福人群。身為目前AI龍頭的OpenAI在憲章中語調審慎,AGI的時間表未定,希望憲章可指引團隊行動,將人類福祉放在第一。為了豐碩的經濟成果,商業競爭恐成點燃AI危機的火種。OpenAI在6年前已提出類似觀點,指擔心AGI的後期開發會演變成競賽,來不及設立安全措施,故他日若有理念一致、具安全意識的項目搶先他們建立AGI,OpenAI承諾會停止競爭,並開始協助對方。

今次AI安全報告由三人撰寫,為時逾一年,與逾200名官員(美、英、加)、專家、領先AI企業的員工交流過,包括OpenAI、谷歌旗下DeepMind、Anthropic、facebook母企Meta(美:META)等。

不過,AI企業內一些負責AI安全的員工流露不安,稱該企業的管理層決策時,採用不當的激勵方式。Business Insider訪問了有份撰寫報告的Gladstone AI行政總裁Jeremie Harris與科技總監Edouard Harris,Jeremie Harris認為AI最大風險是網絡攻擊,報告主要寫手Edouard Harris最憂慮選舉受干預。

報告籲從運算力着手 為AI發展設限

AI運算要倚賴強大的運算能力,故報告建議要從運算能力着手,為AI發展降溫,因此向美國國會獻計,應將高於若干運算能力的AI模型訓練定為非法,另新設AI的政府機構,由新機構定下門檻,提議門檻可略高於當前領先的模型,如Chat-GPT與谷歌的Gemini。報告補充,該機構應要求AI企業須經政府許可,才可在某門檻之上訓練及部署新模型。

報告還促請當局「緊急」考慮禁止發布強大人工智慧模型的「權重值(weights)」等,違規或處以監禁。「權重值」對AI的類神經網絡(ANN)尤其重要,有份指揮神經元之間的信息傳輸,而AI需要吸納知識來預測及決策,而權重值就會影響了AI吸納知識的過程。

規範晶片擴散 或提振外國產業

報告亦對準高端晶片,形容規範晶片擴散可能是「最重要的要求」,以捍衛長期的全球AI安全,建議政府研究能否將晶片上的技術與出口許可證掛鈎,監視晶片會否用於大型的AI模型訓練。然而,報告提醒但凡干預措施都可能導致過度監管,反而提振了外國的晶片產業,削弱美國左右供應鏈的能力。

戰略與國際研究中心(CSIS)旗下AI機構Wadhwani Center的AI管治項目主管Greg Allen認為,建議極難獲華府採用,當前華府的AI政策,是制定門檻以外須設立額外的透明度管理和監管,並非如建議所說定為非法,「若無一些外來衝擊,我想他們頗難去改變這個做法。」

《時代周刊》於上周二揭露報告內容,惟AI晶片龍頭股Nvidia(美:NVDA)當日股價再飈逾7%,一舉升穿900美元水平,創歷史高位,惟不久失守,近日回吐逾3%。

OpenAI前產品上市策略主管Zack Kass上周在香港演講,對AI看法則樂觀得多。雖然他亦預測AGI會在6年內出現,引發大量工作轉移,但預料人類可承受大部分代價,甚至可降低物價。他又稱,AI引致機械人叛變只屬電影劇情,訓練AI模型時只要AI認同人類價值觀,叛變機會便極微。

多國陸續就AI推出相應方案,如中國《生成式人工智能服務管理暫行辦法》已於去年8月生效。同年10月底,美國總統拜登簽署行政命令,要求AI開發者與美國政府分享數據。

白宮發言人Robyn Patterson就報告回應,指美國總統拜登對AI施行政命令,是至今任何政府最重大的行動,去實踐承諾,並控制AI風險。她補充,正副總統會繼續與國際伙伴合作,敦促國會通過立法議案,控制與新興科技有關的風險。

歐盟新法:須確保產品合法才上架

不過,當前普遍認為以歐盟上周三通過的AI法案最領先。新法列明,AI系統風險愈高,所受規範愈嚴,提供高風險AI的廠商,必須做風險評估,確保產品合法,才准上架。新法亦要求在不扼殺發展下,遏止潛在偏見、侵犯私隱與人權等問題,又禁止對人分類的生物識別掃描等。

Gladstone AI創辦人Jeremie Harris、Edouard Harris是兩兄弟,2018年曾在矽谷著名孵化器Y Combinator經營過AI公司,當時Y Combinator主席為OpenAI創辦人Sam Altman。美國負責應對新興科技風險的部門於2022年招標,就AI風險寫報告,最後由Harris兄弟中標,並寫下今次發布的報告。

[企業地球村]