【明報專訊】隨着科技的發展,人工智能(AI)已成為現今社會中最重要的技術之一。生成式人工智能(Generative AI)是人工智能的一個分支,它能夠自主創建新的內容,如圖像、文本和音頻等,近日全球熱話ChatGPT便是生成式人工智能的表表者。然而,最近一封《暫停大型人工智慧實驗的公開信》(Pause Giant AI Experiments: An Open Letter),卻引起人們開始關注生成式人工智能的發展有可能帶來負面影響,擔心這項技術會對人類帶來威脅。
事實上,規管生成式人工智能的發展變得愈來愈重要,本文中筆者將探討為何需要規管生成式人工智能的發展,以及如何達到這一目標。
首先,生成式人工智能的發展可能會對人類社會帶來嚴重的影響。例如,生成式人工智能可以用於製造假新聞和虛假圖像,進而干擾選舉和政治穩定。這不是天方夜譚,而是近日已經出現虛假訪問及假圖像。此外,生成式人工智能還可以製作深度偽造(Deepfakes)的影片,進而破壞人們對真相的信任。因此,如果不加以規管,生成式人工智能的發展可能會對社會造成嚴重的傷害。
其次,規管生成式人工智能的發展可以促進創新和發展。如果生成式人工智能的發展得到嚴格規管,那麼人們就可以更加放心地進行相關的研究和創新。這樣一來,就可以促進生成式人工智能的發展,同時也可以維護社會的穩定和秩序。
第三,規管生成式人工智能的發展可以幫助保護個人隱私和數據安全。生成式人工智能需要大量的數據來訓練,這些數據可能包括有關個人的敏感資料。如果這些數據被不法地使用或泄露,就會對個人的私隱和數據安全造成嚴重威脅。因此,規管生成式人工智能的發展可以幫助保護個人私隱和數據安全。
那麼應如何規管生成式人工智能的發展呢?首先,政府和學術界需要加強監管和研究。政府可以通過立法和規範來使生成式人工智能的發展規範化,例如要求生成式人工智能的開發者和使用者進行相應的認證和審核。此外,學術界可以展開相關的研究,以推動生成式人工智能的發展,同時也可以及早發現和解決可能存在的問題。
其次,生成式人工智能的開發者和使用者需要自律和負責任。他們應該確保生成式人工智能的使用符合法律法規和道德標準,同時也應該注意保護個人私隱和數據安全。
最後,需要加強公眾對生成式人工智能的認識和理解。政府或專業團體(例如亞洲金融科技師學會)可以幫助公眾了解生成式人工智能的基本原理和應用,從而更好地了解其可能帶來的影響和風險。
總括而言,生成式人工智能已成為現今社會中最受注目的新興技術之一,但其發展也面臨着許多不確定因素和挑戰。因此,我們需要加強其規範和監管,同時也需要加強公眾對其認識和理解。只有這樣,我們才能更好地促進生成式人工智能的健康發展,同時也能更好地維護社會秩序及保護資訊安全。
(本網發表的文章若提出批評,旨在指出相關制度、政策或措施存在錯誤或缺點,目的是促使矯正或消除這些錯誤或缺點,循合法途徑予以改善,絕無意圖煽動他人對政府或其他社群產生憎恨、不滿或敵意。)