學者認為,人工智慧(AI)技術掌控在Google等大型科技公司手中,不能指望他們自律,宜立法對機器智慧的權力設限,以保障人們的基本權利。美聯社學者認為,人工智慧(AI)技術掌控在Google等大型科技公司手中,不能指望他們自律,宜立法對機器智慧的權力設限,以保障人們的基本權利。美聯社
華頓商學院教授主張,隨著世界日益自動化,提升資訊透明度和加強政府監管變得更有必要,美國需要制定新的權利法案(Bill of Rights),以保障人類基本權利免遭演算法(algorithm)剝奪。
財經新聞網站MarketWatch報導,華頓商學院教授霍薩納格(Kartik Hosanagar) 表示,對於機器學習逐漸融入世人生活,他的看法是樂觀大於悲觀。但他擔心,社會對這主題普遍的自我感覺良好和無知,是很危險的事。
霍薩納格說:「若對演算法如何運作只有模糊概念,對負責任的公民、消費者和專業人士來說,都是不足的。」
人工智慧(AI)技術愈來愈發達,衍生出一些問題。例如,應徵工作的人那麼多,哪些人可取得面試機會?誰申請貸款可獲核准?約會應用程式(App)從眾人中該挑選誰出來配對?這些決定若一律交給不完美、甚至有「偏見」的程式碼來決定,如何防範不會有偏差?該由誰來檢查演算法運作正不正確,權力會不會過大並且遭到濫用?
鑒於此,霍薩納格認為,一如「權利法案」限制聯邦政府權力,美國現在需要制定新的「權利法案」,對機器智慧的權力設限,從而保障人類的權利。
霍薩納格指出,這些權利中最重要的,是要了解演算法如何做決定。他接受MarketWatch訪問時表示,每個人都應能要求並獲得這樣的解釋,而聯邦監管當局應有能力充分審核相關數據。
他說:「資訊透明攸關人們能否接受做出這些決定的方式。研究顯示,我們預期AI比人類更能提供資訊透明,而我們也傾向願意原諒人為疏失,更甚於原諒演算法出錯。」
霍薩納格表示,演算法出錯導致的後果也比較嚴重:醫生誤診可能影響數千名病患,但醫療演算法出錯卻可能危害數百萬人。因此,必須有能力審核這些演算法是怎麼做決定,必須能建立某種演算法「黑盒子」,這對防止各種狀況發生都很重要,無論是防範演算法交易導致閃電崩盤,還是自駕車和飛機肇禍或墜毀。
他認為,使用者也應該有權表達意見,藉此對改善演算法的表現發揮影響力。
霍薩納格並指出,當今AI權力掌握在大企業手中,不能指望蘋果、Google等科技公司能夠自律。他表示,「太大的權力集中於掌握AI技術的一小撮公司」,是很危險的是;但另一方面,過度介入監管,卻又會冒著窒礙創新的風險。如何在兩者之間取得平衡,將是政府面臨的重大考驗。
他認為,現在唯一的希望,是決策者和一般大眾都務必要對演算法有更深入的了解。