2019年2月15日

AI發展趨勢與挑戰

AI發展趨勢與挑戰(上)-2019/2/12

https://www.ydn.com.tw/News/324035

 

AI發展趨勢與挑戰(中)-2019/2/13

https://www.ydn.com.tw/News/324162

 

AI發展趨勢與挑戰(下)-2019/2/14

https://www.ydn.com.tw/News/324288

 

 

AI發展趨勢與挑戰-2019/2/12

人工智慧已成顯學。青年日報特摘譯美國「國會稽核處」(GAO)之〈新興人工智慧的發展、挑戰與影響〉及美國《科學雜誌》、〈嵌入人工智慧的大氣模型的創新與發展〉重要內容。(編按)

 

前言

 

 20183月,美國「國會稽核處」對人工智慧(AI)的定義是:

狹義AI指的是提供特定領域專業知識,或工作的應用程序;

廣義AI是在人類交互活動範圍內展示與人類或超出人類智能的AI應用程式。

 

人工智慧發展3階段

著名的AI學者Launchbury提供了一個完整的研究框架,即根據感知、學習、抽象和推理方面的能力差異,將AI概念區分為3個階段。

 

 1階段,人工智慧由法律或其他權威研究專家所凝聚的知識或標準進行編碼,可稱為計算機演算階段,亦可稱為專業系統發展階段,例如後勤安排及相關的稅收程序等。

 

 2階段AI技術,植基於機器學習統計學習,例如包括語言處理(如語音識別)和計算機視覺技術等。與第1階段相比,2階段系統旨在感知學習,具備了聲控、數學能力等,可幫助醫護人員選擇適當的治療方式,或進行快速診斷的應用;另外,還有自動駕駛車輛的發展等。

 

 3階段AI技術結合了第12階段的優勢,並且還具有上下連貫的複雜性、抽象性和解釋性。第3階段AI1個例子,是1艘船可以在無人操作的情況下,在海上航行數月,航行期間能感知其他船隻,並因應海上各種情況,確保在航道上執行相關任務。

 

 如同Launchbury所描述的,我們正處於「第3AI」的開始階段,第3AI的關鍵,是能夠適應未來新情況的系統,且能夠向用戶解釋這些決策與結果背後的成因。

 

3階段人工智慧的成功案例

 

 人類科技不斷創新,在地球大氣科學領域模型的數量、複雜性和運算能力也不斷強化,但仍無法準確地回答人們心中一些疑問,例如必須建造多高的海牆,以防止海平面上升?熱浪在未來10年會有多嚴重?北極航線在2030年會是什麼樣貌?科學家塔皮奧施奈德組建了一個大氣模型團隊,該團隊正進行一項「地球機器」的計畫,結合運用AI科技,期望於未來能精準掌握、預測地球大氣的形成與發展。

 

 

 

愈來愈多的人工智慧應用證明可帶來許多優勢,但同時也面臨一些挑戰。根據美國會稽核處20183月技術評估資料指出,需要仔細考慮這些利益和挑戰,這些考慮因素包括了網路安全、自動駕駛、法律規範、資金交易等,這些是AI使用後必須考量的問題。該處還強調,人工智慧可能帶來的好處尚無法完整預測,甚至可能也難以想像。

 

人工智慧的產業優勢

 

 美國會稽核處認為,AI的運用可以改善經濟,並提高生產力

 

 因此,改進或規範人類決策將是個重要的課題,AI可用於從多個位置蒐集大量數據和資訊,不僅如此,透過人類行為模式的蒐集,可以比人類更快速地檢測異常情況

此外,人工智慧可用於製定資訊警示功能,有助於防止不恰當、或有害的人類偏見,無論是出於政治壓力,還是其他因素可能產生的不良後果;即使如此,人工智慧無法保證絕對不受偏見的影響。因此,該處也特別強調,如果AI使用的數據存在偏差,結果也會有偏差。

 

。另一方面,人工智慧可用於確保金融體系的監管,並確保合於法規,而且不會對受監管者造成不必要的負擔(如確保隱私)。

 

人工智慧的法規道德挑戰

 

 主要的人工智慧挑戰,乃是蒐集和共享數據的障礙,雖然並非AI的所有應用程式都需要大量數據,但某些使用機器學習算法的應用程式則需要大量的數據;目前為止,AI領域中,數據不易彙整或解釋是最大的問題

 

。根據該處的說法,需要一個計算道德倫理系統來幫助AI選擇,藉以反映合乎商業價值道德的選項,因此,在人類有能力理解及適當信任,並能夠有效管理AI之前,AI應用程式或系統需要解釋為什麼它採取某些行動,以及為什麼它比其他變量因素更重視其他某些變量因素。

 

 AI相關跨領域政策考慮因素

 

 在提出了與AI相關的益處和挑戰後,美國會稽核處也提出了一些政策考慮因素和未來研究領域建議。

 

 鼓勵數據資料共享

 

該處認為,在共享數據資料的同時,需建立一個「安全空間」來保護敏感訊息資料(例如知識產權和專業技術資料),而要想獲得成功的安全空間,需要從製造商開始,明確定義所需的數據資料,以及使用數據的具體方案,方能成功。

 

 事件發生,且分享數據亦可有效了解與自動駕駛汽車相關的安全因素重要性,該中心也明確表示「我們相信這些車輛可以在路上行駛,但我們需要驗證的是,在行駛期間,它們和我們的認知一樣安全」。(待續)

 

===

 

 

 提高數據資料安全性

 

該處強調,加強網路攻擊系統應用程式安全性的挑戰是重中之重,包括發展具有AI反制能力的系統。目前為止,所有形式的網路安全活動,並沒有得到適當的共享,這也是網路攻擊事件頻傳的主因,不可否認,安全漏洞比防止漏洞安全措施付出的代價要昂貴得多,因此,政策制定者需要考慮建立某種框架,確保成本和損失在機構與用戶之間,得到適當的共享與平衡。基於這個因素,美國部分的政策制定者也認為,應考慮建立新的監管機構,以確保包括自動駕駛汽車項目在內的安全。

 

 人工智慧的廣泛運用將對監管機構產生很大的影響,立法者需要考慮解決這些問題,包含相關政策的制定;監管機構必須積極主動,包括承諾提供有效的相關資源,以因應迅速且無法預料的AI事件發生。例如自動化車輛的監管機構就必須要有完善的法規政策。因此,部分人士認為,聯邦政府應該避免過早、輕率的制定標準,以防範自動化車輛普及化之後帶來許多連動性的更大問題。截至目前為止,即使這些車輛改善了整體公共安全,自動駕駛車輛的製造商也應對事故負有全部責任;此外,許多人對隱私權部分提出了許多擔憂,包括執法機構可能運用AI來侵犯公民自由,這表示這是一個需要全領域、通盤檢討全面性的政策。

 

 

 

 其他包括法律、法規可能也需同步進行調整,但可能會讓有些人認為「人類可能不同意自動化系統做出的決定」。例如意圖操縱法律,就如同金融市場操縱模式一樣,如果有人藉人工智慧編碼程式來賺錢,並且它以「技術性的設定」方式做,即使是明顯違反人類認知的行為,但目前尚不清楚現行法律將如何起訴人工智慧的創造者。

 

 建立AI適合的風險和道德評估方式

 

政策制定者需能夠決定如何權衡人工智慧的道德風險與取捨,雖說現今已有一些基本標準,然仍不盡完善(即人類的道德表現如何)。該處表示,「美國必須將人工智慧能力與道德相容,讓AI成為一個善良的場域,同時讓邪惡敵人存在絕處,亦無逢生的可能」。因此,這些監管的問題應該透過各種利益相關者,包括經濟學者、法律學者、哲學家和其他參與政策制定的相關人員,而非僅僅是科學家和統計學家而已。

 

 

 數據蒐集的重要性,以及如何獲得高品質數據是AI產業鏈中重要的關鍵,這包括在數據蒐集期間如何提高數據質量等,若能充分掌握這個因素,AI的產業發展將更加迅速。因此,只要數據能更全面化,並且有系統的組織起來,而且是高品質、高可靠性的,此將有利於各種機器自我學習,達到此目標時,相信AI也將發出更準確的效果,AI的普及化亦不遠矣。

 

 了解AI對就業市場的影響

目前尚無法確認

人工智慧將會創造哪些工作?

哪些工作可能會增加?

或哪些工作可能會被人工智慧取代?

因此,該處表示,人工智慧的廣泛運用,也同時帶來了重新評估和重新思考

培訓和教育環境的必要性。

沒有留言:

搜尋

標籤

總網頁瀏覽量