AI發展趨勢與挑戰(上)-2019/2/12
https://www.ydn.com.tw/News/324035
】AI發展趨勢與挑戰(中)-2019/2/13
https://www.ydn.com.tw/News/324162
AI發展趨勢與挑戰(下)-2019/2/14
https://www.ydn.com.tw/News/324288
AI發展趨勢與挑戰-2019/2/12
人工智慧已成顯學。青年日報特摘譯美國「國會稽核處」(GAO)之〈新興人工智慧的發展、挑戰與影響〉及美國《科學雜誌》、〈嵌入人工智慧的大氣模型的創新與發展〉重要內容。(編按)
前言
2018年3月,美國「國會稽核處」對人工智慧(AI)的定義是:
狹義AI指的是提供特定領域專業知識,或工作的應用程序;
廣義AI是在人類交互活動範圍內展示與人類或超出人類智能的AI應用程式。
人工智慧發展3階段
著名的AI學者Launchbury提供了一個完整的研究框架,即根據感知、學習、抽象和推理方面的能力差異,將AI概念區分為3個階段。
第1階段,人工智慧由法律或其他權威研究專家所凝聚的知識或標準進行編碼,可稱為計算機演算階段,亦可稱為專業系統發展階段,例如後勤安排及相關的稅收程序等。
第2階段的AI技術,植基於機器學習或統計學習,例如包括語言處理(如語音識別)和計算機視覺技術等。與第1階段相比,第2階段系統旨在感知和學習,具備了聲控、數學能力等,可幫助醫護人員選擇適當的治療方式,或進行快速診斷的應用;另外,還有自動駕駛車輛的發展等。
第3階段的AI技術結合了第1、2階段的優勢,並且還具有上下連貫的複雜性、抽象性和解釋性。第3階段AI的1個例子,是1艘船可以在無人操作的情況下,在海上航行數月,航行期間能感知其他船隻,並因應海上各種情況,確保在航道上執行相關任務。
如同Launchbury所描述的,我們正處於「第3波AI」的開始階段,第3波AI的關鍵,是能夠適應未來新情況的系統,且能夠向用戶解釋這些決策與結果背後的成因。
第3階段人工智慧的成功案例
人類科技不斷創新,在地球大氣科學領域模型的數量、複雜性和運算能力也不斷強化,但仍無法準確地回答人們心中一些疑問,例如必須建造多高的海牆,以防止海平面上升?熱浪在未來10年會有多嚴重?北極航線在2030年會是什麼樣貌?科學家塔皮奧施奈德組建了一個大氣模型團隊,該團隊正進行一項「地球機器」的計畫,結合運用AI科技,期望於未來能精準掌握、預測地球大氣的形成與發展。
愈來愈多的人工智慧應用證明可帶來許多優勢,但同時也面臨一些挑戰。根據美國會稽核處2018年3月技術評估資料指出,需要仔細考慮這些利益和挑戰,這些考慮因素包括了網路安全、自動駕駛、法律規範、資金交易等,這些是AI使用後必須考量的問題。該處還強調,人工智慧可能帶來的好處尚無法完整預測,甚至可能也難以想像。
人工智慧的產業優勢
美國會稽核處認為,AI的運用可以改善經濟,並提高生產力。
因此,改進或規範人類決策將是個重要的課題,AI可用於從多個位置蒐集大量數據和資訊,不僅如此,透過人類行為模式的蒐集,可以比人類更快速地檢測異常情況。
此外,人工智慧可用於製定資訊警示功能,有助於防止不恰當、或有害的人類偏見,無論是出於政治壓力,還是其他因素可能產生的不良後果;即使如此,人工智慧無法保證絕對不受偏見的影響。因此,該處也特別強調,如果AI使用的數據存在偏差,結果也會有偏差。
。另一方面,人工智慧可用於確保金融體系的監管,並確保合於法規,而且不會對受監管者造成不必要的負擔(如確保隱私)。
人工智慧的法規道德挑戰
主要的人工智慧挑戰,乃是蒐集和共享數據的障礙,雖然並非AI的所有應用程式都需要大量數據,但某些使用機器學習算法的應用程式則需要大量的數據;目前為止,在AI領域中,數據不易彙整或解釋是最大的問題。
。根據該處的說法,需要一個計算道德倫理系統來幫助AI選擇,藉以反映合乎商業價值道德的選項,因此,在人類有能力理解及適當信任,並能夠有效管理AI之前,AI應用程式或系統需要解釋為什麼它採取某些行動,以及為什麼它比其他變量因素更重視其他某些變量因素。
AI相關跨領域政策考慮因素
在提出了與AI相關的益處和挑戰後,美國會稽核處也提出了一些政策考慮因素和未來研究領域建議。
鼓勵數據資料共享
該處認為,在共享數據資料的同時,需建立一個「安全空間」來保護敏感訊息資料(例如知識產權和專業技術資料),而要想獲得成功的安全空間,需要從製造商開始,明確定義所需的數據資料,以及使用數據的具體方案,方能成功。
事件發生,且分享數據亦可有效了解與自動駕駛汽車相關的安全因素重要性,該中心也明確表示「我們相信這些車輛可以在路上行駛,但我們需要驗證的是,在行駛期間,它們和我們的認知一樣安全」。(待續)
===
提高數據資料安全性
該處強調,加強網路攻擊系統應用程式安全性的挑戰是重中之重,包括發展具有AI反制能力的系統。目前為止,所有形式的網路安全活動,並沒有得到適當的共享,這也是網路攻擊事件頻傳的主因,不可否認,安全漏洞比防止漏洞安全措施付出的代價要昂貴得多,因此,政策制定者需要考慮建立某種框架,確保成本和損失在機構與用戶之間,得到適當的共享與平衡。基於這個因素,美國部分的政策制定者也認為,應考慮建立新的監管機構,以確保包括自動駕駛汽車項目在內的安全。
人工智慧的廣泛運用將對監管機構產生很大的影響,立法者需要考慮解決這些問題,包含相關政策的制定;監管機構必須積極主動,包括承諾提供有效的相關資源,以因應迅速且無法預料的AI事件發生。例如自動化車輛的監管機構就必須要有完善的法規政策。因此,部分人士認為,聯邦政府應該避免過早、輕率的制定標準,以防範自動化車輛普及化之後帶來許多連動性的更大問題。截至目前為止,即使這些車輛改善了整體公共安全,自動駕駛車輛的製造商也應對事故負有全部責任;此外,許多人對隱私權部分提出了許多擔憂,包括執法機構可能運用AI來侵犯公民自由,這表示這是一個需要全領域、通盤檢討全面性的政策。
其他包括法律、法規可能也需同步進行調整,但可能會讓有些人認為「人類可能不同意自動化系統做出的決定」。例如意圖操縱法律,就如同金融市場操縱模式一樣,如果有人藉人工智慧編碼程式來賺錢,並且它以「技術性的設定」方式做,即使是明顯違反人類認知的行為,但目前尚不清楚現行法律將如何起訴人工智慧的創造者。
建立AI適合的風險和道德評估方式
政策制定者需能夠決定如何權衡人工智慧的道德風險與取捨,雖說現今已有一些基本標準,然仍不盡完善(即人類的道德表現如何)。該處表示,「美國必須將人工智慧能力與道德相容,讓AI成為一個善良的場域,同時讓邪惡敵人存在絕處,亦無逢生的可能」。因此,這些監管的問題應該透過各種利益相關者,包括經濟學者、法律學者、哲學家和其他參與政策制定的相關人員,而非僅僅是科學家和統計學家而已。
數據蒐集的重要性,以及如何獲得高品質數據是AI產業鏈中重要的關鍵,這包括在數據蒐集期間如何提高數據質量等,若能充分掌握這個因素,AI的產業發展將更加迅速。因此,只要數據能更全面化,並且有系統的組織起來,而且是高品質、高可靠性的,此將有利於各種機器自我學習,達到此目標時,相信AI也將發出更準確的效果,AI的普及化亦不遠矣。
了解AI對就業市場的影響
目前尚無法確認
人工智慧將會創造哪些工作?
哪些工作可能會增加?
或哪些工作可能會被人工智慧取代?
因此,該處表示,人工智慧的廣泛運用,也同時帶來了重新評估和重新思考
培訓和教育環境的必要性。
沒有留言:
張貼留言