著名歷史學者哈拉瑞Yuval Noah Harari一直以來對於AI技術的發展抱持戒慎恐懼的態度,相關見解不時出現於各大主流媒體。
他近期在經濟學人發表一篇名為《Yuval Noah Harari argues that AI has hacked the operating system of human civilisation》的文章[1],重點是在AI監管我們之前先監管它(regulate ai before it regulates us),不愧是大師很中肯的建議。
常掛在嘴邊的說詞:刀子可以救人也可以殺人,用刀子殺人會受到法律的制裁,因為有regulation。
換個名詞: AI可以救人也可以殺人,但AI殺人目前無法可管。
AI會殺人嗎?肯定會!
他建議的第一條regulation是要求AI自我披露,換言之AI生成的內容必須標註是AI產生的,例如基改食物標註般。
這篇文章結尾,特別標註本文是人類所寫的。
無獨有偶,數位時代電子報兩篇有關聯的文章。
集深度學習之父、AI教父、圖靈獎得主於一身的Geoffrey Hinton,接受媒體訪問談到對於畢生的工作,感到十分後悔。當紅炸子雞的AI應用就是基於他的研究,他認為當前的發展與未來可能的走向,有可能會危及人類。這是啥米情形!
這讓我想到主導原子彈開發的歐本海默,在日本廣島和長崎受到原子彈襲擊,造成數十萬人傷亡後,反覆表達懊悔。
Geoffrey Hinton也說了一個重點:即使沒有我,也會有別人。這句話似曾相識,曾聽過全世界第一個Cyborg的英國瑞丁大學Kevin Warwick教授,談過類似的說詞。
這是肯定的,一個創新性的概念,肯定不會眾人皆醉我獨醒,而是有一些散佈在世界各角落的團隊,同時對某一主題產生興趣,且投入心力研究。
電影情節偶而會出現某種橋段,某些突破性技術的發明者,最後將之摧毀,只因其認為該創新有機會危及人類生存。
想想也是,現代科技文明啟蒙於十五世紀的文藝復興運動,但這之前的數十萬年期間,沒有所謂的現代文明,人類不是一樣活的好好的。
有了現代科技,不一定可以讓人類存活更久,肯定有機會提早終結人類。
別的不說,只要少量現有的核武器就足以成真。
另一篇是IBM執行長談到,未來幾年公司將停聘事務性後台人員與若干非面對客戶的職位,將由人工智慧與自動化取代,估計將有大約7800個職位。
凡夫俗子該如何因應?
對任何數位內容抱持存疑,特別是可能有害的內容。即便聽了100遍曾參殺人,沒有聽到曾參親口證實都不要相信。
或許是另一個可能的方法吧!
之前已經發表過類似看法,在此不予贅述。
只不過各領域學者不約而同提出類似的憂慮時,有決策與影響力的人確實應該慎重看待AI的未來走向。
- https://www.economist.com/by-invitation/2023/04/28/yuval-noah-harari-argues-that-ai-has-hacked-the-operating-system-of-human-civilisation
沒有留言:
張貼留言