「人工智能」非萬能 這些是AI做不到的
麥肯錫全球研究所(MGI)的研究發現,具有「不可預測」、「具備極專業知識或技能」、「需與利益關係人互動」等特性的工作電腦難以勝任。(ShutterStock)
更新: 2019-10-13 8:48 PM
【大紀元2019年10月10日訊】(大紀元記者陳霆編譯報導)今年4月,傳出亞馬遜公司使用人工智能(以下簡稱AI)系統追蹤員工效率,提醒動作變慢的員工,並自動開除未達目標者。同樣在4月,一位布朗大學(Brown University)的學生被誤認為是斯里蘭卡爆炸案的嫌犯,起因也是斯里蘭卡當局的臉部辨識AI出錯。
這些事件顯示,當人們越來越依賴AI進行決策,將AI系統引入司法、金融、雇用等重大議題時,可能會造成隱憂。「我最擔心的是,我們想用來解決問題的系統,最終可能會加劇這些問題。」紐約大學的AI Now研究所共同創辦人凱特.克勞福德(Kate Crawford)如是說。
AI為什麼會出錯?
過去,人們相信AI的一個理由是,AI不像人類受情緒、疲倦所影響,可直接分析事件進行準確判斷。但許多證據表明AI也會有「偏見」(AI bias),並不總是像我們想像的那麼客觀真實。一項調查顯示,部分美國法院採用的累犯風險評估軟體COMPAS,在評估非裔美國人時準確性較低,可能高估他們成為累犯的機率。執法單位的面部辨識系統在婦女、青少年和少數族裔上,錯誤率也比較高。這種情況,被稱作「AI偏誤」或「演算法偏誤」,怎麼形成的呢?
1. 偏誤來自於AI的學習過程
AI的準確度需要經過訓練,訓練時提供的資料如果不足,無法反映複雜的真實世界,就會造成AI有偏誤。Edge Case Research共同創辦人暨執行長華格納(Michael Wagner)指出,在訓練自動駕駛車AI時,儘管感測器已分析了數千或數百萬個人類影像,AI還是會忽略坐輪椅的使用者或穿著螢光背心的建築工人,因為這些例子在數據庫中是少數。
華格納認為,安全可靠的產品不僅需測試已知的偏誤,還應該仔細尋找新的以及意想不到的新偏誤,而這些偏誤可能不會被發現,直到產品被廣泛運用。
「機器學習與人類學習相當不同」,華格納說,「例如電腦可能會漏掉一個站在垂直物體(如電線桿)附近的人。你想過這個嗎?」
2. 面對偏見,AI沒有思考能力
AI程式也可能「學會」人類的偏見。訓練AI時,它們依靠從大量數據中找尋不可見的模式來分析信息。當這些資訊中隱藏了人類的偏見時,AI會複製這樣的偏見。但AI和真人不同,在面對偏見時,它們沒有思考能力。Google決策智能主管凱西.科茲科夫(Cassie Kozyrkov)表示,AI只是收集數據、呈現模式的工具,永遠不會自己思考,
3. 抽象價值無法被合適定義
出錯的另一個原因是,當人類試圖讓AI進行涉及公平、正義、信賴等抽象價值的決策時,因為無法將抽象意義用數學術語呈現出來,導致AI的判斷違背人們的期待。
例如,一家銀行希望預測貸款申請人的信譽度,「信譽」是一個模糊的概念。為了將其轉換為可以計算的內容,就會將「信譽」轉變為可量化的因素。如果貸款模型發現,老年人有較高的違約可能性,並根據年齡減少了放款金額,就可能造成非法歧視。
AI金融平台AppZen的聯合創始人維爾瑪(Kunal Verma)也表示,如果申請人居住在很多人拖欠貸款的地區,系統也可能將其判斷為不可靠。
涉及工作的爭議
許多研究都指出,在各行業中引入AI技術,可能造成許多人失業。牛津經濟研究院(Oxford Economics)在2019年6月的一份報告中預測,到2030年,機器人將取代全球8.5%的製造業工作職位(約2000萬個職缺)。不少行業的雇員因此感到擔憂,他們擔心自己的專業能力被電腦取代。
與此同時,也有許多人擔心,人們試圖將演算法無法處理的問題交給AI判斷。例如:亞馬遜公司曾借助AI將求職者予以排名,但後來發現該系統傾向錄用男性求職者,儘管工程師進行調整後仍無法解決,最終只得放棄該計劃。
麥肯錫全球研究所(MGI)的研究發現,具有「不可預測」、「具備極專業知識或技能」、「需與利益關係人互動」等特性的工作電腦難以勝任。如果我們勉強將這類任務交給電腦處理,可能就會出現各種錯誤。
像是司法、執法等工作,就涉及了需要衡量各方的公正性,或是在極短時間做出關乎生死的判斷,AI演算法是否能承擔這樣的責任?一些改過自新的人所做的努力,在演算法的計算中能否被看見?
或許,我們要記得,人工智慧並非萬能,只是一種工具,最終不能代替我們來思考。
資料來源:http://www.epochtimes.com/b5/19/10/10/n11580035.htm?fbclid=IwAR0GqmhBt6sdARwMBR_gjBUH77LtBoplKzc-nu_MU_sLxzikgAxZSbrIoY4
「凱因斯模型計算」的推薦目錄:
- 關於凱因斯模型計算 在 台灣物聯網實驗室 IOT Labs Facebook 的最佳解答
- 關於凱因斯模型計算 在 台灣物聯網實驗室 IOT Labs Facebook 的最佳貼文
- 關於凱因斯模型計算 在 Dung Kai-cheung 董啟章 Facebook 的最讚貼文
- 關於凱因斯模型計算 在 Re: [考試] 簡單凱因斯模型- 看板Economics 的評價
- 關於凱因斯模型計算 在 經濟學二-簡單的均衡所得決定過程- YouTube 的評價
- 關於凱因斯模型計算 在 國立臺東高中102 學年度第一學期第二次段考經濟學 的評價
- 關於凱因斯模型計算 在 Re: [請益] 政府支出乘數- economics | PTT職涯區 的評價
- 關於凱因斯模型計算 在 Re: [考試] 簡單凱因斯模型 - PTT Web 的評價
凱因斯模型計算 在 台灣物聯網實驗室 IOT Labs Facebook 的最佳貼文
「人工智能」非萬能 這些是AI做不到的
麥肯錫全球研究所(MGI)的研究發現,具有「不可預測」、「具備極專業知識或技能」、「需與利益關係人互動」等特性的工作電腦難以勝任。(ShutterStock)
更新: 2019-10-13 8:48 PM
【大紀元2019年10月10日訊】(大紀元記者陳霆編譯報導)今年4月,傳出亞馬遜公司使用人工智能(以下簡稱AI)系統追蹤員工效率,提醒動作變慢的員工,並自動開除未達目標者。同樣在4月,一位布朗大學(Brown University)的學生被誤認為是斯里蘭卡爆炸案的嫌犯,起因也是斯里蘭卡當局的臉部辨識AI出錯。
這些事件顯示,當人們越來越依賴AI進行決策,將AI系統引入司法、金融、雇用等重大議題時,可能會造成隱憂。「我最擔心的是,我們想用來解決問題的系統,最終可能會加劇這些問題。」紐約大學的AI Now研究所共同創辦人凱特.克勞福德(Kate Crawford)如是說。
AI為什麼會出錯?
過去,人們相信AI的一個理由是,AI不像人類受情緒、疲倦所影響,可直接分析事件進行準確判斷。但許多證據表明AI也會有「偏見」(AI bias),並不總是像我們想像的那麼客觀真實。一項調查顯示,部分美國法院採用的累犯風險評估軟體COMPAS,在評估非裔美國人時準確性較低,可能高估他們成為累犯的機率。執法單位的面部辨識系統在婦女、青少年和少數族裔上,錯誤率也比較高。這種情況,被稱作「AI偏誤」或「演算法偏誤」,怎麼形成的呢?
1. 偏誤來自於AI的學習過程
AI的準確度需要經過訓練,訓練時提供的資料如果不足,無法反映複雜的真實世界,就會造成AI有偏誤。Edge Case Research共同創辦人暨執行長華格納(Michael Wagner)指出,在訓練自動駕駛車AI時,儘管感測器已分析了數千或數百萬個人類影像,AI還是會忽略坐輪椅的使用者或穿著螢光背心的建築工人,因為這些例子在數據庫中是少數。
華格納認為,安全可靠的產品不僅需測試已知的偏誤,還應該仔細尋找新的以及意想不到的新偏誤,而這些偏誤可能不會被發現,直到產品被廣泛運用。
「機器學習與人類學習相當不同」,華格納說,「例如電腦可能會漏掉一個站在垂直物體(如電線桿)附近的人。你想過這個嗎?」
2. 面對偏見,AI沒有思考能力
AI程式也可能「學會」人類的偏見。訓練AI時,它們依靠從大量數據中找尋不可見的模式來分析信息。當這些資訊中隱藏了人類的偏見時,AI會複製這樣的偏見。但AI和真人不同,在面對偏見時,它們沒有思考能力。Google決策智能主管凱西.科茲科夫(Cassie Kozyrkov)表示,AI只是收集數據、呈現模式的工具,永遠不會自己思考,
3. 抽象價值無法被合適定義
出錯的另一個原因是,當人類試圖讓AI進行涉及公平、正義、信賴等抽象價值的決策時,因為無法將抽象意義用數學術語呈現出來,導致AI的判斷違背人們的期待。
例如,一家銀行希望預測貸款申請人的信譽度,「信譽」是一個模糊的概念。為了將其轉換為可以計算的內容,就會將「信譽」轉變為可量化的因素。如果貸款模型發現,老年人有較高的違約可能性,並根據年齡減少了放款金額,就可能造成非法歧視。
AI金融平台AppZen的聯合創始人維爾瑪(Kunal Verma)也表示,如果申請人居住在很多人拖欠貸款的地區,系統也可能將其判斷為不可靠。
涉及工作的爭議
許多研究都指出,在各行業中引入AI技術,可能造成許多人失業。牛津經濟研究院(Oxford Economics)在2019年6月的一份報告中預測,到2030年,機器人將取代全球8.5%的製造業工作職位(約2000萬個職缺)。不少行業的雇員因此感到擔憂,他們擔心自己的專業能力被電腦取代。
與此同時,也有許多人擔心,人們試圖將演算法無法處理的問題交給AI判斷。例如:亞馬遜公司曾借助AI將求職者予以排名,但後來發現該系統傾向錄用男性求職者,儘管工程師進行調整後仍無法解決,最終只得放棄該計劃。
麥肯錫全球研究所(MGI)的研究發現,具有「不可預測」、「具備極專業知識或技能」、「需與利益關係人互動」等特性的工作電腦難以勝任。如果我們勉強將這類任務交給電腦處理,可能就會出現各種錯誤。
像是司法、執法等工作,就涉及了需要衡量各方的公正性,或是在極短時間做出關乎生死的判斷,AI演算法是否能承擔這樣的責任?一些改過自新的人所做的努力,在演算法的計算中能否被看見?
或許,我們要記得,人工智慧並非萬能,只是一種工具,最終不能代替我們來思考。
資料來源:http://www.epochtimes.com/b5/19/10/10/n11580035.htm…
凱因斯模型計算 在 Dung Kai-cheung 董啟章 Facebook 的最讚貼文
明周專欄:後人類與後自我
上次談到凱薩琳.海爾斯(Katherine Hayles)的論著《後人類時代:虛擬身體的多重想像和建構》,當中追蹤了cybernetics這個學科在二十世紀下半的發展,並配合對同時期科幻小說的分析,探討「後人類」這個概念為甚麼會對人們帶來焦慮和恐懼,它又如何可以成為令人類脫胎換骨,重親自我創造的契機。
Cybernetics中譯為「控制論」、「自動控制論」或「模控學」,聽起來始終有點不明不白。其實cybernetics本身是個混雜的學科,橫跨許多個範疇,包括數學、統計學、機械學、生物學、神經科學、心理學、計算機學,甚至是人類學和社會學。控制論的創始人諾伯特.維納(Nobert Wiener)把它定義為「生物體或機器中溝通和控制的科學研究」。維納是數學家出身,二戰時曾替美國軍方研製反戰機自動攻擊系統,但戰後卻成為和平主義者,拒絕參與任何軍方計劃。控制論主要是在維納的鼓吹和推動下形成的學科,當中對「生命體」的理解涵義極廣,除了有機生物,還包括機器和社會等不同層階的自動系統。
上次我說控制論和人工智能的分別,在於前者重視實體而後者只關心數據和運算,其實並不十分準確。事實上,在稱為控制論第一波發展(1945-1960)的時期,研究者利用數學模型和機率函數計算自動系統應對環境和處理信息的能力。到了第二波發展(1960-1980),研究焦點才轉移到個體與環境的物質互動,認為實體(身體)和信息(意識)有著不可分割的關係。控制論究竟傾向實體化還是去實體化(embodiment and disembodiment),端看研究者的對生命本質的不同觀點。比如認為可以把人的意識和記憶化為數據,下載到電腦中的機器人學家漢斯.莫拉維克(Hans Moravec),便相信生命的本質就是沒有形體的信息。
控制論和人工智能的最大分別,可能是對客觀現實的看法。人工智能研究者假設客觀現實是存在的,而技術研發的目的,就是要創造出雖然功能更強大,但模式上是以人類為參照的程式和機器,無論是下棋、駕駛、聊天、投資,還是在戰場上殺敵。另外,把意識化為數據,把人從肉體的束縛解放出來,也必須先假定有一個客觀的、統一的、獨立存在的意識,也即是有一個界限清晰的自我。相反,控制論對現實的看法是建構性的。現實世界對任何一種生命體來說,就是它的系統設計所容許它認知的現象。對青蛙、小狗或海豚來說,牠們的「現實」和人類所認知的極可能是差異大於共通。我們沒有任何理由認為,人類所認知的才是最真實、最客觀的版本。它只是其中一個版本而已。
客觀現實不存在的另一面,是意識的非一致性。生命體對外界的反應以分層和分工的方式運作,絕大部分的情況都是自動的,無需經過思考和定奪。所以自我意識在生物演化中是個偶發或後起現象(epiphenomenon)。這和十八世紀在西方興起的人本主義(Humanism)和自由主義(Liberalism)所推崇的理性自主自我,是互相抵觸的。二十世紀末以來的文化批判理論,普遍認為自由人本主義與自由經濟理論同出一轍,並由此發展出現代時期的掠奪性資本主義,以及人類對地球資源的開發和控制的無限擴張。對《後人類時代》的作者海爾斯來說,控制論提出的分散式認知系統,是對自我本位的人本主義的批判。這就是她所理解的「後人類(本)主義」(Posthumanism)的積極意義所在。
從腦神經科學的最新發現可見,「自我」的確是個建構出來的幻象。在日裔美國科學家加來道雄(Michio Kaku)的科普著作The Future of the Mind中(中譯作莫名其妙的《2050科幻大成真》),舉出了許多證實「自我」並不存在的案例。比如說,為了防止一些癲癇症患者嚴重發作,會對他們的左右大腦半球的連結進行切斷手術。手術後患者表面上沒有甚麼行為異常,但研究者發現,如果分別給他們的左眼和右眼展示相同的問題,得到的卻是不同的答案。(左眼由右腦主管,而右眼由左腦主管。)這說明了左腦和右腦其實分別運作,各有不同甚至是相反的取向。在一般的情況下,由於左腦是主管語言的區域,所以右腦的取向會被左腦的表述能力所凌駕。
科學家指出,腦神經元連結的運作是多線同步並進的,許多單元既互相補足,也互相競爭,產生出認知和述說世界的模型,而最後我們之所以感到有一個單一的、穩定的自我,是因為內側前額葉皮質這個區域,發揮了統領的工作,把所有混沌和矛盾的信息,建構成一個合理的、一致的故事,製造出我們知道自己是誰的幻象。問題是,這個所謂統領,實際上的決策能力是有限的,它的工作只是對無意識的自動行為加以自圓其說而已。人類所自傲的理性和自由意志,不但不是我們的意識的主要內容,甚至只是扮演著邊緣的角色。
控制論的其中一名重要人物,研究自生系統和人工生命的法蘭西斯科.凡瑞拉(Francisco Varela),是一位佛教信徒。佛教所說的「無我」,正正就是生命系統中的諸種運作群龍無首的現象。可是,正如在《周易》乾卦中的「群龍無首」是吉兆,從生命的角度,沒有一個既定的、固有的自我,也不一定是壞事。控制論可以導引出不同於人本主義的價值觀,更新對生命及其自主性的理解。凡瑞拉如此定義說:「生物自主性的解釋,就是考量行動和創造世界意義的方式。」所以海爾斯樂觀地相信,後人類解構了唯我獨尊的自我,創造出新的更開放的後自我的可能性。
凱因斯模型計算 在 國立臺東高中102 學年度第一學期第二次段考經濟學 的推薦與評價
關於簡單凱因斯模型的基本假設,下列敘述何者錯誤?(A)充分就業是常態(B)只考慮家計及 ... (A)GDP 的計算僅包括有交易行為的最終產品與勞務價值(B)GDP 是指人們提供. ... <看更多>
凱因斯模型計算 在 Re: [考試] 簡單凱因斯模型- 看板Economics 的推薦與評價
※ 引述《liump6 (我也愛鹹豆漿)》之銘言:
: ※ 引述《pink7954 (布丁狗)》之銘言:
: : 來源: 補習班考試用書
: : 科目: 經濟學
: : 問題:
: : C=1,000+0.75Yd T=400+0.2Y I=600 G=400
: : 求平衡預算乘數 ?
: : 我的想法:
: : Y=C+I+G 均衡條件 dY=0.75(dY-dT)+dG (1)
: : G=T 預算平衡 dG=dT (2)
: : 再將 (2)式代入(1)式 得 dY=0.75(dY-dG)+dG
: : 最後得 平衡預算乘數 dY/dG=1
: : 不知道我這樣算有出錯嗎? 因為書上給的答案是 0.625
: : 他是先算政府支出乘數為2.5 再算定額稅乘數為-1.875
: : 再將兩者相加得平衡預算乘數為 0.625 和我算的1不一樣 囧
: : 請教各位經濟專家了 感謝大家
: 先假設 dTo=dGo=dB(平衡預算乘數)
: dY=dYG+dYT(dYG為正 dYT為負)
: =1/(1-0.75(1-0.2))xdB+(-0.75)/(1-0.75(1-0.2))xdB
: =0.625
: dYG dYT可由政府支出乘數及自發性支出乘數推得(移項可得)
: 是這樣嗎?? 請各位高手看看~
參考一下,賴景昌老師第三版的解答第12題的解釋,再想一個問題:
倘若平衡預算乘數,所指的是「自發性租稅與政府支出相等」,預算真會平衡嘛?
平衡預算就定義上是政府支出等於租稅收入,即G=T,似乎不是G=To,
如果只是自發性租稅相等,政府預算「絕對」不會平衡,
因此,計算平衡預算時,會將全微分式dY=dG代入商品市場均衡條件的微分式,
就以上論述上,我會認為解答寫錯了
如果只是自發性租稅與政府支出相等,那與「租稅乘數+政府支出乘數」意思一樣,
何必要另外以「自發性租稅與政府支出相等」來計算呢?
因此,我的算法會與原po一樣,先「全微分」商品市場均衡條件,
然後把平衡預算條件全微分:dT=dG代入上式,平衡預算乘數也應會是1
--
身非菩提樹,心非明鏡台,
何必勤拂拭,難免惹塵埃
-----暴君
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 61.60.217.44
不是神不神的問題,
而是某些補習班的解答可能不是老師寫的,是由研究生代寫的,
如果研究生觀念錯誤,老師又沒糾正,一切休矣
姑且不論人,只論事,何謂「平衡預算」?
只要清楚定義,就不用大費周章的牽強附會,
這樣解答不是呼之欲出嘛?
※ 編輯: stevegreat08 來自: 111.249.134.50 (11/01 00:31)
... <看更多>