【觀點】當人工智慧已經能用照片辨識同性戀,我們應該擔心什麼?

關於AI

大數據、機器學習、人工智慧都是我們平時常聽到的科技名詞,但我們在不瞭解一個科技的內涵與原理之前,不大容易對一個科技作出理想的判斷,包含它能做什麼,或是它不能做什麼。
簡單來說機器學習它是AI的一個分支,不同於我們平常編寫程式,我們平時編寫的程式通稱為Hard code,是由人所指定跟編寫出來的。而機器學習則藉由輸入、輸出、正確度、擬合等方式去訓練模型,藉由不斷的訓練提高準確率,而訓練AI,需要的是大量的資料量、運算資源(例如Google開放租借的TPU)、演算法等等。

我們知道的,比我們表達的多

這牽涉到所謂的博蘭尼悖論,人類所知道的東西,比我們所能表達出來的還多。也就是所謂顯性知識跟隱性知識的區別,我們即使能告訴機器我們能表達出來的知識,還有許多協助我們判斷的知識是我們無法明顯知覺或表達的。
記得有一個案例是曾經有公司希望能夠把一位麵包師傅的作麵包技術自動化,然而用機器做出來的麵包卻始終比不上師傅所做的。最終直接觀察師傅製作麵包的手法,發現師傅會不自覺的在製作過程中將手指插入麵團內,意外的製作出了好吃的麵包。
這也是人工智慧需要用訓練的方式去不斷提高準確率的原因,無法靠人類直接指示程式應該如何運行。
AlphaGo的新版AlphaZero,在訓練它的過程中,甚至發現不讓程式先看過人類古往今來累積下來使用過的棋譜,會達到更高的棋藝水準。
人工智慧也能比醫生更好的判斷X光圖,誤診機率較低,不過目前仍停留在輔助的角色。
人工智慧看似已經可以在某些層面上,比起人類達到更高的表現。
我想探討的是在這個時代下,人工智慧發展到了什麼程度,我們應該怎麼樣去因應跟保護自己。

我們在網路上留下的資訊能被拿來做什麼?我們又該擔心什麼?
這篇文章會先說人臉辨識的部分,也就是比較偏安全面的部份。

誰是同性戀?

2017年,史丹佛大學發表了相關研究,可以使用一個人的照片猜測他是否為同性戀,準確率高達男性81%跟女性74%,如果進一步使用不同的五張照片作比對,準確率提升到91%跟83%。
同時我們在Facebook或Instagram上上傳的個人照片與生物資料,甚至是我們早期協助在照片上面標註我們認識的人,都是協助訓練AI的一部分。
我們感到好奇的是,除了同性戀之外,AI還可以預測我們的什麼傾向。
同年,騰訊馬化騰表示騰訊已經可以用AI預測人的老化,進一步預測人的未來長相。
同時同性戀的研究發表後也有人開始擔心,這樣的研究成果會鼓勵機關進一步研究一個人的政治傾向甚至犯罪傾向,甚至到鼓勵歧視跟種族攻擊。
問題在於:這個社會需不需要這種技術?誰又應該持有這種技術?
面對科技進步,我們還缺乏一個明確的解方,包含如何去約束這些科技的使用。

我們能做什麼?

這是一個技術進步高過道德進步的時代,面對科技的其中一種方法,就是教育。藉由人們對科技更多的理解,而非片面的認識,我們有機會藉由更多大眾的參與去約束技術的持有者跟經濟與政治菁英。同時也要謹慎處理我們的網路行為,包含在社群軟體上的過度曝光,也都可能將我們置於風險之下。

當一個科技對我們無論是幫助或是威脅都很大的時候,我們不應該恐懼它,而是應該更進一步了解跟貼近它。我們對它越了解,我們就離被它威脅越遠。
了解科技、討論科技、使用科技,是我們這一代的共同課題。

沒有留言:

張貼留言

【0816】反正我很閒,念念書的概念 【中國人的性格】

反正我很閒,所以念念書的概念 這本書有點年紀了 簡言之是探討中國人的性格的專書,是當年中研院所出版,前前後後還出了幾個版本,雖然有點年紀,有些資訊可能會隨著時間過去被更改,不過不失這本書的啟發性。乍看之下這本書很接近心理學,但實際上更接近所謂的文化學。 書本形式是類似論文集,不同...