閱讀雜寫-1(人工智慧關於)

陳俞靜
Feb 24, 2024

--

2024年2月中旬,碩一下學期的開始。
在圖書館借了三本書,為了理解人工智慧的大概樣貌。
其中兩本為“日本情感研究權威的人工智慧秒懂攻略”以及“”,第三本是“演算法的一百道陰影”,第三本的內容較偏向社會科學的角度。

『演算法的一百道陰影』”Outnumbered”,作者為『桑普特』“David Sumpter”。演算法除了是社群媒體人們的關鍵字,也是資訊工程的基礎理論學科。其中描述如何將邏輯數學理論的演算法,推應到不斷變動社會群體中的例子。我只認真閱讀了前六分之一的部分,後面部分則為翻閱略覽。

第一部分,一位名為班克斯的神秘街頭塗鴉藝術家,藉由藝術對大眾表達對社會的不滿與反動,入夜後的行動,但在天亮前就無影無蹤。2016年科學家們將班克斯的活動、場域等數據蒐集起來,在地圖上找出可能的據點。作者對於這樣用數據分析摧毀藝術的神秘感到憤慨。但在後續卻也提出,其實在科學家蒐集這些數據以前,狗仔與小道消息早在網路平台上推測出班克斯是誰了,而數據科學家只是將這些分析給統整出來罷了,並無提供出任何新資訊。這篇論文提出的角度小至一個藝術行動,但卻也可以推及為政府如何蒐集、使用資訊,以偵測及預防恐怖活動相關的小事件。
接續著,作者提及人工智慧如何挖掘人類的社會行為,”Facebook是世界上對我們認識最深的網站”,作者將朋友在臉書上的貼文活動,寫下模型去分型。能將每個人作為一個點,放在一個二維的分析圖上,X軸為公眾對個人、Y軸為職場對文化,作者說到該分析對應到他朋友的身份跟模式極為精準。光這32個人的幾則貼文,便能洞悉人們的生活樣貌。

第三部份的第一章節 — — 『學會性別歧視』,https://implicit.harvard.edu/implicit/selectatest.html,上述為一個測試關於你對性別或種族等的偏好跟印象,人們普遍具有偏好或說偏見,或許藉由絕對理智的演算法或人工智慧,能解決這樣的不等。但諷刺的是,人工智慧藉由蒐集大數據來學習,而這些大量的數據正恰顯示出社會上性別的差異,2014年學者用數億個維基百科的詞彙做了GloVe,分析出現詞彙的維度與關係等。如美國之於川普為?之於梅克爾,GloVe回答德國,但電腦科學家之於大衛(男性名)為?之於蘇珊(女性名),GloVe回答家庭主婦,等大量相似的例子顯示出演算法的刻板印象。但作者提出,演算法並不代表性別刻板印象,而是顯示出並幫助我們了解內隱的性別刻板印象,在拆解演算法的過程中去理解並著手解決不公平。

這兩個段落,讓我感到有趣且驚喜,尤其在第二段落,作者並沒有在演算法=刻板印象結尾,而是提出了,藉由不同的向量維度改變去修正演算法,能帶來更好、均等的結果,演算法正是一大助手。

作為服裝設計背景的學生,對於初入科學領域的陽剛之氣感到訝異及不適應,以及人文角度去看待演算法、人工智慧,與資訊工程的角度去看待更是大相徑庭,但在這半年資工環境的洗禮下,理性的了解演算法、AI的建築與構成。似乎許多原有的想法是對於未知事物的害怕、不了解。當然理論能帶來許多展望,相對應在現實社會中,面對擁有大量資訊的集體所握有的權力,AI的發展也帶來許多問題以及不安。但這本書我沒辦法再繼續閱讀下去,對於科技對社會帶來的大量影響,會纏繞在我的思緒底下,但在學時期,我得兢兢業業的謹慎運用我的大腦計算資源,才能勉強跟上身邊同儕,因此我決定終止這本書的閱讀,轉而到了解AI的大補帖上。

--

--

陳俞靜

把服裝系學生的碎念打成文字記錄下來