當前位置:
首頁 > 科技 > 華盛頓大學開設「作惡課」,引導學生直面科技行業不道德行為

華盛頓大學開設「作惡課」,引導學生直面科技行業不道德行為

華盛頓大學開設「作惡課」,引導學生直面科技行業不道德行為

本文為動點科技/TechCrunch 中國獨家稿件。未經允許,禁止轉載。

無論是監控或欺騙用戶、以不當方式處理或出賣用戶數據,還是培養用戶不健康的習慣或想法,現在的科技行業都明顯不乏以上不道德行為。然而,僅僅感嘆一句「這太可怕了」遠遠不夠。幸運的是,華盛頓大學的一門課程為學生們提供一次哲學方向的思考,幫助他們更好地認識並修復科技行業道德缺失的問題。

華盛頓大學信息學院培養的是計算機和應用開發的人才。除了計算機相關的專業技能, 學院老師 阿萊克西斯·西尼克(Alexis Hiniker)努力推動了「作惡設計」課程,讓學生在學習計算機語言之外,探尋應用和服務的道德和倫理意義。例如,有什麼更好的方式去開發一款約會應用,既能提高包容度,也能促進健康的人際關係?人工智慧如何模仿人類,同時避免不必要的欺詐?中國式信用系統如何儘可能地實現用戶友好?

在華盛頓大學的校園裡,我和這堂課的學生進行了交流,並與西尼克老師聊了一下。她設計了這個課程,並對取得的結果感到高興。

她的設想是給學生們提供關於道德哲學的速成班,幫助他們了解有影響力的概念,例如功利主義和義務論。

華盛頓大學開設「作惡課」,引導學生直面科技行業不道德行為

阿萊克西斯·西尼克

西尼克告訴我:「在課程設計上我會儘可能地考慮所有學生。他們不是哲學專業,這是一門設計課程。但我很期待課程的結果。」

最主要的教材是哈佛大學哲學教授邁克爾·桑德爾(Michael Sandel)編寫的暢銷書《正義》。西尼克認為,這本書將多種哲學概念匯總成為易於閱讀、簡明扼要的形式。在消化書中內容後,學生們分組,挑選一款應用或技術,用書中描述的原則進行評估,隨後開出道德上的改善辦法。

事實證明,在科技行業發現道德問題並不難,而解決這些問題有些時候是不可能的。他們的見解很有趣,但我從很多人那裡得到了這樣一種感覺,即存在令人失望的事實:對於科技能提供的東西,或者提供東西的方式,從根本上來說就是不道德的。

我發現,這些學生可以分成三類。

1、非根本性不道德(可以調整)

WebMD毫無疑問是個非常有用的網站,但在這些學生看來,很明顯這個網站缺乏包容性:他們的癥狀檢查工具對非英語用戶以及可能不知道癥狀名稱的用戶不友好。團隊建議加入更可視化的癥狀報告工具,提供基本的人體圖,以及非書面的癥狀和疼痛指標。

作為一款與兒童聊天的玩偶,Hello Barbie處於雷區中,隨時有可能違反道德規範和法律規定。不過,這並不是這款玩偶出問題的原因。藉助父母控制系統和謹慎的工程開發,這款玩偶符合了隱私保護的基本要求。不過學生們表示,在與孩子健康交流以及讓父母知情等方面,這款玩偶仍然沒能通過一些測試。他們認為,互動腳本應該是公開的,語音應當在本地,而不是雲端進行分析。最後,玩偶應當設置一系列涉及不健康行為的警告詞或短語的觸發機制,比如孩子提到類似自殘的話時應立即通知父母,並且在這個基礎上確保孩子與玩偶其他對話的私密性。

華盛頓大學開設「作惡課」,引導學生直面科技行業不道德行為

微信「附近的人」功能可以讓微信用戶查看別的微信用戶朋友圈最近拍攝的照片。這個服務好的一點是,用戶有很高的隱私控制權(可以選擇使用或者退出,可以選擇不展示自己的照片),但不好的地方在於,用戶可以根據性別來篩選附近的人,從而有可能發展出一種有悖中國傳統的「約炮文化」。此外,微信還將許多用戶控制功能隱藏在多層菜單背後,可能導致用戶在非自願的情況下分享自己的位置。學生們還提出了對基本用戶界面的優化,以及關於如何避免陌生人搭訕的想法。

Netflix並不是惡魔,但該公司對視頻節目的大力推廣正在「打劫」用戶的時間。團隊認為,應當設置基本的用戶限制,例如每天只能播放兩集節目,或是在播放下集節目之前設置一定的延遲時間。這可以打破人們長時間看視頻的習慣,鼓勵人們重新控制自己的時間。

2、根本性的不道德(可以改善,而且值得改善)

FakeApp提供了一種在視頻中換臉的方式,從而製造出能以假亂真的贗品。從廣義上來講,這是根本性的欺騙,但實際上只有當你故意將假視頻當作真視頻時才會出問題。團隊認為,最終技術不會自主演化出緩解問題的措施,但通過可見或不可見的水印,以及對原始視頻進行有控制的編輯,可以解決這方面的問題。因此,唯一的答案就是讓用戶知情。

華盛頓大學開設「作惡課」,引導學生直面科技行業不道德行為

學生們認為, 中國式信用系統實際上並非絕對不道德的,這樣的判斷基於一定程度的文化偏見。我在這裡提到這個案例是因為,這樣的信用體系在部署過程中繞開或迴避了大量道德問題。不過,他們最務實的建議在於,應當讓系統更容易被追責,更透明。對行為報告提出質疑,看看哪類東西影響了你的得分,以及得分會如何隨時間變化。

團隊認為,Tinder不道德的本質是基於這樣一個事實:表面上 Tinder 是一款促進人際關係的應用,但實際上是赤裸裸的約炮平台。他們認為,強迫人們將自己物化,去追求這樣的關係是不健康的,會導致人們自我貶低。對策方面,他們建議,在用戶查看到某人時,先要回答問題或查看提示。在查看任何照片之前,你需要基於這些信息去完成滑動操作。這不是個壞主意,但也很容易被破解掉(就像其他在線約會服務一樣)。

3、根本性的不道德(沒救了)

The League是一款約會應用,這款應用已經完全無法符合道德指南。這不僅是個約炮市場,還支持讓用戶花錢成為「精英」,並根據種族和其他令人困擾的信息來過濾其他人。團隊建議移除收費服務和這些過濾器,但這實際上這樣做將完全摧毀這款產品。不幸的是,The League 是一款面向不道德人群的不道德產品。簡單的調整無法改變這點。

一支聰明的學生團隊承擔了對谷歌 Duplex的研究,但很明顯,他們是在谷歌 I/O 大會之後才開始項目。不幸的是,他們發現,人工智慧偽裝成人類,這是根本性的欺騙行為,在道德上是不允許的。當然,Duplex 可以主動標識自己,但這就破壞了所有的價值。他們還提出了一個我沒想到的問題:在偽裝成人類之前,這個人工智慧為什麼沒有去嘗試所有其他選項?它可以去訪問網站,發簡訊,使用其他應用。一般來說,人工智慧默認應當首先與網站和應用互動,隨後與其他人工智慧互動,再然後才是與人互動,這才是人工智慧的意義。

對我來說,這些調查中最有價值的部分就是學習一種習慣:關注一項業務或技術基本的道德合理性,並形成清晰表達的能力。

這或許就是,在某些會議上,做出模糊表態以及給出清晰解釋這種差別的原因所在。你將可以準確描述出具體的危害,這種危害性之所以重要的原因,以及如何避免這種危害。

至於西尼克,她也有優化這門課程的想法,如果這門課程明年還能再次獲批的話。例如,課程可以採用更廣泛的教材。她認為:「更多元化的作者可以帶來更多元化的聲音。」在理想情況下,這甚至可以拓展為跨多個學期的課程,讓學生可以了解更多道德規範。

參加這門課程的學生(以及未來參加的學生)將可以協助做出這些選擇,使類似 The League 和 Duplex 的情況變得更好,同時推動更多符合 COPPA(兒童在線隱私保護法案)的智能玩具和約會應用出現。

華盛頓大學開設「作惡課」,引導學生直面科技行業不道德行為最先出現在動點科技。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 動點科技 的精彩文章:

消息稱恆大集團已成為法樂第未來最大股東,賈躍亭退居第二
ChinaBang Awards 2018 年度人工智慧創新:AI 未來,從這裡走來

TAG:動點科技 |