fbpx

可怕的人工智慧

Contents

專案簡介

以下簡介翻譯自 github 專案介紹

Awful AI 是一個精選的列表,用於追踪當前人工智慧的可怕用法 – 希望提高認識

當前的人工智慧是不公平的,很容易受到攻擊。 然而,越來越多關於人工智能技術的使用正在野狂野地出現。 這個列表目的在追蹤所有這些應用。 希望 Awful AI 可以成為一個平臺,激發人們討論如何發展可能的競爭技術(反擊!) .

歧視

Hirevue-應用程式掃描你的臉部,告訴公司你是否值得聘僱[摘要]

AI-based Gaydar – 根據一項新的研究表明,人工智慧可以基於人的臉部照片準確地猜測人們是否是同性戀或是異性戀,這表明機器可以比人類有更好的“同志雷達 gaydar” [ 摘要 ]

Racist Chat Bots –  微軟的聊天機器人——被稱為 Tay 的微軟聊天機器人花了一天時間從 Twitter 上學習,並開始宣揚反猶太主義的訊息[摘要]

Racist Auto Tag – Google 影像辨識程式將幾個黑人的面孔標記為大猩猩 [ 摘要 ]

PredPol – 是一個專案為警察部門預測未來犯罪可能發生的熱點,可能會陷入過度監管多數黑人和棕色膚色社群的回饋迴路[摘要]

COMPAS – 是一種風險評估演算法,在法庭上被威斯康辛州用來預測累犯的風險。 它的製造商拒絕披露專有演算法,只知道最終風險評估得分。 該演算法對黑人有偏見(甚至比人類更糟)[摘要][紐約時報評論]

Infer Criminality From Your Face  – 從你的臉上推斷犯罪行為——一個根據你的面部特徵判斷你是否是罪犯的程式  [摘要]

iBorderCtrl – 測謊器測試進入歐洲聯盟的旅行者(試驗階段)。 考慮到每天有多少人跨越歐盟邊界,可能會出現大量的誤報。 此外,面部識別演算法容易產生種族偏見。 [摘要]

影響力、虛假資訊和偽造

Cambridge Analytica  – 劍橋分析使用 Facebook 的資料來改變觀眾的政治和商業行為[衛報文章]

Deep Fakes – 深度贗品是一種基於人工智慧的人體影象合成技術。 它被用來將現有的影象和視訊結合在一起,疊加到來源圖片或視訊中。 深度贗品可能被用來製作假名人色情視訊或者復仇色情片。 [人工智慧協助假的色情]

Fake News Bots – 假新聞機器人自動化賬戶被程式設計來傳播假新聞。 近年來,假新聞被用來操縱股票市場,使人們選擇危險的醫療選擇,操縱選舉,包括去年的美國總統選舉[摘要][機器人的角色]

Attention Engineering – 注意力工程,從 Facebook 的通知到 Snapstreaks 到 YouTube 的自動播放,他們都在爭奪一樣東西: 你的注意力。 公司利用人類心理學為自己謀利[ TED 演講]

社會信用系統

Social Credit System – 社會信用系統使用一種祕密的演算法,Sesame 的評分從350到950不等,其評分依據的因素包括”人際關係”和消費習慣的考慮因素 [ 摘要 ][Foreign Correspondent (video)][travel ban]

Vitality  – 生命健康保險公司提供基於從健康跟蹤器獲取資料的交易[摘要]

監視

Gait Analysis – 步態分析0在這個閉路電視的時代,你的步態是非常複雜的,非常獨特和艱難的,如果可能的話,你的步態只需要記錄一次,並與你的身份相關聯,以便即時跟蹤你。 在中國,這種監視已經展開。 此外,許多人因為在西部步履蹣跚而被定罪。 我們再也不能在公共場合保持謙遜的匿名。

SenseTime & Megvii基於深度學習演算法的人臉識別技術,SenseFace 和 Megvii 提供了智慧視訊分析的綜合解決方案,其功能包括目標監視、軌跡分析、人口管理[摘要]forbes[《經濟學人》(視訊)]

Uber God View Uber 的”上帝的視角”讓 Uber 的員工可以看到城市裡所有的 Uber 使用者,以及等待 Uber 使用者標記——包括名字(榮譽乘坐)

Palantir – 一家價值十億美元的新創企業,重點關注預測政策、情報和人工智慧軍事防禦系統[摘要]

比賽研究

研究創造一個不那麼可怕和更保護隱私的人工智慧

Differential Privacy  一個正式的隱私定義,允許我們對資料洩露做出理論上的保證。 人工智慧演算法可以被訓練成不同的隱私[原始論文]

Privacy-Preservation using Trusted Hardware使用可信的硬體-AI 演算法保護隱私,這種演算法可以在可信的硬體飛地內執行(或者建立在它之上的私有區塊鏈) ,並且可以在沒有任何利益關係人訪問私人資料的情況下進行訓練

Fair Machine Learning & Algorithm Bias AI中的一個子領域,用於研究不同的公平性標準和演算法偏差。最近的一篇最佳論文(ICLR18),例如 表明實施特定標準可能會對公平性產生延遲影響。

競爭性技術專案

這些開源專案試圖刺激討論,為可怕的人工智慧提供保護或是警覺

Data Selfie-資料自拍是一個瀏覽器擴充套件,它可以跟蹤你在 Facebook 上的情況,向你展示你自己的資料跟蹤,並根據這些資料揭示機器學習演算法可以預測你的個性[程式碼]

AdNauseam – AdNauseam 是一個輕量級的瀏覽器擴充套件,用來抵抗廣告網路的追蹤。 它的工作原理就像一個廣告攔截器(它是建立在 uBlock-Origin 之上) ,默默地模擬每一個被遮蔽的廣告的點選,混淆了追蹤者對於一個人真正的興趣[程式碼]

B.S Detector – B.S. 探測器是一個瀏覽器擴充套件,它搜尋給定網頁上的所有連結,以查詢不可靠的來源,檢查手工編譯的網域名列表。 然後,它提供視覺警告,說明是否存在可疑的連結或瀏覽可疑網站[程式碼]

Snopes.com – Snopes.com 網站是由 David Mikkelson 建立的,該專案始於1994年,現已發展成為網際網路上最古老、規模最大的事實核查網站,被記者、民俗學家和普通人視為世界上最重要的資源之一

Facebook Container– Facebook 容器將你的 Facebook 活動與其他的網路活動隔離開來,以防止 Facebook 通過第三方 cookies (程式碼)在 Facebook 網站之外追蹤你

專案網址

感想

看到這個列表讓小編想起了人類大命運和21世紀的21堂課這兩本書,人工智慧給人們的想像應該是改善生活提升生活品質,但是另一個可怕的事實是加劇不平等的階級,希望這樣的未來不會發生

也許你會有興趣

不受 FB 演算法影響,歡迎透過 e-mail 訂閱網站更新

發表迴響

這個網站採用 Akismet 服務減少垃圾留言。進一步了解 Akismet 如何處理網站訪客的留言資料

Powered by WordPress.com.

Up ↑

%d 位部落客按了讚: