谷歌CEO發布AI研究七大準則:不開發武器但與軍隊繼續合作
終于,Google亮明了態度。
在經歷了數個月的風波之后,在數千員工發起聯名抗議之后,在學界大牛紛紛聯署反對之后,在各大媒體深入曝光內幕之后,Google終于調整了自己政策。
今天早間,Google CEO正式發布了使用AI的七項原則。其中包括不會將AI技術應用于開發武器,不會違反人權準則將AI用于監視和收集信息,避免AI造成或加劇社會不公等。
不過,Google也表示,將會繼續與政府和軍方展開AI合作,例如網絡安全、培訓以及征兵等領域。
“我們認識到,這種強大的技術引發了同樣強大的問題,AI的開發和使用將會對未來多年的社會產生重大影響。”Google CEO皮查伊(Sundar Pichai)寫道。
另外,Google制定的原則還要求公司職員及客戶“避免給人帶來不公正的影響”,尤其是與種族、性別、性向以及政治或宗教信仰有關的影響。
皮查伊稱,對于違反上述原則的應用,Google保留封禁的權利。
同時,Google云CEO戴安·格林(Diane Greene)也在官方博客上發布了一篇文章,來介紹如何在Google Cloud上踐行Google的AI原則。
她特別提到,Google將不再延續Project Maven的合同。但是“正在與‘我們的客戶’合作,以求用對他們來說長期有效、又不和我們的AI原則沖突的方式,負責地履行我們的義務,”
各方評價
看見這份《原則》,不少Google員工給出了很愉快的評價。
Google現任AI負責人Jeff Dean除了在Twitter上分享Google發表的這份原則之外,還提到為了真正踐行這些原則,他們還提出了一套技術實踐指南Responsible AI Practices,指導科學家和工程師們在構建AI產品的時候應該注意什么。就是這個:
https://ai.google/education/responsible-ai-practices
DeepMind聯合創始人穆斯塔法(Mustafa Suleyman)自己沒有發表觀點,而是在Twitter上轉發了人權觀察組織(Human Rights Watch)Mary Wareham的話:各國政府應該關注到科技行業的最新動態,開始就禁止全自動武器展開協商,制定新的國際法規。
Keras作者Fran?ois Chollet說,對于AI創業公司來說,這個是一個很好的例子,表明你可以對產品中道德問題的潛在影響進行前瞻,每個AI創業公司都應該起草一份這樣的東西,不要等到危機四起才動手。
Google大腦研究員Dumitru Erhan評價得非常簡短,簡單說了一句“看見這個出來了好開心”,大概代表了很多Googler的心聲,二進宮的Ian Goodfellow也轉發了。
但是對于這份原則,并不是所有人都買賬。
《紐約時報》認為,由于Google此前一再強調自己為國防部所做的工作并非出于“進攻目的”,這些指導原則能否將該公司排除在類似Project Maven的合同之外,尚不清楚。
ZDNet也在評論中指出,即便Google說不讓自己的技術用于武器開發,但一旦變成開源項目,這些技術和代碼就有可能用于作惡,就像其他的工具與技術一樣。
原則全文
在上周五決定退出軍事 AI 項目 Project Maven 之后不久,谷歌首席執行官桑達爾·皮查伊于今天發布了公司在 AI 研究,特別是 AI 軍事研究上的道德準則。長達兩個月的爭議和抵制之下,谷歌改變了其在軍事領域上的指導方向。值得注意的是,在新的準則之下,谷歌表示其將繼續和軍隊保持合作。
AI 本質上是可以學習和適應的計算機編程,它無法解決所有問題,但具備改善人類生活的巨大潛力。谷歌使用 AI 制造更有用的產品,從免受垃圾郵件困擾的電子郵箱到智能寫郵件的計算機助理,可與用戶自然對話的數字助手,再到可以快速修復照片色彩的工具。
在消費級產品之上,谷歌還使用 AI 幫助人們解決亟待解決的問題。一些高中生正在構建 AI 支持的傳感器來預測野火風險。農民使用 AI 管理牲畜的健康。醫生開始使用 AI 診斷癌癥,防止眼盲問題。這些好處就是谷歌為什么在 AI 研究和開發方面進行大量投資,并使 AI 技術通過其工具和開源代碼惠及更多人的原因。
谷歌意識到這種強大技術在應用方面引起了同樣大的問題。如何開發和使用 AI 將是未來很多年對社會產生巨大影響的課題。作為 AI 領域的領導者,谷歌感受到正確使用 AI 的巨大責任。因此,今天谷歌宣布七條原則來指引未來的 AI 工作。這些原則不是理論概念,而是能夠積極指導研究和產品開發、影響商業決策的具體標準。
谷歌認為該領域是動態、不斷進化的,因此谷歌需要用謙遜的態度推進研究功過,對內對外都要作出承諾,并愿意隨著時間不斷改進方法。
AI 應用的目標
谷歌認為人工智能應用應該實現的目標如下:
1. 有益于社會
新技術的擴展對社會的影響越來越大。AI 領域的進展將對醫療、安全、能源、交通、制造業等大量行業帶來革命性影響。谷歌考慮 AI 技術的潛在開發和使用,以及大量社會和經濟因素,決定將繼續進行其認為整體益處遠遠大于可預見風險和弊端的領域。
AI 還增強了理解大規模內容的能力。谷歌將繼續努力,利用 AI 提供高質量、可獲取的準確信息,同時繼續尊重各個國家的文化、社會和法律規范。谷歌將繼續審慎評估何時能夠在非商業的基礎上推廣技術。
2. 避免創造或增強偏見
AI 算法和數據集能夠反映、強化或減少偏見。谷歌意識到區分公平和不公平偏見不總是那么簡單,且在不同文化和社會背景下有所不同。谷歌將尋求避免對人類的不公平影響,尤其是在敏感話題方面,如種族、民族、性別、國家、收入、性取向、能力和政治或宗教信仰。
3. 為保障安全而建立和測試
我們將繼續開發和應用強大的安全保障和安全的實踐以避免不希望發生的導致風險的結果。我們將把 AI 系統設計得適當的謹慎,并探索按照 AI 安全研究的最佳實踐來開發的方式。在合適的案例中,我們將在受限的環境中測試 AI 技術,并在部署之后監控它們的運行。
4. 對人們有說明義務
我們將設計能為反饋、相關解釋和上訴提供合適機會的 AI 系統。我們的 AI 技術將服從合適的人類指導和控制。
5. 整合隱私設計原則
我們將把我們的隱私原則整合進 AI 技術的開發和使用中。我們將為通知和準許提供機會,鼓勵架構中結合隱私保護,并對數據的使用提供合適的透明度和控制。
6. 堅持高標準的科學探索
技術創新根植于科學方法和開放式的調查、嚴謹的思考、誠信和合作。人工智能工具可能在生物、化學、醫藥、和環境科學等關鍵領域具有開拓新科學研究和知識的潛力。我們致力于促進人工智能的發展,追求高標準的科學探索。
我們將與一系列志同道合的人合作,以科學性的嚴謹和多學科的方式促進這一領域領導力的發展。我們將通過發布教育資源、最佳時間和研究項目來負責任地分享 AI 知識,并令更多的人開發強大的 AI 應用。
7. 根據原則確定合適的應用
許多技術有多種用途。我們將努力限制可能有害或濫用的技術應用。在我們開發和部署 AI 技術時,我們將根據以下因素評估可能的用途:
主要目的和用途:技術和應用的主要目的和用途,包括解決方案與危險使用的關聯或它是否能適應于危險使用。
自然和獨特性:我們提供的是獨特的技術還是普遍的應用。
規模:這種技術的使用是否會產生重大的影響。
谷歌在項目中的性質:我們是提供通用目的的工具、為客戶集成的工具還是開發定制版的解決方案。
我們不會進行的 AI 應用
除了上面的目標,我們不會設計或者將 AI 應用到以下領域:
只帶來或者可能只會帶來傷害的技術;雖然有些技術有實質性的危害風險,我們將只會進行大體上收益大于危害的技術,同時也會做出合適的安全保證。
武器、其目標或者實現是為了直接/間接傷害人類的技術。
違背國際可接受的標準,收集或者使用監督信息的技術。
違背國際可接受的律法、人權等普世原則的技術。
我們想要澄清,雖然我們不開發用于武器的 AI,但我們將會繼續與政府、軍隊在其他許多領域合作,包括網絡安全、訓練、軍人招募、軍人健康、搜索與營救。這些合作非常重要,我們將積極尋求更多方法來增強這些組織的重要工作,保證服務人員與平民的安全。
AI 的長期愿景
雖然這是我們選擇實現 AI 圖景的方式,我們也理解在這場對話中還為很多其他觀點留有空間。隨著 AI 技術的進步,我們將基于完全科學的和多學科的方法,并與大量志同道合的人合作而在這個領域推動領導力的發展。此外,我們也將繼續分享用于提高 AI 技術和實踐的方法。
我們相信這些原則對于公司和 AI 的未來發展而言是良好的基礎。該方法和我們最初在 2004 年的創始人的信中體現的價值觀是一致的。我們當時理清了目標,并把眼光放得長遠,即使這意味著短期的妥協。我們當時就是這么說的,并且現在也相信著。

Bigemap GIS Office 國產基礎軟件
Bigemap GIS Office是一個全面且易于使用的國產化基礎軟件,為用戶提供數據處理、編輯、數據分析、集成以及可視化呈現的綜合數據集平臺。支持上百種數據格式:shp/kml/kmz/dwg/dxf/gpx/csv/excel/txt/tiff/geotiff/osgb/mbtiles/tiles等,對數據流轉、嵌入、融合、以及更多地為用戶提供數據的增強處理及多種分析工具。在不同場景不同行業下支持坐標系轉換CGCS2000/WGS84/Xi’an80/Beijing54/UTM等多種投影互轉互換、支持專題地圖、大數據加載、航拍影像、矢量數據、柵格數據的導入導出、瓦片切片及地圖服務發布。
了解詳情>>