美科學家:當人工智能遇上倫理道德
摘要:原標題:當人工智能遇上倫理道德 美國宇航局的機器宇航員2 號 圖片來源:Joseph Bibby 在近日發表于《自然》雜志上的一篇評論文章中,4位計算機領域的研究領軍者分享
美國宇航局的機器宇航員2 號 圖片來源:Joseph Bibby
在近日發表于《自然》雜志上的一篇評論文章中,4位計算機領域的研究領軍者分享了他們對該領域的思考。
目前,美國國防部高級研究計劃局(DARPA)正在推進兩個項目:“快速輕型機器人”(FLA)和“敵對環境下聯合作戰”(CODE),前者計劃設計出一款旋翼機,能夠在沒有外界操控的情況下以極高的速度在城市環境或建筑物內部敏捷地飛行;而后者的目標是開發無人飛行器,將能夠在完全與總部失去聯絡的情況下完成一整套攻擊程序——搜索目標、鎖定、跟蹤、攻擊、評估。它們將有可能促成“殺手機器人”的研發。
在近日發表于《自然》雜志上的一篇評論文章中,4位相關領域的研究領軍者分享了他們對智能機器社會風險的擔憂和解決方案。
美國加州大學伯克利分校的計算機科學教授Stuart Russell認為,這些武器所具備的敏捷性和致命性將讓人類陷入毫無招架之力的境地,“這不是我們所夢想的未來場景”。而來自英國布里斯托爾大學的機器人專家Sabine Hauert則表示,公眾無須對人工智能技術的發展感到擔憂。
應對人工智能武器表明立場
Stuart Russel(美國加州大學伯克利分校計算機科學教授)
人工智能(AI)和機器人領域的專家面臨一個重要的倫理決策:必須要決定他們是支持還是反對致命自主武器系統(LAWS)。此類系統能在幾年而非幾十年內發展為可行的。該領域的風險很高,致命自主武器系統被描述為戰爭的第三次革命,前兩次是火藥和核武器。
在幾年之內,軍方就可以組裝帶有武器的四軸飛行器和微型坦克,這些自動的飛行器和坦克不需要人類干預,自己能決定誰能活下來而誰又會死去。例如,四軸飛行器能在一座城市中找到并打擊敵方戰士,但不包括人類能設定目標的巡航導彈和遙遠的無人駕駛飛機。
但是,國際人道法律對于此類技術沒有任何具體的規定,現在也還不清楚國際社會是否會支持一個限制或禁止此類武器系統的條約。1949年簽訂的戰爭人道主義《日內瓦公約》要求任何襲擊需要滿足3個條件:軍事必需、參與戰爭者和非參戰者差別對待、軍事目標價值及其潛在附帶傷害的平衡。而當前的自動武器很難或根本無法作出這些主觀判斷。
作為一個人工智能專家,我曾被要求為特定常規武器公約(CCW)第三次重要會議提供專業證據。德國等許多國家迫切要求簽署禁令,但美、英和以色列這3個LAWS技術領先的國家則認為這樣一個條約沒有必要。
LAWS通過允許機器選擇殺死誰,而可能侵犯人類尊嚴的基本原則。在我看來,最應當關注的是這個技術發展軌跡的可能終點。我認為超過人類控制的系統將建成這一點是不可避免的。當然這些武器系統能涉及的范圍和攜帶大型武器的能力會受到物理定律的限制。然而它們的靈活性和殺傷力將讓人們毫無防御之力。這樣的未來不會是人們想要的。
因此,人工智能和機器人領域的科學家及其所在的專業組織應當表明立場,正如物理學家當年對于核武器,抑或是生物學家對于在戰爭中使用病原體表明立場一樣。應當召開學術會議進行討論,并讓倫理委員會參與進來。什么都不做就等于是表示支持繼續發展和使用。
積極討論,不要厭惡機器人
Sabine Hauert(英國布里斯托爾大學機器人學講師)
針對機器人和人工智能的惡意炒作讓一些研究人員十分憤怒,這使得他們停止與媒體或公眾溝通。
但我們無法脫離社會。公眾包括納稅人、政策制定者、投資者和那些利益相關者。他們在聽聞一邊倒的討論后,擔憂機器人會搶了他們的飯碗,害怕人工智能產生實在的威脅,并在考慮是否應制定法律控制這些仍在假設中的技術。
而我和同事會在晚宴時間向大家解釋,我們并非一群惡魔,我們花費多年時間潛心研發,目的是為了開發那些能夠幫助老人,改善健康,讓我們的工作環境更加安全和有效率,并讓我們能夠探索太空和海洋的設備。
專家需要成為信息傳遞者。研究人員應利用社會媒體這一公共平臺,誘導相關討論變得平衡。我們能夠探討最新進展和限制因素,解開人工智能技術的神秘面紗。
人工智能和機器人領域需要思想領袖,以便與霍金等杰出評論家和Elon Musk等風險投資家建立友好的關系,并在世界經濟論壇等會議上設置機構等。而且,公眾參與也將有助于籌集經費。
當然,也存在不少障礙:首先,許多研究人員沒有推特和博客賬戶;第二,時間十分有限;第三,可能需要數年時間才能建立一個社交媒體互動機制。在我看來,全世界的人工智能和機器人領域的利益相關者,應當聯合一部分資金,以幫助該領域增大發言權。
公平分配人工智能福利
Russ Altman(美國斯坦福大學生物工程、基因學、醫學和計算科學教授)
人工智能在加速生物和醫學領域的科學發現及改變醫療衛生方面有驚人潛力。人工智能系統有望幫助弄清若干新型數據:基因組學、蛋白質組學和新陳代謝組學等“組學”的測量值;電子病歷;健康信號的數字傳感器監控。
聚類分析能判斷新綜合征,分離那些曾被認為是相同的疾病以及統一那些根本缺陷相同的疾病。模式識別技術能將疾病與療法相匹配。例如,我和同事正在識別對調節免疫系統的藥物可能有響應的患者群體。
在協商中,內科醫生可能會使用來自“虛擬群體”的患者數據——他們就好像彼此坐在一起,評估診斷、選擇療法和統計結果。他們將可能在一個此類系統中進行醫療決策,或使用基于患者數據的模擬實驗預測結果。
但我有兩個擔憂。首先,人工智能技術將加劇目前的醫療衛生不平衡狀況,除非能發現一種方式,讓所有病人受益。例如,在美國,失業人員會經歷各種水平的護理。只有特殊群體或能支付得起的人,才能獲益于先進的診斷技術,這是不公平、不合理的。
第二,我擔憂臨床醫生理解和解釋高性能人工智能系統所得出的結果的能力。大多數衛生保健提供者不會接受一個來自決策支持系統的沒有明確描述如何和為何能出現效果的復雜治療建議。因此,研究人員需要讓醫生、護士、患者和其他人明白他們應該如何使用人工智能,并且如何公平地使用。
機器人是人類的補充物,而非替代品
Manuela Veloso(美國卡內基·梅隆大學計算機學教授)
我們正使用自己的感覺評估世界狀態,用我們的大腦思索,選擇達成目標的行動,并用自己的身體執行這些行動。我的科研團隊正試著建造能同樣做這些的機器人,它們將擁有人造感應器、算法和制動器。
但自動機器人和人類的能力之間存在極大差別。機器人通常存在知覺、認知和行動限制。它們通常無法充分理解一個場景,認識或操縱物體,理解所有的口頭或書面用語等。我認為,機器人是人類的補充物,而非替代品。但機器人需要知道何時尋求幫助以及如何表達其內部工作原理。
為了更多了解機器人和人類如何共同工作,在過去3年里,我們與4個自己研發的機器人分享了我們的實驗室和建筑。這些機器人看上去有點像機械講臺。它們擁有全方位車輪,以便平穩越過障礙物;照相機和激光雷達系統,以提供深度視力;用于內部處理的計算機;用于交流的屏幕,和攜帶東西的籃子。
之前,我們就已經意識到現實世界對機器人的挑戰。于是,我們引入了“共生自主性”的概念,以便機器人向人類和互聯網尋求幫助。現在,我們實驗室里的機器人和人類能彼此幫助,共同克服各自的局限性。
不過,人類與機器人能安全、有效共存,還須克服一些障礙。我們正在研究人和機器人如何更簡單地通過語言和動作進行溝通。我們還在探索如何改善機器人外觀,提高其與外界的互動,尤其是指示燈如何向人類揭示機器人的內在狀態。
盡管我們還有很長的路要走,但我相信,如果人類和機器人能彼此幫助、相互補充,未來將是樂觀的。
責任編輯:fl
(原標題:中國科學報 )
查看心情排行你看到此篇文章的感受是:
版權聲明:
1.凡本網注明“來源:駐馬店網”的所有作品,均為本網合法擁有版權或有權使用的作品,未經本網書面授權不得轉載、摘編或利用其他方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:駐馬店網”。任何組織、平臺和個人,不得侵犯本網應有權益,否則,一經發現,本網將授權常年法律顧問予以追究侵權者的法律責任。
駐馬店日報報業集團法律顧問單位:上海市匯業(武漢)律師事務所
首席法律顧問:馮程斌律師
2.凡本網注明“來源:XXX(非駐馬店網)”的作品,均轉載自其他媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責。如其他個人、媒體、網站、團體從本網下載使用,必須保留本網站注明的“稿件來源”,并自負相關法律責任,否則本網將追究其相關法律責任。
3.如果您發現本網站上有侵犯您的知識產權的作品,請與我們取得聯系,我們會及時修改或刪除。