人工智能(AI)系統(tǒng)是否會發(fā)展到人類決策變得過時的地步?我們應(yīng)該準備好保護自己免受殺手機器人的侵害嗎?“冬天”來了嗎?
雖然這些重要問題已經(jīng)存在了幾十年,但回答這些問題的努力并沒有達成共識,在散布恐懼和合理關(guān)注之間劃清界限已成為公眾的一項復雜任務(wù)。評論員分為兩個陣營:
第一個陣營認為圍繞人工智能的技術(shù)發(fā)展是一場具有積極影響的革命。它們強調(diào)了人工智能可以為各個領(lǐng)域的有效決策帶來的許多好處。人工智能工具有助于文件的翻譯、自動駕駛汽車的可靠性、疾病的診斷,以及許多其他應(yīng)用。這種觀點的支持者甚至超越了這些好處,將人工智能設(shè)想為靈丹妙藥,并描述了一幅夸張的充滿人工智能的未來美好圖景。例如,谷歌首席執(zhí)行官桑達爾•皮查伊(Sundar Pichai)將人工智能描述為“人類有史以來最重要的事情”和“比電或火更深刻的東西[1]”。
然而,第二陣營的評論員描繪了一幅不那么樂觀,有時甚至是可怕的人工智能未來圖景,并警告人工智能可能給現(xiàn)代社會帶來的負面影響。例如,他們共同擔心在一個由人工智能系統(tǒng)主導的世界中大規(guī)模失業(yè),這些系統(tǒng)超越了人類。他們還強調(diào)了人工智能系統(tǒng)可能在人類社會中產(chǎn)生的偏見和不平等,并警告人工智能工具通過創(chuàng)建虛假但逼真的圖像或視頻可能產(chǎn)生的操縱性宣傳的危險。在其他情況下,這些合理的擔憂演變成對人工智能工具相關(guān)風險的過度夸大預測,這些風險可能被居心叵測的恐怖分子濫用,或者出現(xiàn)智能但無情的殺手機器人,這將消滅文明。
在這篇文章中,目的不是在這場激烈的辯論中偏袒任何一方。相反,我專注于人類決策者的決策過程,以超越支持和反對人工智能的論點,并強調(diào)人類決策者和人工智能系統(tǒng)之間可能的協(xié)同伙伴關(guān)系。通過拒絕對人工智能未來的過度夸張的正面和負面預測,我想強調(diào)的是,人工智能和人類的決策過程雖然有其自身的優(yōu)勢和劣勢,但可以被視為決策過程中的補充,而不是替代品。
什么是人工智能?
數(shù)據(jù)擴散(例如大數(shù)據(jù))和算法進步(例如機器學習)的融合導致了人工智能的普及,并引起了公眾對該主題的極大興趣。雖然人工智能一詞是在1956年左右創(chuàng)造的,但它最近已成為一個流行語,與大數(shù)據(jù)和機器學習等術(shù)語一起,在許多專業(yè)和學術(shù)界被拋棄。從廣義上講,人工智能是指一組具有從數(shù)據(jù)中學習能力的非人類智能系統(tǒng)或算法的異構(gòu)。從媒體到醫(yī)療保健,從時尚到運輸,各種各樣的人工智能工具和技術(shù)正在以驚人的速度在每個行業(yè)中增長。Alexa和Siri等數(shù)字助理使用AI根據(jù)與用戶的面部特征或語音模式相關(guān)的數(shù)據(jù)分析來識別用戶,并根據(jù)用戶的位置和先前的偏好提出有用的建議。在一個更高級的例子中,基于機器學習的人工智能算法幫助Emotech開發(fā)了機器人助手OLLY,它有能力進化其個性并逐漸變得類似于其所有者。它學會檢測所有者的“面部表情,語音變化和語言模式”,然后發(fā)起對話或?qū)τ脩舻母惺茏龀龇磻?yīng)[2]。盡管人工智能系統(tǒng)之間存在技術(shù)差異,但它們中的大多數(shù)都具有相同的目的:促進將現(xiàn)有數(shù)據(jù)轉(zhuǎn)化為有用的見解、決策和結(jié)果。
人工決策
當涉及到?jīng)Q策過程時,人類傾向于依靠兩種方法來做出選擇:分析和/或直覺。這兩個主要的信息處理系統(tǒng)在性質(zhì)上是不同的,代表了思維和解決問題的不同方面。在下文中,我將詳細解釋這些方法中的每一種,并討論它們與AI分析的相關(guān)性。
分析決策和人工智能。分析決策需要在做出選擇之前進行系統(tǒng)和有意識的數(shù)據(jù)收集和分析過程。作為許多現(xiàn)代組織中行之有效的決策方法,分析決策需要一種有條不紊的方法收集和分析相關(guān)的內(nèi)部和外部信息,設(shè)計替代行動方案,并在做出選擇之前根據(jù)特定標準(例如,決策目標和目的)比較替代方案。分析方法最適合解決復雜問題,以及當有足夠的數(shù)據(jù)與現(xiàn)象或任務(wù)相關(guān)時。然而,當涉及到大量數(shù)據(jù)時,這種深思熟慮的數(shù)據(jù)收集和分析過程對于人類決策者來說變得艱巨,他們通常受到認知能力和注意力限制的限制。
基于人工智能的決策支持工具和系統(tǒng)可以通過提高收集和處理結(jié)構(gòu)化(例如,表格)和非結(jié)構(gòu)化(例如語音和視頻)數(shù)據(jù)的速度和準確性來為分析決策過程做出貢獻。例如,基于機器學習的人工智能算法可以根據(jù)當前和過去的業(yè)務(wù)相關(guān)數(shù)據(jù)促進對未來未知狀態(tài)和事件的預測。模式發(fā)現(xiàn)和趨勢分析是人工智能可以為分析決策提供價值的其他途徑之一。人工智能工具可以翻譯、驅(qū)動和識別人臉。它們可以幫助醫(yī)生診斷疾病或為戰(zhàn)略決策者提供決策的可能結(jié)果。簡而言之,這些系統(tǒng)可以從過去學習,以增強分析決策。同時,與人類決策者類似,人工智能工具容易出現(xiàn)基于數(shù)據(jù)現(xiàn)實的錯誤和偏見。
直觀的決策和人工智能。 直觀的決策需要基于對先前事件和經(jīng)驗的整體理解,輕松自動地做出決策。與分析方法相反,直覺決策是自發(fā)的,不遵循系統(tǒng)的方法。以前通過經(jīng)驗獲得的人類知識使直覺決策者能夠感知決策周圍的機會和威脅。基于這種感覺或隱含的理解,她繼續(xù)做出選擇,盡管沒有明確的推理。直觀的決策方法適用于以壓倒性的模糊性為特征的情況,或者當決策沒有先例時。在這種情況下,沒有關(guān)于過去類似情況的相關(guān)數(shù)據(jù);也沒有時間系統(tǒng)地收集適當?shù)臄?shù)據(jù)。
現(xiàn)有的基于機器學習的人工智能算法在直觀決策方面無法提供太多見解。事實上,根據(jù)設(shè)計,當前的人工智能算法只能系統(tǒng)地從數(shù)據(jù)饋送中學習,而沒有過去的相關(guān)數(shù)據(jù)(例如,在極其模糊和前所未有的情況下),即使是最復雜的人工智能工具也只不過是幾行無用的代碼。這些工具如果提供不相關(guān)的數(shù)據(jù),將最好地體現(xiàn)垃圾進出的概念。簡而言之,雖然人工智能工具可以極大地促進駕駛、翻譯和疾病診斷等分析任務(wù),但它們在獨特的情況下無法發(fā)揮創(chuàng)造力。“自動駕駛汽車可以行駛數(shù)百萬英里,但它最終會遇到一些它沒有經(jīng)驗的新事物[3]。另一個例子是,人工智能無法為前所未有的組織危機找到解決方案,經(jīng)驗豐富的首席執(zhí)行官可能會想出一個直觀的答案。總的來說,人工智能無法以整體、創(chuàng)造性或抽象的方式思考或理解。然而,與此同時,人工智能研究(例如機器學習算法)已經(jīng)成為一種煉金術(shù)。“煉金術(shù)士發(fā)現(xiàn)了冶金、玻璃制造和各種藥物......但未能治愈疾病或?qū)⒒窘饘俎D(zhuǎn)化為黃金“ [4]。同樣,人工智能工具試圖模仿人類的直覺,但一再失敗,但產(chǎn)生了強大的工具作為副產(chǎn)品:可以“擊敗人類圍棋選手,從圖片中識別物體,識別人類聲音”的工具。
務(wù)實的范式:人與人工智能的伙伴關(guān)系
考慮到人工智能系統(tǒng)在直觀決策方面的缺點,以及直覺對現(xiàn)實生活中決策的重要性,可以肯定的是,在不久的將來,人類仍將是人工智能算法背后的策劃者。在這種情況下,將人工智能系統(tǒng)視為補充和增強人類智能以促進更好、更快的決策的合作伙伴是合理的。這樣,我們設(shè)想的人工智能未來看起來就不像終結(jié)者式的場景,而更像是人類決策者和“決策支持工具”之間的協(xié)同合作[5]。基于這種人與人工智能關(guān)系的伙伴關(guān)系概念化,人類社會將受益于人工智能工具的擁抱,并使其更加準確、有效和可靠。為實現(xiàn)這一目標,資本投資和適當?shù)恼呖紤]可以進一步推動人工智能技術(shù)的發(fā)展,并使全球更多的受益者普遍受益于這些技術(shù)的好處。在這方面,為工人提供與人工智能系統(tǒng)建立認知伙伴關(guān)系所需的技能和能力可以減緩一些負面影響,例如工作流離失所。
結(jié)束語
先進的人工智能系統(tǒng)等新興技術(shù)帶來了一些好處和一些負面后果(例如,錯誤、低效率和副作用)??紤]到人工智能在處理直觀決策方面的缺點,人工智能機器不會完全取代人類決策者,至少在不久的將來是這樣。人類決策者需要利用人工智能的好處來促進決策和解決復雜問題。然而,更重要的是,他們需要繼續(xù)投資于他們最擅長的事情:批判性思維、直覺分析和創(chuàng)造性地解決問題。最后,雖然很難對人工智能的未來做出任何結(jié)論,但人類決策者似乎繼續(xù)壟斷這些能力,這將有助于他們保持上風,為“冬天來臨”做好準備。
也就是說,忽視人工智能能力的提高會對勞動力市場產(chǎn)生負面影響并導致收入不平等加劇這一事實是幼稚的。遵循前面概述的人工智能-人類伙伴關(guān)系范式,解決這個問題的直接行動項目是政策制定。為改善人工智能系統(tǒng)并確保弱勢工人群體獲得人工智能相關(guān)教育的適當政策制定,不僅會減緩大規(guī)模的技術(shù)失業(yè),還有助于防止由此產(chǎn)生的財富分配偏差可能產(chǎn)生的不平等。
本文轉(zhuǎn)載于:http://www.mba-cs.com/News/shanghaimba3203.html