訂閱
糾錯
加入自媒體

公民AI 創(chuàng)造更易懂、負責任的人工智能

2018-05-31 14:15
來源: 億歐網

人工智能正加速在金融、汽車、醫(yī)療、教育等行業(yè)的應用,特別是在智能客服等方面,已經替代了以前人工客服的一些工作。人工智能確實提升了工作效率,但也引起了一些恐慌。特別是 AlphaGo打敗人類圍棋大師徹底激發(fā)了大眾對人工智能的爭論,人工智能是會替代人類,還是使人更強大?

除此之外,牽扯到的一些倫理問題也亟待解決。如果一部人工智能操控的存貨機器人撞傷了倉庫工人,如果人工智能醫(yī)生出現(xiàn)了誤診,誰將對此負責?目前,谷歌等許多知名公司已經成立了倫理委員會,監(jiān)控人工智能技術的研發(fā)和部署。

埃森哲近日提出“公民AI”概念,企業(yè)不應只是訓練人工智能執(zhí)行特定任務,而必須提高人工智能系統(tǒng)的責任意識,將其“培養(yǎng)”成為負責任的企業(yè)員工,為社會進步作出重要貢獻。

以下是億歐智庫為您帶來的精選分享:

人工智能能力快速增長,在社會中的應用面也日漸寬泛。從美國第一個人工智能律師ROSS到中國地震臺網用機器寫出的第一篇新聞稿,人工智能已經從一個單純的技術工具發(fā)展成為人類的合作伙伴。在這樣的背景下,企業(yè)應如何看待人工智能技術,怎樣更好地為我所用?

人工智能:從程序化運營到自我學習

試想一下,一套機器學習系統(tǒng)希望在圖片中找到一只狗,并分辨出品種。為此,大量帶有“標記”的圖片不可或缺:一組圖片教會系統(tǒng)識別狗的位置,其他圖片集則用于區(qū)分不同犬種。在監(jiān)督學習模式下,圖像通過手動標記,不僅告知系統(tǒng)動物位置,同時也說明其種類。

隨著科技的發(fā)展,這種以程序方式構建的、僅可完成種類極為有限任務的人工智能系統(tǒng)已過于陳舊。并行處理技術和人工智能算法的發(fā)展,進一步刺激了深度神經網絡的爆發(fā)式增長,AI得以突破單一程序的局限,擁有超越預期的行動能力。

人工智能系統(tǒng)獲取的數據越多,其預測效果就越精準。在上面提到的識別寵物及其品種的實例中,測試數據集可以包括一幅在復雜或紛亂背景中存在多只寵物的圖像。一旦模型達到了所需精度,就可在生產環(huán)境中使用。

深度神經網絡人工智能系統(tǒng)可以不斷擴展和提高自身能力,可以自主學習,無需人為監(jiān)督?▋然仿〈髮W的研究人員開發(fā)了一種訓練方法,使一架無人機能夠通過自我培訓,學會識別和追蹤某輛汽車;趯W習的人工智能擁有廣泛功能,隨著它們的知識累計和能力增長,就可能成為員工的協(xié)作拍檔和同事,無需擔心它們會“跳槽”。

培養(yǎng)AI員工,消除數據偏見

《埃森哲技術展望2018》顯示,81%的企業(yè)高管認為,不出三年時間,人工智能將作為一名同事、合作者和值得信賴的顧問,和企業(yè)員工并肩協(xié)作。事實上,人工智能已經在某些領域擁有了與使用者相同的影響力。

紐約西奈山伊坎醫(yī)學院的研究人員創(chuàng)建了一個名為“Deep Patient”的人工智能系統(tǒng),通過分析70萬名患者檔案,成功自學了如何預測78種疾病的風險因素,輔助醫(yī)生診斷;舊金山Stitch Fix公司的服裝設計師用AI 為客戶提供服飾搭配建議;螞蟻金服的“定損寶”利用AI協(xié)助保險公司優(yōu)化車險理賠;北歐軟件制造商疊拓甚至在其領導團隊中“聘請”了一名名為“AliciaT”的AI,希望“她”能幫助管理團隊利用數據作出明智選擇。

鑒于人工智能參與做出的決策會給人類生活帶來越來越多的影響,企業(yè)需要培養(yǎng)AI的責任意識,教會他們商業(yè)與社會規(guī)范。通過培養(yǎng)AI的責任感,企業(yè)可以創(chuàng)建具有不同技能的人工智能組合。在完成培訓后,這些技能模塊可以在企業(yè)內流通,按需使用。同時,AI還可以通過接受繼續(xù)教育,適應新的工作要求。通過對AI做出社會責任方面的培訓,企業(yè)有望創(chuàng)造出有能力、善合作的AI員工。

但,有一個前提——企業(yè)必須擁有準確的數據。弗吉尼亞大學的一項研究發(fā)現(xiàn),人工智能會放大預料中的性別偏見,將站在爐灶旁的男性全部歸類為女人。

在擁有了AI員工后,通過創(chuàng)建培訓課程,消除數據偏見顯得尤為重要。企業(yè)的人工智能系統(tǒng)需要從基本原則開始,隨后逐步依照設定的分類機構建立技能。

谷歌近期發(fā)布了一套開源數據集,幫助企業(yè)提升其人工智能系統(tǒng)的語音識別能力。為了創(chuàng)建一套數據集,使AI做好充分準備理解某種語言的30個單詞,谷歌錄制了數千人的發(fā)音,共計6.5 萬條音頻剪輯。正是憑借如此龐大的培訓數據,谷歌的語音識別準確性達到了95%。

企業(yè)還必須確保,無論AI的溝通對象是客戶、員工、還是其他人工智能系統(tǒng),雙方都擁有相同的認知背景。企業(yè)還必須為正在收集和分享的各項模型標明出處,由此確保可復制的模型和訓練數據之間的聯(lián)系。如果能對數據錄入加以整理,盡量消除各種偏差,建立良好的歸檔、組織和正確標記,企業(yè)就能建立起強大的AI模型庫,反復對其利用。

創(chuàng)建更易懂、負責任的人工智能

在企業(yè)和社會中,對決策結果作出說明至關重要。88%的受訪高管均表示,當企業(yè)利用人工智能進行決策時,確保員工和客戶理解其決策原則非常重要。企業(yè)必須構建和培訓其人工智能系統(tǒng),以人們能夠理解的方式清楚詮釋其行為。

英偉達公司(NVIDIA)最近公開了Drive PX的學習模式。Drive PX是嵌入了人工智能的自動駕駛汽車平臺,能夠自主學習如何駕駛。英偉達的工程師開發(fā)出一種方法,突出顯示行車記錄視頻中AI聚焦觀察的區(qū)域,展現(xiàn)了AI所“看到、想到”的信息。另外,美國的第一資本銀行 (Capital One)正研究如何讓AI在拒絕客戶信用卡申請時,按照銀行法規(guī)要求做出合理說明。

政府決策者們也在考慮出臺規(guī)則,管理AI在決策中的作用。近期生效的歐盟《通用數據保護條例》的原則精神,賦予了個人對AI 和其他算法所做決定的“解釋要求權”。

與此同時,“公民AI”的另一內涵在于,企業(yè)必須提高人工智能的責任意識。無論其在社會中扮演何種角色,AI所采取的一切行動都代表著企業(yè),使用這些技術的企業(yè)必須仔細考慮如何為其行為承擔責任和義務。

奧迪公司(Audi)宣布,置入 A8 車型的“交通擁堵領航”自動駕駛系統(tǒng)于 2019 年投入使用后,將為其事故承擔責任。德國聯(lián)邦政府也針對一些不可避免的事故情形,預先制定了規(guī)則: 汽車必須選擇物質損害,而非人身。

隨著AI更加廣泛而緊密地融入社會中,它所帶來的直接影響和沖擊將會是全方面的——從財務決策、醫(yī)療保健,一直延伸到刑事司法,乃至更廣闊的領域。企業(yè)在培養(yǎng)人工智能方面的責任也將不斷增加。歐洲議會已開始考慮授予機器或機器人有限的“電子人格”,類似于判定責任或損害時所使用的“法人”概念。

如果企業(yè)不主動提高AI的“心智”成熟度,法規(guī)和公眾就會反過來對其提出要求,甚至整個人工智能行業(yè)都將因為AI的責任缺失受到嚴格監(jiān)管控制。令人欣喜的是,《埃森哲技術展望2018》發(fā)現(xiàn),72%的高管表示,所在企業(yè)正設法提高AI決策與行動的透明度,以此獲取客戶的信任和信心。這將是AI融入社會的關鍵一步。


聲明: 本文系OFweek根據授權轉載自其它媒體或授權刊載,目的在于信息傳遞,并不代表本站贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內容、版權以及其它問題的,請聯(lián)系我們。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號