掃碼下載APP
及時(shí)接收最新考試資訊及
備考信息
安卓版本:8.7.50 蘋果版本:8.7.50
開發(fā)者:北京正保會(huì)計(jì)科技有限公司
應(yīng)用涉及權(quán)限:查看權(quán)限>
APP隱私政策:查看政策>
HD版本上線:點(diǎn)擊下載>
人工智能(AI)正在迅速普及,然而相關(guān)倫理治理框架的創(chuàng)建速度卻跟不上其技術(shù)能力的發(fā)展。隨著人工智能的運(yùn)用場(chǎng)景變得越來(lái)越清晰,這種情況也許會(huì)逐步改變。
用搜索引擎搜索信息已然成為數(shù)百萬(wàn)人幾乎每天都要做的事情,但很少有人會(huì)在按下搜索按鈕之后,思考其背后的算法是如何執(zhí)行的。
舉例來(lái)說,如果搜索“大學(xué)教授”(university professor),在谷歌上的大部分搜索結(jié)果都是白人男性。作為全世界至熱門的搜索引擎,谷歌的算法非但不是中立的,而且長(zhǎng)期以來(lái)就存在著明顯的偏見,這種情況早已根深蒂固。
當(dāng)然,谷歌并非是唯一的負(fù)面案例。另一家科技巨頭亞馬遜(Amazon)也因其開發(fā)的招聘軟件會(huì)降低女性的錄取比率,而不得不停運(yùn)整改。微軟也曾因其人工智能聊天機(jī)器人Tay在社交網(wǎng)絡(luò)上發(fā)送帶有種族主義的言論,而不得不接受調(diào)查。
隨著科技的進(jìn)步,人工智能技術(shù)在聊天機(jī)器人等領(lǐng)域的應(yīng)用已經(jīng)變得越來(lái)越普遍,但確保人工智能技術(shù)能夠安全、正確地應(yīng)用的管治機(jī)制尚有待進(jìn)一步完善。
人工智能的“自帶”偏見
隨著人工智能越來(lái)越普及并逐漸成為現(xiàn)代生活中不可或缺的一部分,對(duì)于人工智能可能會(huì)存在偏見的擔(dān)心,促使人們呼吁建立一個(gè)道德、公正、透明的管治框架。
Kriti Sharma是英國(guó)跨國(guó)會(huì)計(jì)軟件公司賽捷(Sage)的機(jī)器人自動(dòng)化和人工智能業(yè)務(wù)副總裁(Vice-president of bots and AI).
她表示,由于人工智能是人類發(fā)明的,天生會(huì)帶有在人類身上普遍存在的某些偏見,而如果這些偏見不受監(jiān)管且機(jī)器本身還在不斷重復(fù)學(xué)習(xí),很可能會(huì)使這種偏差越來(lái)越嚴(yán)重。
Sharma曾在世界會(huì)計(jì)師大會(huì)(WCOA)上就人工智能對(duì)金融行業(yè)的影響發(fā)表演講,她表示,“然而值得慶幸的是我們是可以糾正這些偏見的?!?/span>
除了數(shù)據(jù)隱私、保護(hù)以及使用外,要打造符合道德標(biāo)準(zhǔn)的人工智能的難關(guān)往往就是道德本身。我們必須加以正確的指引,才能真正滿懷信心地挖掘并釋放第四次工業(yè)革命的全部潛力,并依靠技術(shù)突破推進(jìn)信息物理融合的系統(tǒng)發(fā)展。
Sharma說道:你必須確保為算法設(shè)定正確的目標(biāo)、價(jià)值觀以及意圖。重要的不只是完成任務(wù),還必須要采取正確的方式。對(duì)于會(huì)計(jì)等工作來(lái)說,這一點(diǎn)非常重要,因?yàn)檫@類工作在很大程度上依賴于信任。
在英國(guó)工作和生活的Sharma已經(jīng)成為推動(dòng)這項(xiàng)被稱為“負(fù)責(zé)任的”人工智能運(yùn)動(dòng)的主要積極分子,她的不懈努力獲得了聯(lián)合國(guó)大使以及奧巴馬基金會(huì)的認(rèn)可。
她說:當(dāng)我剛開始宣傳時(shí),許多人甚至從未聽聞過人工智能。他們通常會(huì)說,‘你是在為機(jī)器人爭(zhēng)取權(quán)利嗎?’,現(xiàn)在人們?cè)絹?lái)越意識(shí)到它的重要性。
政府政策如何協(xié)助降低偏見
為了創(chuàng)建倫理框架,Sharma認(rèn)為,重要的是不能讓開發(fā)者根據(jù)具體項(xiàng)目來(lái)選擇是否采取治理標(biāo)準(zhǔn)。恰恰相反,開發(fā)者要認(rèn)識(shí)到倫理標(biāo)準(zhǔn)是其工作的重要組成部分,這需要組織機(jī)構(gòu)的高層以及政府主動(dòng)承擔(dān)責(zé)任。
一些國(guó)家已經(jīng)開始采取行動(dòng)。英國(guó)政府就建立了數(shù)據(jù)倫理和創(chuàng)新中心。Sharma在其中擔(dān)任理事,近期還招納了牛津大學(xué)哲學(xué)和信息倫理學(xué)教授Luciano Floridi,而該中心的核心任務(wù)是為英國(guó)創(chuàng)建人工智能倫理框架。
中心的工作基于英國(guó)上議院委員會(huì)為負(fù)責(zé)任的人工智能制定的五項(xiàng)原則,其中借鑒了著名科幻作家艾薩克·阿西莫夫(Isaac Asimov)在1942年提出的“機(jī)器人三定律”。
根據(jù)委員會(huì)制定的第五項(xiàng)原則,人工智能不能擁有“毀滅”人類的力量,這項(xiàng)原則在新南威爾士大學(xué)杰出教授Toby Walsh有關(guān)禁止殺傷性人工智能全自動(dòng)武器的請(qǐng)?jiān)笗幸灿兴从场?/span>
無(wú)獨(dú)有偶,新加坡金融管理局近期公布了一系列準(zhǔn)則,促使金融行業(yè)以公平、道德、負(fù)責(zé)以及透明(FEAT)的方式應(yīng)用人工智能和數(shù)據(jù)分析技術(shù)。
澳大利亞也正在向這一方向發(fā)展,聯(lián)邦政府強(qiáng)制要求聯(lián)邦科學(xué)與工業(yè)研究組織(CSIRO)的Data61與澳大利亞國(guó)立大學(xué)自主、機(jī)構(gòu)和保障創(chuàng)新研究所(3A研究所)聯(lián)合開發(fā)倫理框架。在英特爾公司前高管Genevieve Bell教授的領(lǐng)導(dǎo)下,3A研究所以及Data61將在2022年之前為認(rèn)證的AI從業(yè)人員創(chuàng)建一門課程。
澳大利亞還有一家致力于開發(fā)人工智能的機(jī)構(gòu)就是澳大利亞機(jī)器人視覺中心(Australian Centre for Robotic Vision),這是一個(gè)由多所知名大學(xué)組成的協(xié)作中心。該中心的首席運(yùn)營(yíng)官Sue Keay博士認(rèn)為,有兩個(gè)關(guān)鍵領(lǐng)域可以糾正人工智能的偏見并更好地解決倫理問題:數(shù)據(jù)的質(zhì)量和數(shù)量;以及共同參與開發(fā)AI算法的研發(fā)人員的多樣性。
數(shù)據(jù)多樣性或許是解藥
Keay表示,人工智能的應(yīng)用依靠所提供的數(shù)據(jù)集,因此只有使用的數(shù)據(jù)沒有偏見,算法才會(huì)不帶偏見。開發(fā)算法的人必須確保數(shù)據(jù)的完整性,并且數(shù)據(jù)應(yīng)該足夠豐富并能夠真正做到代表任何樣本。
舉例來(lái)說,麻省理工學(xué)院的研究人員調(diào)查了某個(gè)收入預(yù)測(cè)系統(tǒng),發(fā)現(xiàn)其將女性列為低收入者的可能性是男性的兩倍。如果數(shù)據(jù)集增加十倍,分類錯(cuò)誤的發(fā)生率就會(huì)下降40%。
Keay說:另一個(gè)常見案例就是,如果通過機(jī)器人來(lái)判斷服刑人員能否獲得假釋,有色人種很可能會(huì)遭到嚴(yán)重歧視。這或許是因?yàn)槲覀兊臍v史數(shù)據(jù)中存在很多這樣的情況,過去確實(shí)有這方面的偏見
“還有一點(diǎn)就是,我們要意識(shí)到偏見是確實(shí)存在的,然后設(shè)法找到一種編程方式,可以在不受這些偏見影響的情況下完成目標(biāo)任務(wù)?!?/span>
Keay引用模擬世界的案例來(lái)闡述自己的其他觀點(diǎn):AI開發(fā)團(tuán)隊(duì)成員的多元化有助于消除偏見并實(shí)現(xiàn)更好的設(shè)計(jì)。
她說道:很長(zhǎng)一段時(shí)間以來(lái),汽車的安全性能一直都是通過碰撞試驗(yàn)假人來(lái)檢測(cè)的,幾十年后,研究人員注意到女性和兒童在汽車事故中的受傷幾率偏高。
后來(lái)人們了解到,碰撞試驗(yàn)假人的原型是標(biāo)準(zhǔn)美國(guó)男性的體形,而負(fù)責(zé)進(jìn)行這些檢測(cè)的工作人員正屬于這類人群。我認(rèn)為在人工智能方面,相比規(guī)范性框架,更重要的是組建更加多元化的團(tuán)隊(duì)來(lái)開發(fā)這些人工智能技術(shù)。
商業(yè)性與透明度的兩難境地
在商業(yè)環(huán)境中,Keay確實(shí)看到了大眾對(duì)透明度的要求與科技型企業(yè)保護(hù)知識(shí)產(chǎn)權(quán)的愿望之間存在潛在的對(duì)立沖突。
她表示,隨著人工智能的蓬勃發(fā)展,這些企業(yè)傾向于保護(hù)自己的知識(shí)產(chǎn)權(quán),并不愿意公布算法的具體內(nèi)容。
不過,算法確實(shí)需要具有可測(cè)試性并應(yīng)該向受其決策影響的人員保持透明,這方面正是需要政府可以發(fā)揮重要作用的領(lǐng)域,因?yàn)樗麄兛梢灾贫ㄟ@類框架。
Sharma認(rèn)為,對(duì)黑箱運(yùn)作方式持反對(duì)態(tài)度是不容置疑的。
她說:科技行業(yè)總有非常聰明的人,他們其中一些可能會(huì)說自己的算法非常智能,以至于自己也無(wú)法解釋??晌也⒉贿@樣認(rèn)為。我知道有些算法很難解釋,但卻依然需要具有可審核性和可追溯性,這是基本原則。
作為人工智能的倡導(dǎo)者,Sharma認(rèn)為在人工智能已經(jīng)無(wú)縫融入到日常生活的現(xiàn)代社會(huì),人們不會(huì)注意到算法,也不會(huì)質(zhì)疑算法。為此,我們首先需要建立一個(gè)符合倫理道德且相互信任的基礎(chǔ)。
她堅(jiān)持認(rèn)為:“人應(yīng)當(dāng)有權(quán)調(diào)查和置疑人工智能,而且這個(gè)框架應(yīng)適用于所有人,我們不應(yīng)該對(duì)其感到畏懼?!?/span>
Sharma正在針對(duì)人工智能應(yīng)用程序開發(fā)一種被她稱為“偏見檢測(cè)”的測(cè)試,用于人工智能產(chǎn)品發(fā)布之前。
我們已經(jīng)在做網(wǎng)絡(luò)測(cè)試,為什么不能在發(fā)布之前進(jìn)行一項(xiàng)偏見測(cè)試呢?
Sharma認(rèn)為,就像商業(yè)和政府在其他領(lǐng)域設(shè)立道德規(guī)范,符合倫理道德的人工智能將成為取得更好結(jié)果的關(guān)鍵因素,包括企業(yè)盈利方面。
她說道:“符合倫理道德的技術(shù)不僅僅是錦上添花,更是重要的業(yè)務(wù)驅(qū)動(dòng)因素。人們總是傾向于向自己信賴的公司購(gòu)買產(chǎn)品,這同樣適用于人工智能,因?yàn)樗鼤?huì)成為我們生活的一部分。”
使用人工智能的五項(xiàng)原則
人工智能應(yīng)為人類共同利益和福祉服務(wù)。
人工智能應(yīng)遵循可被理解和公平性原則。
人工智能不應(yīng)用于削弱個(gè)人、家庭乃至社區(qū)的數(shù)據(jù)權(quán)利或隱私。
所有公民都有權(quán)接受相關(guān)教育,以便能在精神、情感和經(jīng)濟(jì)上適應(yīng)人工智能的發(fā)展。
人工智能絕不應(yīng)被賦予任何傷害、毀滅或欺騙人類的自主能力。
以上就是“澳洲CPA人工智能 ”相關(guān)信息,更多CPA Australia資訊請(qǐng)關(guān)注正保會(huì)計(jì)網(wǎng)校澳洲cpa欄目。 2020正保會(huì)計(jì)網(wǎng)校澳洲cpa課程助您備考,點(diǎn)擊了解課程詳情>> 立即試聽>>
更多推薦:
報(bào)考指南
教學(xué)大綱
study_map
模擬題
考試介紹
安卓版本:8.7.50 蘋果版本:8.7.50
開發(fā)者:北京正保會(huì)計(jì)科技有限公司
應(yīng)用涉及權(quán)限:查看權(quán)限>
APP隱私政策:查看政策>
HD版本上線:點(diǎn)擊下載>
官方公眾號(hào)
微信掃一掃
官方視頻號(hào)
微信掃一掃
官方抖音號(hào)
抖音掃一掃
Copyright © 2000 - m.8riaszlp.cn All Rights Reserved. 北京正保會(huì)計(jì)科技有限公司 版權(quán)所有
京B2-20200959 京ICP備20012371號(hào)-7 出版物經(jīng)營(yíng)許可證 京公網(wǎng)安備 11010802044457號(hào)