0
| 本文作者: 天諾 | 2016-06-29 14:48 |

昨天,微軟首席執(zhí)行官薩提亞?納德拉分享了他對(duì)未來人工智能的看法,的確,如今外界有太多關(guān)于人工智能究竟是好是壞的爭(zhēng)論,不過納德拉認(rèn)為,我們應(yīng)該構(gòu)建能夠增強(qiáng)人類能力和經(jīng)驗(yàn)的人工智能。
人工智能的終極意義肯定不應(yīng)該是人類和機(jī)器之間的對(duì)抗。我們?nèi)祟愑袆?chuàng)造力,同情心,情感,肉體和洞察力,未來,這些都可以和強(qiáng)大的人工智能計(jì)算能力融合在一起——我們有能力處理海量數(shù)據(jù),可以更快速地進(jìn)行模型識(shí)別——幫助整個(gè)社會(huì)向前發(fā)展。其次,我們必須在人工智能技術(shù)中構(gòu)建最直接的信任,我們必須在人工智能技術(shù)中融入隱私保護(hù),透明度和安全。人工智能設(shè)備必須被設(shè)計(jì)來發(fā)現(xiàn)新的威脅,在發(fā)展過程中設(shè)定必要的保護(hù)措施。最后,我們構(gòu)建的每一項(xiàng)技術(shù),都必須去包容、尊重每一個(gè)人。
同時(shí),納德拉還分享了人工智能原則和目標(biāo),作為一個(gè)行業(yè)和一個(gè)社會(huì),我們應(yīng)該仔細(xì)探討人工智能這項(xiàng)技術(shù)。
人工智能的設(shè)計(jì)目的必須是協(xié)助人類:當(dāng)越來越多有自主意識(shí)的機(jī)器被開發(fā)出來,我們需要尊重人類的自主意識(shí)。協(xié)作機(jī)器人(co-bots)應(yīng)該去做一些危險(xiǎn)工作,比如挖礦,這樣就能為人類工人構(gòu)建一個(gè)安全保護(hù)網(wǎng)。
人工智能必須是透明的:我們應(yīng)該時(shí)刻注意人工智能的工作原理,以及它的規(guī)則是什么。我們不僅需要智能機(jī)器,同時(shí)我們還需要可理解的機(jī)器。甚至可以說,我們需要的并不是人工智能,而是一種“共生”智能。人工智能技術(shù)將會(huì)了解人類,但人類也必須要了解機(jī)器。人類必須要搞清楚人工智能技術(shù)如何觀察、分析這個(gè)世界。涉及到人工智能的道德倫理和技術(shù)設(shè)計(jì)問題必須齊頭并進(jìn)。
在不破壞人類尊嚴(yán)的基礎(chǔ)上,人工智能必須最大限度地提高工作效率。人工智能要保護(hù)文化承諾,強(qiáng)化族裔多樣性。在設(shè)計(jì)人工智能系統(tǒng)時(shí),我們需要更廣泛、更深入、以及更多樣化的人群參與。人工智能的未來不能僅靠一個(gè)科技行業(yè)說了算。
在設(shè)計(jì)人工智能技術(shù)時(shí),必須要考慮智能隱私保護(hù)——必須要有先進(jìn)的、值得信賴的保護(hù)措施,用各種方式確保個(gè)人和群體的隱私信息。
人工智能必須要有算法問責(zé)機(jī)制,這樣能讓人類撤銷意外傷害。在設(shè)計(jì)人工智能技術(shù)時(shí),我們必須要考慮到各種預(yù)期和非預(yù)期的情況。
人工智能必須要確保沒有偏見,保證適當(dāng)?shù)暮途哂写硇缘难芯?,這樣就不會(huì)導(dǎo)致產(chǎn)生引起歧義的錯(cuò)誤啟發(fā)。
VIA mspoweruser
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見轉(zhuǎn)載須知。