2

昨天,微軟CEO Satya Nadella在Slate上表示:計(jì)算機(jī)行業(yè)必須開(kāi)始思考如何讓智能軟件尊重人類(lèi)。這表明:他非常擔(dān)心AI對(duì)人類(lèi)生活的影響。
他寫(xiě)道:“科技行業(yè)不應(yīng)該扭曲未來(lái)的價(jià)值觀(guān),我們應(yīng)該教會(huì)AI樹(shù)立正確的價(jià)值觀(guān)?!?/p>
Nadella呼吁:“算法有責(zé)任擁有一個(gè)正確的三觀(guān),這樣人類(lèi)才不會(huì)受到傷害。”他表示智能軟件必須這樣設(shè)計(jì):我們必須檢閱算法的工作方式,讓它不歧視某類(lèi)人群,或者用暗黑的方式使用私人數(shù)據(jù)。
其實(shí),Nadella的建議是明智而中肯的。一直以來(lái),AI總是被指控腹黑,存在著性別或者種族歧視。我們現(xiàn)在正在努力擺正AI的三觀(guān),讓人們不會(huì)為AI的此問(wèn)題困擾。
聯(lián)邦貿(mào)易委員會(huì)的研究發(fā)現(xiàn):在互聯(lián)網(wǎng)時(shí)代早期出現(xiàn)的網(wǎng)絡(luò)種族和經(jīng)濟(jì)歧視現(xiàn)在又卷土而來(lái)了,出現(xiàn)在廣告或者其他的網(wǎng)上服務(wù)之中。
毋庸置疑,Nadella說(shuō)的一些問(wèn)題確實(shí)存在。近日,微軟研究員Kate Crawford在《紐約時(shí)報(bào)》總結(jié)了現(xiàn)在A(yíng)I的歧視現(xiàn)象:現(xiàn)在,工作場(chǎng)所、家庭、法律系統(tǒng)中使用的微軟都不公平。
關(guān)于未來(lái)AI的發(fā)展方向,Nadella是這樣說(shuō)的:AI的下一步發(fā)展,便是尊重種族和性別平等。
正如沒(méi)有哪個(gè)孩子天生就是一個(gè)性別歧視者或種族歧視者,那些都是被教出來(lái)的。AI也是這樣,而人類(lèi)就是最好的老師。
雷峰網(wǎng)原創(chuàng)文章,未經(jīng)授權(quán)禁止轉(zhuǎn)載。詳情見(jiàn)轉(zhuǎn)載須知。