據(jù)道,人工智能收集有關天氣、飲食習慣及其他日常生活細節(jié)的信息,以了解居民需求。即便它增加了便利性,但可能在無意中因歧視性算法,導致尷尬的問題。
“在未來完全由人工智能運營的智能城市中,你可能第一次走進某個酒吧,酒保卻知道你最喜歡喝的是哪款酒?!?/p>
丹麥建筑公司BIG的創(chuàng)始合伙人Bjarke Ingels在本月網(wǎng)絡科技峰會的在線討論中如此闡述。
有關人工智能隱私、道德倫理的話題從未停過,不少科技巨頭也在審視內(nèi)部。索尼將人工智能倫理納入其質(zhì)量控制中。
索尼將根據(jù)隱私保護等標準,審查人工智能產(chǎn)品從開發(fā)到上市的全過程。道德上有缺陷的產(chǎn)品將被修改或刪除。索尼內(nèi)部成立人工智能倫理委員會,其負責人由CEO任命,將有權停止有問題產(chǎn)品的開發(fā)。
即使是已經(jīng)進入開發(fā)階段的產(chǎn)品也有可能被丟棄。如果發(fā)現(xiàn)問題,已經(jīng)銷售的產(chǎn)品也將被召回。該公司計劃逐步將人工智能倫理規(guī)則擴展到金融和娛樂領域。
隨著人工智能進入更多設備,開發(fā)者的責任在增加,企業(yè)也在加強道德準則。
埃森哲(Accenture)人工智能中心主管加庫什納(Gakuse Hoshina)表示,如果人工智能做出了錯誤的決定,或?qū)е氯松韨Γ赡軙I(yè)務的連續(xù)性造成風險。
人工智能倫理是今年1月世界經(jīng)濟論壇的一個大話題。
Alphabet首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)表示:“作為人類,人工智能是我們正在研究的最深遠的事情之一。它比火、電或我們研究過的任何其他的東西都要深遠。但是,這也有負面影響。
“作為擁有共同價值觀的民主國家,我們需要在這些價值觀的基礎上發(fā)展,并確保在處理人工智能時,我們以一種服務社會的方式進行。這意味著要確保人工智能沒有偏見,我們構建并測試它的安全性?!?/p>
索尼最早將在春季開始審查所有植入人工智能的產(chǎn)品,以防范道德風險。如果一種產(chǎn)品被認為存在道德缺陷,該公司將對其進行改進或停止開發(fā)。例如,索尼在其最新一代Aibo機器狗中使用了人工智能,它可以識別多達100張面孔,并繼續(xù)通過云進行學習。
責任編輯:tzh
-
索尼
+關注
關注
18文章
3213瀏覽量
104975 -
網(wǎng)絡
+關注
關注
14文章
7589瀏覽量
89032 -
人工智能
+關注
關注
1793文章
47535瀏覽量
239327
發(fā)布評論請先 登錄
相關推薦
評論