yellow在线观看完整版高清字幕网,久久国产成人亚洲精品,夜晚双人做的扑克视频教程视频,堕落令媛

公司新聞 展會活動(dòng) 熱門資訊
當(dāng)前位置:首頁 > 新聞中心 > 熱門資訊

管控措施相繼發(fā)布,AI是否已經(jīng)觸及“邊界”

發(fā)布時(shí)間:2020-03-02
分享:


科技是把雙刃劍,當(dāng)人工智能技術(shù)大規(guī)模應(yīng)用于社會時(shí),我們必須考慮它所帶來的負(fù)面效果。身處文明社會當(dāng)中,大眾除了道德限制還有法律對自身行為進(jìn)行約束,但開發(fā)者進(jìn)行應(yīng)用開發(fā)時(shí),是否考慮到“喂”給機(jī)器的數(shù)據(jù)是否符合“法規(guī)”。特別是近年來人機(jī)交互的數(shù)量急劇增加,從而使得AI監(jiān)管問題的討論變得更為熱烈。


感官的欺騙


視覺與聽覺是我們對外界感知的重要窗口,大眾的觀念中普遍認(rèn)為“人的第一印象很重要”“眼見為實(shí),耳聽為虛”。但面對信息錯(cuò)綜復(fù)雜的世界,如今眼見也不一定為實(shí),聽到的則可能更為虛假。曾經(jīng)被議論的Deepfake換臉技術(shù)就屬于罪魁禍?zhǔn)字?,其利用了AI深度學(xué)習(xí)功能,通過數(shù)以億計(jì)的自我學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)訓(xùn)練。AI能夠識別出畫面中那些和周圍場景格格不入的部分,同時(shí)將其移走和生成缺失的像素,最后重繪出部分像素進(jìn)行畫面填補(bǔ)。谷歌公司也曾推出WaveNet軟件,可以利用其神經(jīng)網(wǎng)絡(luò)系統(tǒng)對原始音頻波形進(jìn)行建模,生成帶有不同語氣音節(jié)和情感表達(dá)的人類自然語言的音頻。外媒曾報(bào)道過一例案件,不法分子就利用了類似的AI技術(shù),成功模仿了英國某能源公司CEO的聲音,詐騙了220,000歐元,執(zhí)法當(dāng)局認(rèn)為此種類案件的調(diào)查取證更為困難。




AI道德準(zhǔn)則

2019年,我國首次將AI造假音視頻列入法規(guī),國家網(wǎng)信辦出臺《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》。對于利用基于深度學(xué)習(xí)、虛擬現(xiàn)實(shí)等新技術(shù)新應(yīng)用制作、發(fā)布、傳播非真實(shí)音視頻信息的網(wǎng)絡(luò)音視頻:應(yīng)當(dāng)以顯著方式予以標(biāo)識,不得利用其制作、發(fā)布、傳播虛假新聞信息;網(wǎng)絡(luò)音視頻信息服務(wù)提供者應(yīng)當(dāng)部署應(yīng)用違法違規(guī)音視頻以及非真實(shí)音視頻鑒別技術(shù),應(yīng)當(dāng)建立健全辟謠機(jī)制。日前,歐盟也相繼出臺《人工智能白皮書》,對人工智能領(lǐng)域的投資監(jiān)管路徑設(shè)立雙重目標(biāo),旨在推動(dòng)道德和可信賴人工智能的發(fā)展。并通過建設(shè)“卓越生態(tài)系統(tǒng)”和“信任生態(tài)系統(tǒng)”雙重系統(tǒng),構(gòu)建一個(gè)卓越的、可信賴的人工智能體系框架。


近日,面對人工智能的倫理 “紅線”,博世在“博世互聯(lián)世界大會”上發(fā)布人工智能技術(shù)的指導(dǎo)方針《AI道德準(zhǔn)則》。博世認(rèn)為人工智能是服務(wù)于人類的工具,任何可能對人造成影響的人工智能決策都需要人類的監(jiān)管。準(zhǔn)則中包含了三種機(jī)制,它們遵守著一個(gè)共同的原則,即博世開發(fā)的人工智能產(chǎn)品中,人類必須保留對人工智能所做決策的最終控制權(quán)。第一種機(jī)制為人工控制(human-in-command),它適用于人工智能只作為支持工具出現(xiàn)的情況。例如,在決策支持系統(tǒng)中,人工智能幫助人們對物體或生物進(jìn)行分類。第二種機(jī)制為使用階段的人為干預(yù)(human-in-the-loop),適用于人工智能系統(tǒng)可以自主決策,但人類可以隨時(shí)干預(yù)的情況。例如,駕駛輔助系統(tǒng),駛員可以直接介入停車輔助系統(tǒng)的決策等。 第三種機(jī)制為設(shè)計(jì)階段的人為干預(yù)(human-on-the-loop),適用于緊急制動(dòng)系統(tǒng)等應(yīng)用。開發(fā)此類智能產(chǎn)品時(shí),專家將定義參數(shù)作為人工智能決策的基礎(chǔ),而人類不參與決策,由人工智能進(jìn)行。但是工程師可以隨時(shí)追溯檢查機(jī)器是否遵守所設(shè)定的參數(shù)進(jìn)行決策,必要情況下可以修改參數(shù)。


面臨的困難


人工智能在應(yīng)用層面有逐漸完善的法律法規(guī)進(jìn)行約束,但在實(shí)際的技術(shù)開發(fā)中仍面臨著許多難以確定的細(xì)則。數(shù)據(jù)標(biāo)定沒有統(tǒng)一標(biāo)準(zhǔn):在機(jī)器學(xué)習(xí)中訓(xùn)練數(shù)據(jù)前都會對數(shù)據(jù)進(jìn)行清洗和標(biāo)定。有時(shí)為了滿足業(yè)務(wù)進(jìn)度的要求,不會進(jìn)行全量全分類的處理。準(zhǔn)確的說,無法對數(shù)據(jù)進(jìn)行嚴(yán)格而準(zhǔn)確的分類。這也是有監(jiān)督學(xué)習(xí)類算法的缺點(diǎn),就是針對特殊業(yè)務(wù)往往要進(jìn)行專門的數(shù)據(jù)標(biāo)定,同時(shí)算法設(shè)計(jì)者自身存在價(jià)值偏見也會導(dǎo)致人工智能系統(tǒng)無法正常運(yùn)行。數(shù)據(jù)分析難全面:在準(zhǔn)備訓(xùn)練數(shù)據(jù)時(shí)應(yīng)容納各類情況的發(fā)生,AI在數(shù)據(jù)錯(cuò)誤的情況勢必會造成BUG,除了掌握各類情況,仍要調(diào)整好處理各種情況的參數(shù)或系數(shù),包括算法模型存在的技術(shù)性缺陷都將導(dǎo)致人工智能系統(tǒng)無法正常運(yùn)行。模型成長環(huán)境差異:AI算法模型的訓(xùn)練環(huán)境對算法結(jié)果有重大影響,假設(shè)機(jī)器訓(xùn)練環(huán)境變得沒有邊界,各類數(shù)據(jù)都被機(jī)器學(xué)習(xí),這將很難保證機(jī)器會往著人類預(yù)想的方向發(fā)展,以及因?yàn)樗惴ㄈ遮叀昂谙浠笨赡軐?dǎo)致技術(shù)失控等問題。無論在技術(shù)或應(yīng)用方向,都應(yīng)該通過政策和法律引導(dǎo),開展人工智能算法安全的評估檢測;推動(dòng)技術(shù)倫理的算法導(dǎo)入。要求人工智能開發(fā)者設(shè)計(jì)高可解釋性的智能系統(tǒng);同時(shí),加強(qiáng)智能算法的透明監(jiān)督,人工智能企業(yè)、行業(yè)應(yīng)建立相應(yīng)的算法監(jiān)管體制,保持與政府監(jiān)管的協(xié)同。


文章來源:OFweek人工智能


相關(guān)文章