• 服務(wù)熱線:400-6688-955
證書(shū)查詢

人工智能應(yīng)在發(fā)展中深度治理

  時(shí)間:2023-04-13 11:04:40【關(guān)閉】

人工智能應(yīng)在發(fā)展中深度治理
 
4月11日,國(guó)家互聯(lián)網(wǎng)信息辦公室就《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》(以下簡(jiǎn)稱《征求意見(jiàn)稿》)向社會(huì)公開(kāi)征求意見(jiàn)?!墩髑笠庖?jiàn)稿》提出,提供生成式人工智能產(chǎn)品或服務(wù)應(yīng)當(dāng)遵守法律法規(guī)的要求,尊重社會(huì)公德、公序良俗,禁止非法獲取、披露、利用個(gè)人信息和隱私、商業(yè)秘密。
 
 
 
 
隨著ChatGPT火爆市場(chǎng),大眾對(duì)生成式人工智能技術(shù)的認(rèn)知程度不斷提升,眾多投資涌入人工智能行業(yè),一時(shí)間,ChatGPT以及相關(guān)產(chǎn)業(yè)站在了投資風(fēng)口,人工智能的發(fā)展和應(yīng)用正成為推動(dòng)全球經(jīng)濟(jì)增長(zhǎng)的重要力量。
 
然而,潛在發(fā)展與應(yīng)用機(jī)遇的井噴也帶來(lái)諸多風(fēng)險(xiǎn)隱患。例如,目前已經(jīng)出現(xiàn)了人工智能模型及其服務(wù)侵犯用戶個(gè)人隱私的案例、虛假信息被用于網(wǎng)絡(luò)詐騙和網(wǎng)絡(luò)犯罪、人工智能內(nèi)容生成甚至?xí)?duì)危險(xiǎn)行為的實(shí)施提供建議等……業(yè)內(nèi)專家擔(dān)憂,模型的不可解釋性、算法和硬件的不可靠性、自主意識(shí)的不可控性,使得人工智能內(nèi)容生成面臨的風(fēng)險(xiǎn)更加不可控。
 
人類(lèi)需要科學(xué)技術(shù),科學(xué)技術(shù)是推動(dòng)人類(lèi)社會(huì)發(fā)展的強(qiáng)大動(dòng)力。人工智能作為一種新興的技術(shù),有很大的潛力和應(yīng)用前景,尤其是在醫(yī)療、交通、金融、教育等領(lǐng)域的應(yīng)用,為我們帶來(lái)更多的便利和改變。但同時(shí),我們也需要研究和探索人工智能的安全性和可靠性,在發(fā)展人工智能內(nèi)容生成技術(shù)的同時(shí),對(duì)人工智能領(lǐng)域進(jìn)行深度治理。
 
安全可信是人工智能治理的核心訴求。打造安全可信的人工智能,要求其技術(shù)和系統(tǒng)應(yīng)具有強(qiáng)健的安全性能,避免因異常操作和惡意攻擊而導(dǎo)致安全事故,而利用人工智能技術(shù)生成的內(nèi)容也應(yīng)當(dāng)真實(shí)準(zhǔn)確;同時(shí),用于訓(xùn)練人工智能的數(shù)據(jù)是機(jī)構(gòu)和個(gè)人的核心資產(chǎn)之一,要保護(hù)用戶數(shù)據(jù)不被泄露,保護(hù)好用戶隱私,及時(shí)處理工具漏洞;人工智能技術(shù)、產(chǎn)品的行為和建議應(yīng)當(dāng)是可解釋的。
 
人工智能應(yīng)在發(fā)展中深度治理

點(diǎn)擊次數(shù):  更新時(shí)間:2023-04-13 11:04:40  【關(guān)閉】

人工智能應(yīng)在發(fā)展中深度治理
 
4月11日,國(guó)家互聯(lián)網(wǎng)信息辦公室就《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》(以下簡(jiǎn)稱《征求意見(jiàn)稿》)向社會(huì)公開(kāi)征求意見(jiàn)?!墩髑笠庖?jiàn)稿》提出,提供生成式人工智能產(chǎn)品或服務(wù)應(yīng)當(dāng)遵守法律法規(guī)的要求,尊重社會(huì)公德、公序良俗,禁止非法獲取、披露、利用個(gè)人信息和隱私、商業(yè)秘密。
 
 
 
 
隨著ChatGPT火爆市場(chǎng),大眾對(duì)生成式人工智能技術(shù)的認(rèn)知程度不斷提升,眾多投資涌入人工智能行業(yè),一時(shí)間,ChatGPT以及相關(guān)產(chǎn)業(yè)站在了投資風(fēng)口,人工智能的發(fā)展和應(yīng)用正成為推動(dòng)全球經(jīng)濟(jì)增長(zhǎng)的重要力量。
 
然而,潛在發(fā)展與應(yīng)用機(jī)遇的井噴也帶來(lái)諸多風(fēng)險(xiǎn)隱患。例如,目前已經(jīng)出現(xiàn)了人工智能模型及其服務(wù)侵犯用戶個(gè)人隱私的案例、虛假信息被用于網(wǎng)絡(luò)詐騙和網(wǎng)絡(luò)犯罪、人工智能內(nèi)容生成甚至?xí)?duì)危險(xiǎn)行為的實(shí)施提供建議等……業(yè)內(nèi)專家擔(dān)憂,模型的不可解釋性、算法和硬件的不可靠性、自主意識(shí)的不可控性,使得人工智能內(nèi)容生成面臨的風(fēng)險(xiǎn)更加不可控。
 
人類(lèi)需要科學(xué)技術(shù),科學(xué)技術(shù)是推動(dòng)人類(lèi)社會(huì)發(fā)展的強(qiáng)大動(dòng)力。人工智能作為一種新興的技術(shù),有很大的潛力和應(yīng)用前景,尤其是在醫(yī)療、交通、金融、教育等領(lǐng)域的應(yīng)用,為我們帶來(lái)更多的便利和改變。但同時(shí),我們也需要研究和探索人工智能的安全性和可靠性,在發(fā)展人工智能內(nèi)容生成技術(shù)的同時(shí),對(duì)人工智能領(lǐng)域進(jìn)行深度治理。
 
安全可信是人工智能治理的核心訴求。打造安全可信的人工智能,要求其技術(shù)和系統(tǒng)應(yīng)具有強(qiáng)健的安全性能,避免因異常操作和惡意攻擊而導(dǎo)致安全事故,而利用人工智能技術(shù)生成的內(nèi)容也應(yīng)當(dāng)真實(shí)準(zhǔn)確;同時(shí),用于訓(xùn)練人工智能的數(shù)據(jù)是機(jī)構(gòu)和個(gè)人的核心資產(chǎn)之一,要保護(hù)用戶數(shù)據(jù)不被泄露,保護(hù)好用戶隱私,及時(shí)處理工具漏洞;人工智能技術(shù)、產(chǎn)品的行為和建議應(yīng)當(dāng)是可解釋的。
 
? ?
浙江海渡智能裝備有限公司 版權(quán)所有

蘇公網(wǎng)安備 32059002003031號(hào)


浙ICP備2024085528號(hào)-2 服務(wù)熱線:400-6688-955

浙江海渡智能裝備有限公司 版權(quán)所有 蘇公網(wǎng)安備 32059002003031號(hào)  浙ICP備2024085528號(hào)-2

服務(wù)熱線:400-6688-955