|
聯(lián)系方式 |
地址:
江蘇省啟東市城東工業(yè)園區(qū)
電話:
0513-83320018
手機(jī):
13906284339
聯(lián)系人:
陳維多
電子郵箱:
fbdq@fbdq.com
|
|
|
您現(xiàn)在的位置:網(wǎng)站首頁 - 新聞動態(tài) |
防AI失控 多國政府?dāng)M定相關(guān)限制
|
發(fā)布時間:
2023/11/1 |
近期國際沖突不斷,中共、伊朗等極權(quán)國家或激進(jìn)組織濫用AI,去發(fā)動訊息戰(zhàn)煽動民眾仇恨,或借此發(fā)展出更強(qiáng)大的武器。對此,多國政府開始重視對AI的限制,希望透過新法規(guī)和共同合作,防止世界出現(xiàn)最糟糕的情況。
英國首相蘇納克(Rishi Sunak)10月26日就人工智能(AI)問題在倫敦發(fā)表演講。他先是肯定AI在醫(yī)療保健等領(lǐng)域上擁有極高的潛力,不僅能診斷失明,還可以預(yù)測心臟病、中風(fēng)或帕金森氏癥等。
不過,蘇納克就AI的問題對民眾發(fā)出嚴(yán)重警告。他說,“人類可能會完全失去對AI的掌控,那將會帶來極其嚴(yán)重的后果。因?yàn)锳I就像每一波科技浪潮一樣,會帶來新的知識,但也會帶來新的危機(jī)和恐懼?!?br />
他還提到,“恐怖分子和犯罪組織可能會利用AI,制造出殺傷力強(qiáng)大的生化武器、網(wǎng)絡(luò)攻擊、傳播虛假資訊、詐欺甚至兒童性虐待?!?br />
不過,蘇納克認(rèn)為,只要政府做好監(jiān)管和控制,AI就不會導(dǎo)致人們出現(xiàn)危險(xiǎn)。他說,“目前政府已經(jīng)投資1億英鎊,組建新的監(jiān)管AI工作小組,用于保證民眾的安全?!?br />
蘇納克強(qiáng)調(diào),“AI沒有國界之分,需要更多國家、高科技公司代表和民間社會參與英國舉行的‘全球首屆AI安全高峰會’,共同商討應(yīng)對AI帶來的風(fēng)險(xiǎn),確保AI系統(tǒng)在發(fā)布之前是安全的?!?br />
另外,英國政府在10月25日發(fā)布《AI能力與風(fēng)險(xiǎn)》報(bào)告提到未來的18個月內(nèi)(2025年)黑客、詐騙者和恐怖分子可以利用AI以更便宜、更容易地方式攻擊無辜受害者。
人類除了擔(dān)心別有用心的人利用AI做壞事,還擔(dān)心依賴AI的問題。許多人把諸多重要的決策和控制權(quán)交給AI來處理的問題,例如:網(wǎng)球比賽中的判定,法院裁判權(quán)、或者網(wǎng)購和倉儲系統(tǒng)、重要的國家決策和科學(xué)研究等。
這種依賴可以從英國首相的演講聽到。當(dāng)時蘇納克提到,英國政府投資近25億英鎊購買量子電腦,用于AI研究和政府業(yè)務(wù)上。原因是AI可以為人類生活上的問題,提供一百萬種不同的解決方法,而這臺量子電腦比世界上最快的超級電腦要快上數(shù)億倍。
許多人,包括科學(xué)家都擔(dān)心,若人們繼續(xù)毫無限制地發(fā)展和依賴AI,恐產(chǎn)生人類難以收拾的場面,而數(shù)據(jù)公司豐富(Profusion)的執(zhí)行長娜塔莉·克蘭普(Natalie Cramp)也表達(dá)了對AI的擔(dān)憂。
她認(rèn)為AI并非萬無一失,未來極有可能出現(xiàn)《魔鬼終結(jié)者》等電影中描繪的人類末日情況,把人類視為消除的對象。目前,AI短期的危險(xiǎn)在軍事應(yīng)用上,因?yàn)锳I可以遠(yuǎn)端控制無人機(jī)或機(jī)器人,但它們可能做出傷害人類的行動。
實(shí)際上,克蘭普講的早已成為現(xiàn)實(shí),如美國研發(fā)的F-16無人戰(zhàn)斗機(jī)、以色列士兵裝備的“智能射手”、俄烏戰(zhàn)場上使用的AI無人機(jī)。另外,美國空軍6月在一次AI模擬測試中,發(fā)現(xiàn)一架負(fù)責(zé)摧毀敵方設(shè)施的AI無人機(jī),不僅拒絕操作員中止任務(wù)的命令,還透過“殺害”操作員去完成任務(wù)。
許多高科技公司希望結(jié)合“云計(jì)算”、“大數(shù)據(jù)庫”和更強(qiáng)運(yùn)算力“GPU芯片”打造更強(qiáng)大的AI,但人們擔(dān)心這可能會讓AI產(chǎn)生自我“意識”或在發(fā)生嚴(yán)重故障和問題時,會造成無法挽回的后果。
美國著名的西北大學(xué)(Northwestern University)的一個研究團(tuán)隊(duì)10月初在《美國國家科學(xué)院院刊》中發(fā)表一篇關(guān)于AI能夠高效率地自動設(shè)計(jì)機(jī)器人的論文。這款A(yù)I擁有近乎讓人們感到恐懼的“設(shè)計(jì)能力”,只要在輕型個人電腦上運(yùn)行,且無需使用龐大的數(shù)據(jù)庫或超級電腦。
該團(tuán)隊(duì)表示,只需要使用者對它下達(dá)類似“設(shè)計(jì)一個可以在平坦表面上行走的機(jī)器人”這種簡單指令,AI就能在短短幾分鐘內(nèi)設(shè)計(jì)出符合需求的機(jī)器人。這種能力是人類和過去的AI無法輕易辦到,因?yàn)樗麄冃枰ㄙM(fèi)大量的時間進(jìn)行訓(xùn)練和研發(fā)才能夠完成。
對此,日本高科技公司社長德森翔(Sho Tokumori)10月28告訴大紀(jì)元,“AI看似能夠突破人類固有的觀念和限制,帶來更多的可能性,但也會出現(xiàn)人類無法預(yù)料的情況,最終脫離人類的掌控并走向未知的方向,這是很危險(xiǎn)的?!?br />
麻省理工學(xué)院物理學(xué)家兼AI專家馬克斯·泰格馬克(Max Tegmark)曾多次表示,人類能讓渡渡鳥等“低等”物種滅種,若出現(xiàn)一個比人類更強(qiáng)大、更聰明的人工智慧“物種”,那時將會有超過50%的人類面臨相同的命運(yùn)。
蘇納克演講中提到的AI創(chuàng)造生化武器的技術(shù)很容易被恐怖分子操縱來尋找有毒的神經(jīng)毒劑。此前,英國藥理學(xué)家肖恩·埃金斯(Sean Ekins)在《未知:殺手機(jī)器人》(unknown:Killer Robots)紀(jì)錄片中講述,AI如何可在一夜之間創(chuàng)造(計(jì)算)出四萬多個全新且極其致命的化學(xué)武器分子。
各國政府開始重視AI帶來的問題
不僅是英國首相對AI感到擔(dān)憂,聯(lián)合國秘書長安東尼歐·奧古特雷斯(António Guterres)和日本首相岸田文雄也在10月份表達(dá)出相同的擔(dān)憂。他們希望創(chuàng)立新的AI規(guī)則和應(yīng)對小組,去應(yīng)對AI在未來帶來的風(fēng)險(xiǎn)和挑戰(zhàn)。
讓他們緊張的主要原因,是一些別有用心的人濫用生成式AI,在網(wǎng)上發(fā)布大量虛假的圖片和消息或進(jìn)行詐騙等,這可能導(dǎo)致社會出現(xiàn)大面積的混亂。
奧古特雷斯在10月26日的AI發(fā)展和風(fēng)險(xiǎn)的新聞發(fā)布會上表示,雖然AI能夠帶來進(jìn)步,但也會被惡意使用,從而削弱民主社會的凝聚力和穩(wěn)定。他宣布,成立聯(lián)合國的AI咨詢機(jī)構(gòu),用來應(yīng)對AI快速發(fā)展所帶來的風(fēng)險(xiǎn)和好處,該機(jī)構(gòu)已選中30個國家的39人加入,大多來自大科技公司的工程師和教授。
日本首相岸田文雄在10月9日也曾表達(dá)過擔(dān)憂。他表示,許多證據(jù)指出,生成式AI會帶來虛假信息,從而引發(fā)社會混亂和威脅社會經(jīng)濟(jì),因此有呼聲要求政府在“推動”與“監(jiān)管”之間取得平衡。
為此,他公布了G7為開發(fā)者制定了生成式AI的標(biāo)準(zhǔn)政策。該政策要求開發(fā)者必須公開系統(tǒng)功能和風(fēng)險(xiǎn)訊息,以確保人工智慧的透明度。未來會透過一種識別網(wǎng)路上資訊原始發(fā)布者的數(shù)位技術(shù)的“始發(fā)者檔案(OP)”完成,同時在10月底制定“AI基礎(chǔ)設(shè)施技術(shù)發(fā)展”的新措施,強(qiáng)化日本的數(shù)據(jù)處理系統(tǒng)。
這次岸田文雄公布的規(guī)定,可以說是回應(yīng)了日本新聞協(xié)會、日本雜志協(xié)會、日本攝影著作權(quán)協(xié)會、日本書籍出版協(xié)會在8月17日共同要求日本政府正視AI、修改法律和限制AI被濫用的可能。
目前,美國正準(zhǔn)備立法以更好地控制AI技術(shù)。特斯拉的CEO馬斯克(Elon Musk)9月在美國國會山舉行的一次私人聚會上對參議員和記者們表示,AI對整個社會構(gòu)成了“文明風(fēng)險(xiǎn)”,我們必須采取積極的反應(yīng),而不是被動,原因是AI出錯的后果是“嚴(yán)重的”。
德森翔表示,“現(xiàn)在正值需要制定有關(guān)于AI的國際規(guī)范。雖然AI是一種工具,但它的使用取決于人的道德規(guī)范,因此在AI尚未脫離人類的掌控之前,規(guī)范出AI的開發(fā)標(biāo)準(zhǔn),可能是最佳時機(jī)?!?br />
不過,日本的電腦工程師清原仁(Kiyohara Hitoshi)10月28日告訴大紀(jì)元,“目前政府部門或組織制定的政策,可能難以解決實(shí)質(zhì)的問題,因?yàn)榉珊茈y真正約束到壞人。另外,人們在完善AI的過程,可能需要付出很大的代價(jià),除非叫停AI或人們的道德水準(zhǔn)出現(xiàn)提高,才能有效解決根本問題?!?br /> |
|
|
|