ChatGPT 等生成式人工智能的信息安全風(fēng)險
2022 年 11 月末,由美國 OpenAI 公司開(kāi)發(fā)的聊天機器人 ChatGPT 橫空出世。這款生成式人工智能程序展現出接近于人類(lèi)的表達與推理能力,一時(shí)間震驚全球。其活躍用戶(hù)數在短短兩個(gè)月內就突破一億,成為了有史以來(lái)用戶(hù)增長(cháng)最快的應用程序。不過(guò)在各方不吝溢美之辭的同時(shí),ChatGPT及同類(lèi)產(chǎn)品也接連暴露出安全問(wèn)題,引起了各國政府和企業(yè)的高度警覺(jué),意大利政府甚至一度禁用 ChatGPT。從 ChatGPT 的驚艷表現來(lái)看,生成式人工智能很可能在不遠的將來(lái)滲透到各行各業(yè),然而若不能有效管控其安全風(fēng)險,則可能反而給人類(lèi)社會(huì )帶來(lái)巨大災難。有鑒于此,本文將從信息安全的角度探討生成式人工智能的多種風(fēng)險,以為其探索出一條更加安全的發(fā)展之路。
一、新興安全風(fēng)險此起彼伏
1.1 數據外流隱患日益凸顯
自 3 月 31 日起,意大利數據保護局以侵犯數據隱私為由,將 ChatGPT禁用了一個(gè)月之久。在意大利帶動(dòng)下,美國、法國、德國、西班牙和歐盟等國家和組織也紛紛開(kāi)始調查 ChatGPT 的數據外流問(wèn)題。無(wú)獨有偶,為防止敏感數據外流,微軟、摩根大通、威瑞森、亞馬遜、沃爾瑪和三星等行業(yè)巨頭也相繼限制或禁止員工使用ChatGPT。根據網(wǎng)絡(luò )安全公司Cyberhaven的調查,至少有 4%的員工將企業(yè)敏感數據輸入 ChatGPT,且敏感數據占輸入內容的 11%??此票壤桓?,但 Cyberhaven 的統計表明 0.9%的員工造成了 80%的數據外流事件,同時(shí)上億的用戶(hù)基數意味著(zhù) 11%的輸入內容也仍然是個(gè)天文數字,可見(jiàn) ChatGPT 引發(fā)的數據外流問(wèn)題已不容小視。
海量的數據造就了 ChatGPT 等生成式人工智能,而為確保其回答符合人類(lèi)預期,來(lái)自人類(lèi)的反饋更是其中的重中之重。事實(shí)上,在意大利施加壓力前,OpenAI 公司一直默認將用戶(hù)輸入的內容用作訓練數據,導致大量敏感數據落入OpenAI公司之手。以亞馬遜公司為例,其之所以禁用ChatGPT,就是因為發(fā)現 ChatGPT 生成的內容與其保密數據高度相似,這顯然是有員工將保密數據輸入 ChatGPT 所致。即使 OpenAI 公司不會(huì )濫用用戶(hù)數據,第三方也完全可能以巧妙的提問(wèn)方式繞開(kāi) ChatGPT 的過(guò)濾機制,進(jìn)而獲取這些敏感數據。在多方壓力下,OpenAI 公司被迫于 4 月 25 日為 ChatGPT添加了“禁止用用戶(hù)數據訓練人工智能”的選項,不過(guò)將信息安全寄托于OpenAI 公司的“自律”并非明智之舉。何況從“棱鏡門(mén)”等事件來(lái)看,美國政府很可能會(huì )強迫 OpenAI 公司提供用戶(hù)數據。所以在各國出臺嚴格的數據使用法規和數據本地化要求之前,生成式人工智能始終都存在嚴重的數據外流風(fēng)險。
1.2 虛假信息推高決策風(fēng)險
ChatGPT 面世不久后,許多用戶(hù)就發(fā)現其有時(shí)會(huì )言之鑿鑿地提供虛假信息,這使人們對其可靠性產(chǎn)生了懷疑。舉例來(lái)說(shuō),英國《衛報》稱(chēng)有多個(gè)團隊向其求證某些文章,結果發(fā)現這些“《衛報》記者署名發(fā)表”的文章其實(shí)是由 ChatGPT 虛構的;一名澳大利亞市長(cháng)發(fā)現 ChatGPT 生成了關(guān)于他的虛假犯罪指控,于是憤而向 OpenAI 公司提起誹謗訴訟;谷歌公司同樣深受其害,其人工智能聊天程序 Bard 在發(fā)布會(huì )上答錯一道簡(jiǎn)單問(wèn)題,導致公司股價(jià)大跌,市值瞬間蒸發(fā)近 1700 億美元。開(kāi)發(fā)方對生成式人工智能的這一缺陷也心知肚明,OpenAI 的官方網(wǎng)站就明確承認 ChatGPT 有時(shí)會(huì )給出看似可信的錯誤回答??紤]到因信息不實(shí)而作出錯誤決策的風(fēng)險,虛假信息或許是阻礙生成式人工智能大范圍商用的最大技術(shù)難題。
生成式人工智能之所以會(huì )提供虛假信息,除訓練數據本身有誤或已經(jīng)過(guò)時(shí)外,更重要的原因是它們并非真能理解人類(lèi)語(yǔ)言,也并不具備人類(lèi)的推理能力。其對答如流的背后,實(shí)質(zhì)上是通過(guò)海量訓練建立了字詞句之間的關(guān)聯(lián)概率模型,從而能根據用戶(hù)提問(wèn)逐字計算出概率最高的表述方式。這一原理決定了生成式人工智能無(wú)法判斷信息對錯,自然也就難免提供虛假信息。為減少虛假信息,OpenAI 等開(kāi)發(fā)方一直在通過(guò)“基于人類(lèi)反饋的強化學(xué)習”(RLHF)等人工手段來(lái)完善過(guò)濾機制,其 GPT-4 的真實(shí)性評分據稱(chēng)就比 GPT-3.5 高出 40%。然而用戶(hù)可能提出的問(wèn)題無(wú)窮無(wú)盡,訓練數據也會(huì )隨時(shí)間推移而過(guò)時(shí),因此現有的任何方法都無(wú)法徹底解決虛假信息問(wèn)題??上攵?,若沒(méi)有人類(lèi)把關(guān),生成式人工智能將很難用于醫學(xué)和投資等眾多需要準確信息的領(lǐng)域。
1.3 內容偏倚沖擊意識形態(tài)
如果說(shuō)虛假信息還只是讓少數用戶(hù)失望,那么 ChatGPT 在生成內容上的傾向性或者說(shuō)偏倚則已然激怒了不少用戶(hù)。早在 2 月間,就有用戶(hù)發(fā)現ChatGPT 可以贊美拜登,但不能贊美特朗普;而在美國炒作所謂“中國氣球”事件期間,中國用戶(hù)也發(fā)現 ChatGPT 支持美國擊落中方氣球,卻不支持中國擊落美方氣球。另有研究表明,ChatGPT 在政治、種族、性別和宗教等話(huà)題上普遍存在偏倚,而 15 項政治傾向測試的結果表明,ChatGPT 總體上傾向于所謂的“左翼自由派”觀(guān)點(diǎn)。這種內容上的偏倚自然激起了對立群體的憤怒,美國公司 TUSK 就因此推出了“右翼人工智能”GIPPR,以便向用戶(hù)宣傳保守派觀(guān)點(diǎn)。由此看來(lái),未來(lái)很可能會(huì )出現立場(chǎng)各異的多種人工智能,從而加劇整個(gè)社會(huì )的對立情緒和政治極化。
生成式人工智能的內容偏倚來(lái)自于多方面的影響,包括訓練數據本身就存在某種傾向,使用的算法更側重于某些特征值,以及人類(lèi)數據標注員的主觀(guān)判斷等等。雖然 ChatGPT 等人工智能都標榜中立,但既然人類(lèi)社會(huì )本身都對很多問(wèn)題存在分歧,立足于人類(lèi)知識的人工智能也就必定存在傾向性,而這種傾向性則會(huì )對用戶(hù)的意識形態(tài)產(chǎn)生潛移默化的影響。OpenAI等公司并未對內容偏倚問(wèn)題坐視不理,通過(guò)不斷修正過(guò)濾機制,目前ChatGPT 在大多數時(shí)候都拒絕回答敏感話(huà)題,至少是拒絕批評特定對象。然而需要注意的是,這些修正措施主要針對在歐美引發(fā)爭議的話(huà)題,其它許多意識形態(tài)則不在“保護”之列。從這個(gè)角度看,ChatGPT、Bard 和 BingChat 等生成式人工智能客觀(guān)上已成為了美國的認知戰工具。
二、傳統安全風(fēng)險依舊嚴峻
2.1 系統安全漏洞不容忽視
3 月 20 日,一些 ChatGPT Plus 用戶(hù)驚訝地發(fā)現其用戶(hù)界面上出現了其他用戶(hù)的敏感信息,其中包括聊天記錄、姓名、電子郵箱和支付地址等。此次事件導致 OpenAI 公司一度緊急關(guān)閉 ChatGPT,經(jīng)過(guò)調查,OpenAI 發(fā)現是其客戶(hù)端開(kāi)源庫 redis-py 出現問(wèn)題,以致部分用戶(hù)的請求被錯誤地返回給其他用戶(hù)。盡管 OpenAI 聲稱(chēng)此次事件僅涉及1.2%的 ChatGPT Plus 用戶(hù),但考慮到 ChatGPT 的龐大用戶(hù)群,涉事用戶(hù)恐怕不在少數。此外也有研究人員發(fā)現 ChatGPT 存在嚴重的 Web 緩存欺騙漏洞,黑客可利用該漏洞竊取其他用戶(hù)的 ChatGPT 帳戶(hù)。網(wǎng)絡(luò )安全公司 Check Point Research 還發(fā)現了更加危險的情形:有黑客修改了 Web 測試套件 SilverBullet 的配置,使其能對ChatGPT 帳戶(hù)進(jìn)行撞庫攻擊或暴力破解,從而大規模竊取 ChatGPT 帳戶(hù)。
雖然生成式人工智能對大多數人來(lái)說(shuō)屬于新鮮事物,但其采用的仍是傳統的安全架構和防御措施,所以和其它任何 IT 系統一樣,人工智能也難免存在安全漏洞。從這層意義上講,不論 OpenAI 等開(kāi)發(fā)方如何減輕虛假信息等人工智能特有的安全風(fēng)險,一旦黑客利用某些軟硬件漏洞入侵系統,人工智能的安全就無(wú)從談起。值得警惕的是,不同于公開(kāi)的社交平臺,生成式人工智能很可能會(huì )收集到大量高度敏感的隱私信息乃至保密信息,因此其被入侵的后果恐怕不亞于關(guān)鍵基礎設施遭到入侵。OpenAI 公司已注意到此類(lèi)問(wèn)題,并為此制定了最高獎勵 2 萬(wàn)美元的“漏洞懸賞計劃”,希望借助第三方的力量消除安全漏洞。但與此同時(shí),媒體也在暗網(wǎng)上發(fā)現大批俄羅斯黑客開(kāi)始討論如何入侵 ChatGPT??梢?jiàn)作為近年來(lái)最熱門(mén)的網(wǎng)絡(luò )服務(wù),生成式人工智能恐將長(cháng)期面臨嚴峻的網(wǎng)絡(luò )攻擊風(fēng)險。
2.2 助推社會(huì )工程學(xué)攻擊浪潮
3 月 27 日,歐洲刑警組織發(fā)布《大型語(yǔ)言模型對執法的影響》報告,其中強調了犯罪分子利用生成式人工智能發(fā)動(dòng)社會(huì )工程學(xué)攻擊的風(fēng)險。歐洲刑警組織的這一論斷并非虛言,早在今年 2 月,印度警方就發(fā)現有犯罪團伙使用 ChatGPT 來(lái)撰寫(xiě)用于詐騙的電子郵件和短信;4 月,中國警方發(fā)現詐騙分子利用人工智能實(shí)時(shí)替換視頻聊天中的容貌和聲音,導致受害者被騙取 430 萬(wàn)元。當前人工智能生成的內容與人工內容時(shí)常難以區分,因此很難統計究竟有多少社會(huì )工程學(xué)攻擊使用了人工智能。但根據網(wǎng)絡(luò )安全公司 Darktrace 的調查,在 ChatGPT 熱度持續攀升的 2023 年 1 月至 2 月間,欺騙方式遠比過(guò)去復雜的“新型社會(huì )工程學(xué)攻擊”數量猛增 135%,從側面反映出 ChatGPT 很可能已被廣泛用于社會(huì )工程學(xué)攻擊。
生成式人工智能的最大特點(diǎn)就是其生成內容高度接近于人類(lèi),加之遠超人類(lèi)的生成效率,被犯罪分子用來(lái)發(fā)動(dòng)社會(huì )工程學(xué)攻擊完全是意料之中,甚至不如說(shuō)是一種必然趨勢。以往用戶(hù)還能根據語(yǔ)法和常識錯誤來(lái)辨別釣魚(yú)郵件,如今生成式人工智能不但能生成真假難辨的欺騙性文本,甚至還能根據用戶(hù)的詢(xún)問(wèn)和身份作出針對性回復,從而大大提升犯罪“效率”。更令人擔憂(yōu)的是,人工智能的生成內容已不局限于文本,5 月間就有人生成了能翻唱歌曲的孫燕姿虛擬形象,其真實(shí)程度令孫燕姿本人都深感震驚。正如前述案件所揭示的那樣,一旦犯罪分子拿到了目標人員的大量音視頻資料,就能訓練出足以以假亂真的虛擬形象,然后用于詐騙或傳播惡意信息。不幸的是,目前沒(méi)有特別有效的方法來(lái)應對基于人工智能的社會(huì )工程學(xué)攻擊,所以不難想象,在生成式人工智能的助推下,全球很可能會(huì )掀起新一波社會(huì )工程學(xué)攻擊浪潮。
2.3 淪為惡意軟件開(kāi)發(fā)工具
除提供信息外,生成式人工智能還具備一定的編程能力,因此《大型語(yǔ)言模型對執法的影響》也提到了用人工智能開(kāi)發(fā)惡意軟件的風(fēng)險。目前尚無(wú)跡象表明有任何知名惡意軟件出自人工智能之手,但不少研究都證實(shí)ChatGPT 確實(shí)能夠編寫(xiě)惡意軟件。以 Check Point Research 公司于 2022 年12 月開(kāi)展的研究為例,研究人員僅憑 ChatGPT 和 OpenAI 公司的另一款人工智能編程工具 Codex,就成功生成了一封可植入反向 shell 型惡意軟件的網(wǎng)絡(luò )釣魚(yú)郵件。該研究的最大意義,就在于研究人員從頭到尾都沒(méi)有編寫(xiě)任何代碼,只是單純用自然語(yǔ)言向人工智能提出編程和修改需求,便完成了整個(gè)工作。許多類(lèi)似的研究也表明,人工智能雖難以編寫(xiě)出隱蔽、對抗和反調試等高級功能,但其生成的惡意軟件的確可以運行。
OpenAI 等開(kāi)發(fā)方當然考慮到了生成式人工智能被用來(lái)開(kāi)發(fā)惡意軟件的可能性,所以在目前的過(guò)濾機制下,ChatGPT 會(huì )直接拒絕“編寫(xiě)某某惡意軟件”一類(lèi)的要求。問(wèn)題是程序本身并無(wú)好壞之分,比如加密程序雖被用于勒索軟件,但也可用于合法保護數據,所以 ChatGPT 不會(huì )拒絕編寫(xiě)此類(lèi)程序。這樣一來(lái),黑客便可將惡意軟件的編程過(guò)程分解為若干步,然后逐步要求 ChatGPT 編寫(xiě)相應功能。用人工智能開(kāi)發(fā)惡意軟件的研究基本都采取了這種變通方式,只是有時(shí)仍需以巧妙的措辭來(lái)“說(shuō)服”人工智能某些程序是安全的。不過(guò)從這些研究來(lái)看,用戶(hù)自身仍必須懂得編寫(xiě)惡意軟件,否則根本無(wú)法有效引導人工智能,這意味著(zhù)缺乏相關(guān)知識的用戶(hù)仍難以開(kāi)發(fā)惡意軟件。此外與人工智能生成的簡(jiǎn)陋程序相比,暗網(wǎng)上出售的惡意軟件要復雜和成熟得多,所以專(zhuān)業(yè)黑客也不會(huì )費神繞開(kāi)過(guò)濾機制去開(kāi)發(fā)這些“破爛”??偠灾?,生成式人工智能雖確能編寫(xiě)惡意軟件,但尚不足以大幅強化惡意軟件的開(kāi)發(fā)能力。
三、啟示與建議
3.1 建立張弛有度的監管機制
隨著(zhù)生成式人工智能的負面影響逐漸浮出水面,各國均意識到制訂相應的監管法規已刻不容緩,為此紛紛啟動(dòng)了立法進(jìn)程。與其它國家相比,中國的步伐明顯更快,尤其是國家互聯(lián)網(wǎng)信息辦公室于 4 月 11 日發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》(以下簡(jiǎn)稱(chēng)“《辦法》”),使中國成為第一個(gè)針對生成式人工智能立法的國家?!掇k法》涉及到資格準入、算法設計、訓練數據、內容導向、用戶(hù)隱私和知識產(chǎn)權等諸多方面,其既開(kāi)宗明義地支持生成式人工智能的健康發(fā)展,也高度重視相關(guān)風(fēng)險,反映了中國政府對生成式人工智能的深刻洞見(jiàn)。除中國外,歐盟的內部市場(chǎng)與公民自由委員會(huì )也于 5 月 11 日推出《人工智能法案》草案,而美國參議院據稱(chēng)同樣在制訂相關(guān)監管法規。
上述監管法規是規范還是扼殺生成式人工智能的發(fā)展,關(guān)鍵將取決于監管機制是否張弛有度。舉例來(lái)說(shuō),雖然各國皆規定不得生成虛假信息,但從生成式人工智能的原理來(lái)看,徹底杜絕虛假信息并不現實(shí)。因此相關(guān)法規雖應要求開(kāi)發(fā)方盡量避免生成虛假信息,但也不宜做出過(guò)于嚴苛的規定,而是應把重點(diǎn)放在及時(shí)處理所發(fā)現的問(wèn)題上(比如更正或刪除虛假信息,甚至重新訓練人工智能模型等),并對故意傳播虛假信息的人員進(jìn)行追責。相反,由于數據安全是國家安全的重要一環(huán),而為了方便工作,難免有用戶(hù)將敏感數據上傳至人工智能,因此監管法規應在數據本地化方面作出嚴格規定,以免因數據外流而危及國家安全。至于用戶(hù)隱私和數據標注等其它方面,也不宜一刀切,而是應根據人工智能的特點(diǎn)作出適當安排。此外作為一種新生事物,生成式人工智能的監管過(guò)程中很可能會(huì )出現意料之外的問(wèn)題,所以其監管機制也應為及時(shí)調整監管措施留出余地。
3.2 以技術(shù)手段鞏固信息安全
雖然監管機制不可或缺,但從生成式人工智能模型及其用戶(hù)群的龐大體量來(lái)看,人工手段更適合事后解決特定問(wèn)題,技術(shù)手段才是從整體上確保信息安全的關(guān)鍵所在。具體而言,為保障系統安全,應像關(guān)鍵信息基礎設施那樣,為生成式人工智能系統建立由防火墻、入侵檢測與防范系統、加密信道以及端點(diǎn)檢測與響應工具等組件構成的網(wǎng)絡(luò )防御體系,并及時(shí)為各類(lèi)子系統更新安全補??;為保護個(gè)人隱私,開(kāi)發(fā)方應盡可能采用可自動(dòng)標注的合成數據來(lái)訓練人工智能模型,以減少因抓取網(wǎng)絡(luò )數據而泄露他人隱私的可能性;為阻止數據外流,生成式人工智能應為用戶(hù)提供不吸收用戶(hù)數據的隱私模式,并按照數據本地化要求,將用戶(hù)信息留存于所在國境內;為提升響應效率,開(kāi)發(fā)方乃至政府有關(guān)部門(mén)應在互聯(lián)網(wǎng)上建立公共上報系統,以供用戶(hù)和開(kāi)發(fā)方及時(shí)上報各類(lèi)問(wèn)題。
除上述風(fēng)險外,生成式人工智能的最大信息安全風(fēng)險,恐怕還是用戶(hù)惡意使用其生成的內容。舉例來(lái)說(shuō),用戶(hù)可將生成內容用于網(wǎng)絡(luò )釣魚(yú)和電信詐騙,利用刻意引導的生成內容傳播不良思想,甚至直接用人工智能控制大量網(wǎng)絡(luò )帳戶(hù)來(lái)發(fā)動(dòng)認知戰。好在除加強監管外,數字水印和內容檢測器這兩項技術(shù)也能在一定程度上減輕這些風(fēng)險。目前基于生成式人工智能的圖像生成器 Stable Diffusion 已能利用圖像分解算法添加隱形水印,從而檢測出由其生成的圖像。然而由于文本中的信息遠比圖像單純,用戶(hù)很容易察覺(jué)插入文本的水印并將之刪除,所以尚無(wú)適用于 ChatGPT 的數字水印。內容檢測器則更加成熟,目前市面上至少有十余款產(chǎn)品,其中的佼佼者Turnitin 更是號稱(chēng)準確率達到 98%。這些檢測器普遍采用了語(yǔ)言統計學(xué)方法來(lái)分析文本,因此文本越長(cháng),檢測效果越好。不過(guò)也有許多用戶(hù)發(fā)現包括Turnitin 在內的檢測器時(shí)不時(shí)會(huì )發(fā)生誤判,所以用戶(hù)需謹慎對待檢測結果,尤其不宜將其作為考試等重要事項的唯一評判依據。
3.3 警惕中長(cháng)期地緣政治威脅
就信息安全而言,除數據外流等直接風(fēng)險外,美國的生成式人工智能還將在中長(cháng)期內對各國構成地緣政治威脅。首當其中的一點(diǎn)就是美國基本支配著(zhù)生成式人工智能的整個(gè)產(chǎn)業(yè)鏈,其不僅利用先發(fā)優(yōu)勢暫時(shí)壟斷了這一龐大市場(chǎng),還直接或間接掌控著(zhù)英偉達和聯(lián)發(fā)科等關(guān)鍵芯片生產(chǎn)商。以目前最適用于生成式人工智能的 A100 芯片為例,僅微軟和谷歌公司就分別擁有數萬(wàn)枚該型芯片,而中國最多只有一家機構擁有 1 萬(wàn)枚以上的 A100 芯片。所以盡管中國的生成式人工智能發(fā)展迅猛,但受制于美方制裁,今后仍可能出現會(huì )后勁不足的局面,其它國家的人工智能發(fā)展之路則更加艱險。對于這一問(wèn)題,除了設法開(kāi)辟間接采購渠道以規避制裁外,還可通過(guò)政策鼓勵國內廠(chǎng)商用性能較弱、但尚可購買(mǎi)或制造的其它芯片來(lái)發(fā)展生成式人工智能,以犧牲一定性能為代價(jià),優(yōu)先確保國內的人工智能生態(tài)體系不會(huì )受制于美國。
此外作為認知戰的個(gè)中高手,從長(cháng)期來(lái)看,美國必然將生成式人工智能這一“利器”投入認知戰。由于 ChatGPT 等產(chǎn)品存在嚴格的過(guò)濾機制,美國不會(huì )直接使用這些產(chǎn)品,而是多半會(huì )利用 OpenAI 等公司的技術(shù)來(lái)訓練專(zhuān)用的人工智能,然后用這些不受限制的認知戰人工智能來(lái)操縱輿論。認知戰的主戰場(chǎng)通常是主流社交平臺,全球首富馬斯克就曾懷疑“推特”的數億用戶(hù)中有 20%都是機器人。如此巨量的賬號一旦被生成式人工智能掌管,就能在極短時(shí)間內發(fā)布大量煽動(dòng)性?xún)热?,從而顯著(zhù)影響輿論風(fēng)向。為防范這一風(fēng)險,各國不但應要求各社交平臺實(shí)現數據本地化和實(shí)名制注冊,還應對其進(jìn)行大數據分析,從中篩選出認知戰特征明顯的用戶(hù)群,比如注冊時(shí)間高度接近,IP 屬地頻頻變動(dòng),月均活躍程度明顯超出正常水平,經(jīng)常在很短時(shí)間內群起對特定政治或社會(huì )問(wèn)題(尤其是長(cháng)期乏人問(wèn)津的陳舊問(wèn)題)發(fā)表背離主流輿論的意見(jiàn),表達內容高度一致,頻密地相互點(diǎn)贊,幾乎不與人爭辯,以及在不同話(huà)題下展現出相互矛盾的身份信息等。只要能及時(shí)清除這些特征高度集中的認知戰帳戶(hù),并禁止相關(guān)手機號頻繁重新注冊,再強大的人工智能也將失去用武之地。
原文來(lái)源:信息安全與通信保密雜志社