
AI代寫愈加火熱,人工(gōng)智能(néng)潛在隐患又(yòu)該如何防範?
編輯:2024-01-05 11:39:28
時值年末,又(yòu)到了一年一度寫年終總結的時候,*近,武漢的一家公(gōng)司在朋友圈發布的招聘啓事引發關注。内容說:“今年在AI的協助下,大緻會撰寫35萬份以上報告(去年是26萬份),年底來臨,有(yǒu)不少總結性報告要寫,招多(duō)個兼職報告撰寫人員。”據了解,有(yǒu)了AI加持,這家公(gōng)司在精(jīng)簡10%-20%人力的基礎上,單量卻比去年同期增加20%-30%。
此外,據報道,在某線(xiàn)上購(gòu)物(wù)平台,輸入“年終總結AI”“代寫”等關鍵詞,立刻蹦出許多(duō)相關産(chǎn)品。商(shāng)家在産(chǎn)品介紹中(zhōng)寫下宣傳語:“AI智能(néng)原創、寫作(zuò)必備”“懶人辦(bàn)公(gōng)”“三分(fēn)鍾急速交稿”等。産(chǎn)品銷量一般在幾千單左右,有(yǒu)的店(diàn)鋪月銷量達6萬單以上。
随着科(kē)技(jì )快速發展,人工(gōng)智能(néng)(AI)應用(yòng)越來越廣泛,它深入到醫(yī)療、教育、娛樂等各個領域。如今,伴随各類年度總結任務(wù)的集中(zhōng)湧來,AI代寫業務(wù)火了,然而,這看似*輕松的背後,卻隐藏着巨大的風險!
那麽
人工(gōng)智能(néng)應用(yòng)使用(yòng)過程中(zhōng)
隐藏哪些風險呢(ne)?
下面跟着小(xiǎo)密一起來看!
人工(gōng)智能(néng)在促進社會發展進步的同時,也伴随着一些風險隐患,以今年爆火的ChatGPT為(wèi)例,若被不當使用(yòng)或濫用(yòng)很(hěn)有(yǒu)可(kě)能(néng)影響到國(guó)家安(ān)全、社會穩定、企業利益和個人用(yòng)戶權益等諸多(duō)方面。
而ChatGPT類大模型加速了數字世界和物(wù)理(lǐ)世界的深度融合,引領人工(gōng)智能(néng)進入新(xīn)的發展階段。與此同時,人工(gōng)智能(néng)固有(yǒu)的不确定性、不透明性、難以解釋、事實性錯誤等能(néng)力局限,對經濟發展、國(guó)際政治和全球治理(lǐ)等方面帶來深遠(yuǎn)影響,引發了全球對大模型廣泛應用(yòng)安(ān)全風險的熱議。如何應對人工(gōng)智能(néng)風險并把握人工(gōng)智能(néng)發展的戰略主動,有(yǒu)效保障國(guó)家安(ān)全,已成為(wèi)我國(guó)國(guó)家安(ān)全治理(lǐ)的重要議題。
大模型技(jì )術引發新(xīn)的安(ān)全風險和治理(lǐ)挑戰。随着技(jì )術的更新(xīn)叠代,人工(gōng)智能(néng)的應用(yòng)門檻持續降低,伴随着誤用(yòng)濫用(yòng)情況的增加,經濟社會領域的多(duō)重安(ān)全風險也在交織疊加。
根據相關報道,ChatGPT的訓練使用(yòng)了45TB的數據、近1萬億個單詞(大概是1351萬本牛津詞典的單詞量)。其中(zhōng)很(hěn)有(yǒu)可(kě)能(néng)就包括未經同意獲取的個人信息。除前述海量數據外,ChatGPT還能(néng)夠在與用(yòng)戶一對一的對話互動中(zhōng)獲取信息。 在該軟件隐私政策不明了的情況下,個人信息是否會被存儲、洩露,甚至被惡意使用(yòng)都不得而知。 ChatGPT龐大的網絡語料庫中(zhōng)或許包含着他(tā)人擁有(yǒu)著作(zuò)權的作(zuò)品,故其生成的文(wén)本也存在嫁接他(tā)人作(zuò)品的可(kě)能(néng)性。但它在輸出内容時卻未必能(néng)夠識别,也不一定會對用(yòng)戶進行提示。在沒有(yǒu)得到原作(zuò)者授權的情況下,ChatGPT産(chǎn)生的文(wén)本如果被使用(yòng),那麽則很(hěn)有(yǒu)可(kě)能(néng)是使用(yòng)者承擔知識産(chǎn)權侵權的法律風險。 盡管ChatGPT被視為(wèi)有(yǒu)史以來*智能(néng)的AI,但它畢竟也不是全知全能(néng)。比如在一段涉及《紅樓夢》的對話當中(zhōng),ChatGPT就言之鑿鑿地宣稱,賈寶玉是賈元春的兒子。 盡管它在文(wén)字組織上的确能(néng)夠做到語句通暢,有(yǒu)條有(yǒu)理(lǐ),但是并不能(néng)保障内容的真實準确。當用(yòng)戶在自己不熟悉的領域向ChatGPT咨詢問題時,就很(hěn)有(yǒu)可(kě)能(néng)因為(wèi)這些看似“高大上”的回複,錯信了有(yǒu)誤甚至是虛假的信息,從而産(chǎn)生決策失誤、傳播虛假信息等諸多(duō)法律風險。 在高度智能(néng)化、自動化的應用(yòng)場景中(zhōng),ChatGPT在數據獲取、處理(lǐ)、結果展示等環節都存在重大的數據安(ān)全風險。 一是數據獲取階段。用(yòng)戶在使用(yòng)ChatGPT時,可(kě)能(néng)會輸入自己或他(tā)人的信息數據,從而導緻隐私洩露。如果員工(gōng)使用(yòng)ChatGPT輸入各類工(gōng)作(zuò)數據,就可(kě)能(néng)導緻公(gōng)司敏感信息洩露。而一旦輸入涉及國(guó)家秘密或敏感内容的信息,則無疑會導緻洩密。 二是數據處理(lǐ)階段。ChatGPT會将用(yòng)戶輸入、交互的數據用(yòng)于後續持續的叠代訓練,這就導緻這些信息很(hěn)可(kě)能(néng)被其他(tā)用(yòng)戶獲取,從而構成數據非授權共享,進而出現數據洩密問題。
随着人工(gōng)智能(néng)的不斷深入
我們在面對AI帶來的種種風險時
又(yòu)該如何應對呢(ne)?
且聽小(xiǎo)密為(wèi)你一一道來~
第一,建立行業監管制度并開展合規性評估審查。建立健全AI服務(wù)行業監督管理(lǐ)相關制度與标準。包括算法分(fēn)級分(fēn)類管理(lǐ)、算法推薦服務(wù)安(ān)全管理(lǐ)、AI 濫用(yòng)舉報等,并開展AI應用(yòng)安(ān)全合規性評估審查與處置,實現行業監管閉環。 第二,創新(xīn)研究應用(yòng)人工(gōng)智能(néng)賦能(néng)網絡安(ān)全技(jì )術。一方面,利用(yòng)AI技(jì )術賦能(néng)針對複雜網絡攻擊的防禦能(néng)力,使用(yòng) AI 技(jì )術應對其帶來的網絡安(ān)全風險;另一方面,研究利用(yòng)AI技(jì )術提升企業組織在網絡安(ān)全攻擊檢測、數據資産(chǎn)識别與風險監測、業務(wù)安(ān)全風控、不良信息識别、電(diàn)信反詐、安(ān)全威脅分(fēn)析、深度僞造識别等方面的能(néng)力。 第三,做好元宇宙等AI融合場景的安(ān)全風險梳理(lǐ)與防護技(jì )術儲備。對于元宇宙和AI融合關鍵場景,要抓緊開展安(ān)全技(jì )術研究儲備,提早防範大規模人工(gōng)智能(néng)安(ān)全事件發生。
對于個人而言,除了避免陷入虛假宣傳,更重要的是面對花(huā)樣翻新(xīn)的AI詐騙,必須保持防範意識。 保護信息,提高警惕。公(gōng)衆要謹慎提交個人信息及企業數據,防範AI應用(yòng)個人隐私竊取、有(yǒu)害言論誤導誘導等風險,防範利用(yòng)ChatGPT熱點或者仿冒知名(míng)AI應用(yòng)收集敏感信息實施詐騙等行為(wèi)。 多(duō)重驗證,确認身份。如果有(yǒu)人自稱"熟人""領導"等通過社交軟件、短信以各種理(lǐ)由誘導彙款,或涉及網絡轉賬交易行為(wèi)時,務(wù)必通過電(diàn)話、見面等多(duō)途徑核驗對方身份,不要未經核實随意轉賬彙款。 如不慎被騙或遇可(kě)疑情形,請注意保護證據,并立即撥打96110報警。 随着AI産(chǎn)品的不斷更新(xīn),不少AI軟件推出了公(gōng)文(wén)寫作(zuò)闆塊,人工(gōng)智能(néng)開始悄然影響公(gōng)文(wén)寫作(zuò)等日常政務(wù)工(gōng)作(zuò),作(zuò)為(wèi)機關、單位幹部職工(gōng),如果偷懶用(yòng)AI代寫,各種文(wén)件和數據洩露的後果将不堪設想! 不僅如此,由于AI寫作(zuò)内容相對比較籠統,語言僵硬,不貼合實際情況,使用(yòng)過程中(zhōng)還可(kě)能(néng)涉及信息洩露風險、侵犯知識産(chǎn)權等法律問題,所以小(xiǎo)密建議大家,在工(gōng)作(zuò)中(zhōng)盡量不要使用(yòng)AI寫作(zuò),多(duō)積累理(lǐ)論知識和實踐案例,才能(néng)成為(wèi)真正的“筆(bǐ)杆子”!
來源:成華密語


咨詢熱線(xiàn):0351-4073466
地址:(北區(qū))山(shān)西省太原市迎澤區(qū)新(xīn)建南路文(wén)源巷24号文(wén)源公(gōng)務(wù)中(zhōng)心5層
(南區(qū))太原市小(xiǎo)店(diàn)區(qū)南中(zhōng)環街(jiē)529 号清控創新(xīn)基地A座4層
