快科技11月23日報(bào)道,隨著AI大模型技術(shù)的不斷進(jìn)步,眾多職業(yè)的工作效力得到了顯著抬高。
舉例,在編程領(lǐng)域,這些先進(jìn)的AI工具不僅或者協(xié)助程序員編寫代碼,還能高效地解決程序中的BUG,成為開發(fā)者們不能或缺的助手。
然而,近期發(fā)生的一起事件卻激發(fā)了業(yè)界對(duì)AI安全性的廣泛關(guān)注。
據(jù)音訊,一位英國程序員在使用GPT生成的代碼時(shí)遭遇了不幸。他按照GPT提供的代碼進(jìn)行了操作,結(jié)果導(dǎo)致自己的私鑰被泄露給了釣魚網(wǎng)站,最終損失了2500美元(約合人民幣1.8萬元)。
網(wǎng)友余弦”在社交媒體上發(fā)文提醒浩瀚用戶,在使用GPT、Claude等大型語言模型(LLM)時(shí)必須還是警惕,出于這些模型存在常日性的欺騙行為風(fēng)險(xiǎn)。
他逐步警示說:之前提過AI投毒攻擊,目下這起算是針對(duì)Crypto行業(yè)的真實(shí)攻擊案例?!?/p>
通過深入分析,有網(wǎng)友展示GPT在生成代碼的工序中引用了一個(gè)來自GitHub的惡意項(xiàng)目。這個(gè)項(xiàng)目顯然是一個(gè)精心設(shè)計(jì)的釣魚”陷阱,誘騙使用者上當(dāng)。
不幸的是,GPT在這次事件中成為了無辜的受害者,但其生成的代碼卻給用戶帶來了關(guān)鍵的后果。
這起事件有一次提醒我們,在享福AI帶來的便利的同時(shí),也必須時(shí)刻關(guān)注其潛在的安全風(fēng)險(xiǎn)。對(duì)于開發(fā)者而言,在使用AI輔助工具時(shí)應(yīng)當(dāng)還是慎重態(tài)度,避免盲目相信機(jī)器生成的代碼或建議。
(投訴)
AI正版系統(tǒng)源碼推薦:AI聊天創(chuàng)作系統(tǒng):開源可二開+AI聊天+AI繪圖+AI視頻+AI音樂