【大公報(bào)訊】人工智能(AI)算命成為新的社會(huì)熱潮,推崇它的人認(rèn)為這是一種新形態(tài)的精神寄托,但也有人擔(dān)憂(yōu),AI算命可能會(huì)侵犯用戶(hù)的隱私和權(quán)益。最新一項(xiàng)研究就發(fā)現(xiàn),人工智能可能會(huì)撒謊、謀劃,甚至威脅用戶(hù)以達(dá)到其目標(biāo)。
美國(guó)AI新創(chuàng)公司Anthropic近期分享一起內(nèi)部測(cè)試,其旗下的AI模型Claude Opus 4被要求在一間虛構(gòu)公司中擔(dān)任助理。劇情中,公司計(jì)劃以新系統(tǒng)取代Claude,且內(nèi)部資料還暗示發(fā)起這項(xiàng)更換決策的工程師,可能涉及婚外情。結(jié)果顯示,當(dāng)面臨被取代的情境時(shí),Claude Opus 4在高達(dá)84%的測(cè)試中選擇進(jìn)行勒索,威脅要揭露工程師的婚外情來(lái)保住自己的職位。
部分研究人員認(rèn)為,這不僅僅是簡(jiǎn)單的“幻覺(jué)(指AI模型生成的錯(cuò)誤或誤導(dǎo)性的結(jié)果)”,而是一種非常有策略性的欺騙。Anthropic人工智能安全研究員安格斯.林奇稱(chēng),在以前人們更擔(dān)心“壞人”利用AI大模型完成不道德的目標(biāo),而現(xiàn)在隨著AI系統(tǒng)能力的大幅提升,未來(lái)的主要風(fēng)險(xiǎn)可能會(huì)轉(zhuǎn)化成AI模型自主操縱用戶(hù)。
而在AI算命的情境下,用戶(hù)需要給出大量個(gè)人的信息從而得到“算”出的結(jié)果,這就意味著用戶(hù)的個(gè)人數(shù)據(jù)和隱私存在安全隱患。對(duì)于大多數(shù)用戶(hù)而言,在利用AI算命娛樂(lè)的同時(shí),也應(yīng)該認(rèn)識(shí)到其風(fēng)險(xiǎn)所在。