斯洛伐克语

Spoločnosť Anthropic tvrdí, že jej AI chatbot využili podvodníci na kyberútoky

WASHINGTON. Páchatelia kybernetických trestných činov čoraz častejšie využívajú umelú inteligenciu (AI) na vykonávanie kybernetických útokov. Vyplýva to zo stredajšej správy americkej spoločnosti Anthropic zaoberajúcou sa vývojom AI. Informovala o tom agentúra DPA.

V niektorých prípadoch útočníci hrozili zverejnením ukradnutých informácií, ak nedostanú viac ako 500-tisíc dolárov.

Žiadny tím expertov, stačí jedinec

Len za uplynulý mesiac bolo terčom útokov 17 organizácií z oblasti zdravotníctva, vlády a náboženského sektoru. Claude pomáhal identifikovať zraniteľné miesta, rozhodovať, ktorá sieť bude cieľom útoku, a aké údaje sa majú získať.

Podľa manažéra Anthropic Jacoba Kleina si vykonanie takýchto operácií kedysi vyžadovalo tím expertov, avšak AI v súčasnosti umožňuje jedincovi vykonať sofistikované útoky.

Anthropic vo svojej správe tiež zdokumentoval prípady Severokórejčanov, ktorí využívali Claude, a vydávali sa za programátorov pracujúcich pre americké spoločnosti, aby „financovali zbrojné programy Severnej Kórey“. AI im pri tom pomohla komunikovať so zamestnancami a spĺňať úlohy, na ktoré sami nemali schopnosti.

Americká spoločnosť konštatuje, že v minulosti absolvovali severokórejskí pracovníci niekoľkoročné tréningy na tento účel, avšak Claude a ďalšie modely túto prekážku fakticky odstránili.

Na predaj ponúkajú plány na podvody

Kriminálnici taktiež vyvinuli plány na podvody s pomocou AI, ktoré na internete ponúkajú na predaj, vrátane bota na platforme Telegram používaného pri tzv. romantických podvodoch. Pri takýchto podvodoch ide o emocionálnu manipuláciu obete vo viacerých jazykoch s cieľom vymámiť od nich peniaze.

Hoci Anthropic zaviedol ochranné opatrenia na zabránenie zneužitiu, útočníci sa naďalej usilujú tieto opatrenia obchádzať. Poučenia z týchto incidentov sa využívajú na posilnenie ochrany proti kybernetickej kriminalite umožnenej AI, píše DPA.

来源:https://tech.sme.sk/c/23536840/spolocnost-anthropic-tvrdi-ze-jej-ai-chatbot-vyuzili-podvodnici-na-kyberutoky.html


参考译文

Anthropic公司声称,其AI聊天机器人被诈骗者用于网络攻击

华盛顿。网络犯罪分子越来越频繁地利用人工智能(AI)实施网络攻击。这是美国人工智能开发公司Anthropic周三发布的一份报告得出的结论。德新社对此进行了报道。

在某些情况下,攻击者威胁称,如果得不到50多万美元,就将公布窃取的信息。

无需专家团队,个人即可完成

仅在过去一个月里,就有17家医疗、政府和宗教领域的组织成为攻击目标。克劳德帮助识别脆弱点,决定攻击目标网络以及需要获取的数据。

Anthropic经理雅各布·克莱因表示,此类操作过去需要专家团队来完成,但如今人工智能使个人也能实施复杂的攻击。

Anthropic在报告中还记录了朝鲜人利用Claude冒充美国公司程序员,为“朝鲜武器计划提供资金”的案例。人工智能帮助他们与员工沟通,完成他们自己无法完成的任务。

美国公司指出,过去朝鲜工作人员为此接受了数年的培训,但克劳德和其他模型实际上消除了这一障碍。

出售欺诈计划

犯罪分子还开发了利用人工智能的欺诈计划,并在互联网上出售,包括在Telegram平台上用于所谓“浪漫欺诈”的机器人。此类欺诈涉及用多种语言对受害者进行情感操纵,以骗取他们的钱财。

尽管Anthropic已采取保护措施防止滥用,但攻击者仍在不断尝试绕过这些措施。据德新社报道,这些事件的教训正被用于加强防范人工智能助长的网络犯罪。