Az Anthropic, az amerikai mesterséges intelligenciával foglalkozó vállalat, amely nagy nyelvi modellek biztonságára specializálódott, új kutatást publikált a nyelvi modellek adatmérgezéses sebezhetőségéről, a brit AI Security Institute és az Alan Turing Institute együttműködésével.
A vizsgálat szerint mindössze 250 rosszindulatú dokumentum elegendő ahhoz, hogy hátsó kaput (backdoor) hozzanak létre egy nagy nyelvi modellben, függetlenül a modell méretétől vagy a tanítóadat mennyiségétől. Ez azt jelenti, hogy az adatmérgezéses támadások sokkal könnyebben kivitelezhetők, mint korábban gondolták.