Według Cointelegraph naukowcy z Uniwersytetu w Chicago stworzyli narzędzie o nazwie Nightshade, które pozwala artystom „zatruwać” ich sztukę cyfrową, aby uniemożliwić programistom wykorzystywanie jej do szkolenia systemów sztucznej inteligencji (AI). Narzędzie modyfikuje obrazy w sposób, który zanieczyszcza zbiory danych wykorzystywane do szkolenia AI nieprawidłowymi informacjami, powodując błędną interpretację obrazu przez system AI. Może na przykład sprawić, że sztuczna inteligencja uwierzy, że zdjęcie kota to w rzeczywistości pies i odwrotnie.

W rezultacie zdolność sztucznej inteligencji do generowania dokładnych i rozsądnych wyników byłaby zagrożona. Jeśli użytkownik zażądał od skażonej sztucznej inteligencji obrazu „kota”, może otrzymać psa oznaczonego jako kot lub kombinację wszystkich „kotów” ze zbioru szkoleniowego sztucznej inteligencji, łącznie z tymi, które w rzeczywistości są obrazami psów zmodyfikowanymi przez Nocny cień. Witalij Szmatikow, profesor na Uniwersytecie Cornell, stwierdził, że badacze „nie znają jeszcze solidnej obrony przed tymi atakami”, co sugeruje, że nawet silne modele, takie jak ChatGPT OpenAI, mogą być podatne na ataki.

Zespół badawczy odpowiedzialny za Nightshade, kierowany przez Bena Zhao, profesora na Uniwersytecie w Chicago, rozszerzył istniejące oprogramowanie do ochrony artystów o nazwie Glaze. W swojej poprzedniej pracy opracowali dla artystów metodę zaciemniania lub „glazurowania” stylu swoich dzieł sztuki. Nightshade zostanie ostatecznie zintegrowany z Glaze, który jest obecnie dostępny bezpłatnie w Internecie lub do pobrania.