Foto:

ključne točke

  • Inovativno orodje Nightshade neopazno spreminja slike in tako oslabi modele za usposabljanje umetne inteligence.
  • Varuje posamezne umetnike, saj zmede poskuse umetne inteligence, da bi posnemala njihove sloge.
  • Prizadevanja umetnikov za zaščito njihovih del predstavljajo izziv za razvijalce umetne inteligence in sprožajo pravne razprave o vsebinah, ki jih ustvarja umetna inteligenca.

Umetniki, ki se želijo boriti proti tehnološkim podjetjem, ki njihova dela uporabljajo za usposabljanje umetne inteligence, imajo po zaslugi skupine raziskovalcev novo strategijo: v umetniško delo je treba vnesti diskreten motilnik, ki bo oslabil generator umetne inteligence.

Ben Zhao, profesor računalništva na Univerzi v Chicagu in glasen nasprotnik metod zbiranja podatkov umetne inteligence, je za revijo MIT Technology Review povedal o njihovem inovativnem orodju "Nightshade". To orodje je zasnovano tako, da ogrozi vsak model, ki za usposabljanje umetne inteligence uporablja slike. Prej so se umetniki lahko podjetjem za umetno inteligenco uprli le s pravnimi postopki ali pa so se zanašali, da bodo razvijalci upoštevali njihove želje po izključitvi.

Orodje spreminja slike na ravni slikovnih pik na tako neopazen način, da ga človeško oko ne zazna. Ko se modeli umetne inteligence, kot je Stable Diffusion XL podjetja Stability AI, usposobijo na velikem številu teh spremenjenih slik, se njihova zmogljivost poslabša. Na primer, ko je model SDXL uvedel te spremenjene vzorce podatkov, je napačno razlagal besedo "avto" kot "krava" in "pes" kot "mačka". Zahteve za "risane" sloge so povzročile rezultate, ki so bili podobni impresionistični umetnosti 19. stoletja.

To orodje ščiti tudi posamezne umetnike. Na primer, ko je bil SDXL zaprošen za posnemanje sloga priznanega znanstvenofantastičnega in fantazijskega umetnika Michaela Whelana, se je z okuženim modelom ustvarilo nekaj, kar se je močno razlikovalo od Whelanovega značilnega sloga.

Za nastanek takšnih anomalij bi bilo potrebnih na stotine ali celo tisoče takšnih spremenjenih slik, odvisno od velikosti modela umetne inteligence. To razkritje lahko spodbudi razvijalce generatorjev umetne inteligence, da bodo bolj previdni pri pridobivanju podatkov za usposabljanje z interneta.

Družba Stability AI je izrazila svojo zavezanost pravičnemu zastopanju in zmanjšanju pristranskosti. Izpostavili so svoja prizadevanja za diverzifikacijo nabora podatkov za SDXL 1.0 z uporabo naprednih filtrov za doseganje globalne zastopanosti. Podjetje si nenehno prizadeva izboljšati svoje modele, da bi zmanjšalo pristranskost.

V zvezi z uporabo orodij za umetnike za preprečevanje usposabljanja umetne inteligence je Zhao, ki je bil tudi pionir podjetja Glaze, razvil " stilski plašč" za zaščito slik umetnikov. To orodje spreminja slikovne piksle, da zmede generatorje umetne inteligence, ki poskušajo posnemati umetnikov slog. Drugo orodje, Nightshade, bo vključeno v Glaze. Čeprav je tudi to orodje odprtokodno, ponuja zaščito pred tehnikami usposabljanja umetne inteligence, ki pridobivajo podatke.

{{article-ad}}

{{related}}

Številni so poskušali zaščititi slike pred zlorabo umetne inteligence, vendar večini ni uspelo preprečiti pridobivanja podatkov, ki se uporablja pri usposabljanju umetne inteligence. Nightshade izstopa kot pomembno prizadevanje na tem področju za zaščito del umetnikov.

Prizadevanja potekajo tudi za razlikovanje slik, ustvarjenih z umetno inteligenco, od resničnih. Podjetje DeepMind, ki je v lasti Googla, je predstavilo sistem za vodni znak, s katerim lahko zazna slike, ustvarjene z umetno inteligenco, s prefinjenim spreminjanjem pikslov, podobno kot Nightshade. Večja podjetja za umetno inteligenco so se zavezala, da bodo svoje vsebine, ustvarjene z umetno inteligenco, označevala z vodnimi znaki, čeprav obstoječi ukrepi, kot so Adobejeve oznake za umetno inteligenco, niso dovolj pregledni.

Umetniški izzivi umetne inteligence

Nightshade predstavlja izziv za podjetja, kot je DeviantArt, ki za usposabljanje svoje umetne inteligence uporabljajo vsebine umetnikov. DeviantArt se je zaradi svojega generatorja umetne inteligence soočil z nasprotovanjem svoje skupnosti. Uporaba Nightshade za "zastrupitev" številnih slik bi lahko razvijalce prisilila v ročno odkrivanje takšnih slik ali popolno preoblikovanje njihovih modelov.

Vendar bodo obstoječi modeli, kot sta SDXL in DALL-3, ki že uporabljajo vsebino umetnikov, ostali nespremenjeni. Podjetja, kot so Stability AI, Midjourney in DeviantArt, so se zaradi uporabe avtorsko zaščitenih umetniških del pri usposabljanju umetne inteligence soočila s pravnimi izzivi. Več tožb je bilo usmerjenih proti tehnološkim velikanom, kot so Google, Meta in OpenAI, zaradi nedovoljene uporabe avtorsko zaščitenih vsebin. Ta podjetja trdijo, da je vsebina, ki jo ustvari umetna inteligenca na podlagi podatkov za usposabljanje, poštena uporaba.

Podjetje OpenAI je v svoji raziskavi zapisalo, da njegov najnovejši generator umetniških del ustvarja bolj realistične slike, ker je usposobljen na podlagi podrobnih napisov iz svojih orodij. Čeprav ne želijo razkriti podrobnosti svojih podatkov za usposabljanje umetne inteligence, se boj proti zlorabi umetne inteligence morda krepi. Z razvojem umetne inteligence se povečuje njena potreba po podatkih, zaradi česar morajo umetniki razviti še močnejšo obrambo.

Vir:
Gizmodo

Naročite se in prejmite sveže novice v svoj e-poštni predal.

Največ dvakrat tedensko prejmite izbor najboljših novic v vaš poštni nabiralnik.

Prijava na novice