Ki fizet, ha az AI megsérti a szerzői jogokat?

A generatív mesterséges intelligencia (AI) megjelenése forradalmasíthatja a kreatív iparágakat azáltal, hogy jelentősen csökkenti a tartalom-előállítás korlátait. Miközben sokan ünneplik az AI-eszközök kreatív potenciálját, népszerűségük számos kérdést vet fel a szellemi tulajdonjogok és a szerzői jogi védelem tekintetében.

A ChatGPT-hez hasonló generatív AI eszközök hatalmas adatmennyiségen betanított alapmodellek segítségével működnek. Ezek a modellek az internetről gyűjtött szövegek és képek milliárdjain tanulnak, és olyan hatékony gépi tanulási módszereket alkalmaznak, mint a mélytanulás és a transzfertanulás. Így képesek megérteni az adatelemek közötti összefüggéseket, és az emberi gondolkodást utánzó széles feladatkört ellátni.

A probléma az, hogy az AI által generált kimenet nagyon hasonló lehet a szerzői joggal védett anyagokhoz. Még ha figyelmen kívül hagyjuk is, hogyan tanítják be a generatív modelleket, a fő kihívás az, hogyan vonhatók felelősségre a magánszemélyek és a vállalatok, ha az AI által létrehozott tartalom megsérti a szerzői jogokat.

Amikor a promptok szerzői jogsértéshez vezetnek

Kutatók és újságírók rámutattak, hogy szelektív promptolási stratégiákkal az emberek akaratlanul is létrehozhatnak olyan szöveget, képet vagy videót, amely sérti a szerzői jogokat. A generatív AI eszközök jellemzően úgy adják ki a tartalmat, hogy nem figyelmeztetnek az esetleges jogsértésre. Felmerül tehát a kérdés, hogyan biztosítható, hogy a felhasználók ne sértsék meg tudtukon kívül a szerzői jogi védelmet.

Az AI-cégek jogi érvelése szerint a szerzői joggal védett műveken betanított MI nem sérti a szerzői jogokat, mivel ezek a modellek nem másolják a tanítóadatokat, hanem az írások és képek elemeinek, például a szavaknak és a pixeleknek az összefüggéseit tanulják meg. A Stable Diffusion képgenerátor készítője, a Stability AI és más cégek azzal érvelnek, hogy egy adott szöveges promptra adott kimeneti kép valószínűleg nem fog szorosan hasonlítani a tanítóadatok egyetlen konkrét képére sem.

Egyes könyvvizsgálati tanulmányok azonban kimutatták, hogy a generatív MI végfelhasználói olyan promptokat adhatnak ki, amelyek a szerzői jogokkal védett tartalomhoz szorosan hasonlító művek előállításával szerzői jogsértést eredményeznek.

Hogyan építsünk korlátokat?

A számítógépes látással foglalkozó kutatók régóta foglalkoznak azzal a kérdéssel, hogyan lehet felismerni a szerzői jogi jogsértéseket, például a hamisított logókat vagy a szabadalommal védett képeket. Olyan módszereket is vizsgáltak, amelyek segíthetnek a hamisított termékek azonosításában a logófelismerés révén. Ezek a módszerek hasznosak lehetnek a szerzői jogsértések felderítésében. A tartalomeredetet és hitelességet megállapító módszerek szintén segíthetnek.

A modellek betanítása tekintetében a mesterséges intelligencia kutatói olyan módszereket javasoltak, amelyekkel a generatív MI-modellek "elfelejthetik" a szerzői joggal védett adatokat. Egyes MI-cégek, mint az Anthropic, bejelentették, hogy nem használják fel ügyfeleik által előállított adatokat a fejlett modellek, például az Anthropic nagy nyelvi modelljének, a Claude-nak a betanítására. Az olyan MI-biztonsági módszerek, mint a "red teaming" - amikor megpróbálják az MI-eszközöket rosszul viselkedésre kényszeríteni -, vagy annak biztosítása, hogy a modellbetanítási folyamat csökkentse a generatív MI kimenetei és a szerzői joggal védett anyagok közötti hasonlóságot, szintén segíthetnek.

A szabályozás szerepe

Az emberi alkotók tudják, hogy el kell utasítaniuk az olyan tartalmak előállítására vonatkozó kéréseket, amelyek sértik a szerzői jogokat. Tudnak-e az MI-cégek hasonló korlátokat beépíteni a generatív MI-ba?

Nincsenek bevett módszerek az ilyen korlátok generatív MI-ba építésére, és nyilvános eszközök vagy adatbázisok sem állnak rendelkezésre, amelyeket a felhasználók a szerzői jogsértések megállapítására használhatnának. Még ha lennének is ilyen eszközök, túlzott terhet róhatnának mind a felhasználókra, mind a tartalomszolgáltatókra.

Tekintettel arra, hogy a naiv felhasználóktól nem várható el, hogy megtanulják és kövessék a bevált gyakorlatokat a szerzői joggal védett anyagok megsértésének elkerülése érdekében, a politikai döntéshozóknak és a szabályozásnak is szerepe van. A szerzői jogi biztonság bevált gyakorlatainak biztosításához jogi és szabályozási iránymutatások kombinációjára lehet szükség.

A generatív AI-modelleket fejlesztő vállalatok például szűréssel vagy a modellkimenetek korlátozásával korlátozhatnák a szerzői jogsértéseket. Hasonlóképpen, szabályozói beavatkozásra lehet szükség annak biztosítása érdekében, hogy a generatív MI-modellek építői olyan módon építsék fel az adatkészleteket és tanítsák be a modelleket, amely csökkenti annak kockázatát, hogy termékeik kimenete megsértse az alkotók szerzői jogait.

Népszerű bejegyzések