KI-Tools sind revolutionär und können jetzt Gespräche führen, menschenähnlichen Text generieren und Bilder basierend auf einem einzigen Wort erstellen. Die von diesen KI-Tools verwendeten Trainingsdaten stammen jedoch häufig aus urheberrechtlich geschützten Quellen, insbesondere wenn es um Text-zu-Bild-Generatoren wie DALL-E, Midjourney und andere geht.
Generative KI-Tools zu stoppen, die urheberrechtlich geschützte Bilder zum Trainieren verwenden, ist schwierig, und Künstler aus allen Gesellschaftsschichten haben Mühe, ihre Arbeit vor KI-Trainingsdatensätzen zu schützen. Aber jetzt ändert sich alles mit der Einführung von Nightshade, einem kostenlosen KI-Tool, das entwickelt wurde, um die Ausgabe generativer KI-Tools zu vergiften – und Künstlern endlich die Möglichkeit zu geben, etwas Macht zurückzugewinnen.
Unter KI-Vergiftung versteht man die „Vergiftung“ des Trainingsdatensatzes eines KI-Algorithmus. Dies ähnelt der absichtlichen Übermittlung falscher Informationen an die KI, was dazu führt, dass die trainierte KI nicht richtig funktioniert oder kein Bild erkennt. Tools wie Nightshade verändern die Pixel in einem digitalen Bild so, dass es für das menschliche Auge völlig anders als das darauf trainierte KI-Training erscheint, für das menschliche Auge jedoch weitgehend unverändert vom Original.
Wenn Sie beispielsweise ein vergiftetes Bild eines Autos ins Internet hochladen, wird es für uns Menschen genauso aussehen, aber wie eine KI, die versucht, sich selbst beizubringen, Autos anhand von Bildern von Autos zu identifizieren Im Internet wird man etwas ganz anderes sehen.
Eine ausreichend große Stichprobengröße dieser gefälschten oder verfälschten Bilder in den Trainingsdaten einer KI kann ihre Fähigkeit beeinträchtigen, aus einer bestimmten Eingabeaufforderung genaue Bilder zu generieren, da das Verständnis der KI für das Objekt beeinträchtigt ist.
Es gibt noch einige Fragen zur Zukunft der generativen KI, aber der Schutz originaler digitaler Werke hat definitiv Priorität. Dies kann sogar zukünftige Iterationen des Modells beschädigen, da die Trainingsdaten, auf denen die Grundlage des Modells aufbaut, nicht 100 % korrekt sind.
Mit dieser Technik können digitale Urheber, die der Verwendung ihrer Bilder in KI-Datensätzen nicht zustimmen, diese davor schützen, dass sie ohne Erlaubnis der generativen KI zugeführt werden. Einige Plattformen bieten Erstellern die Möglichkeit, die Aufnahme ihrer Kunstwerke in KI-Trainingsdatensätze abzulehnen. Solche Opt-out-Listen wurden jedoch in der Vergangenheit von KI-Modelltrainern missachtet und werden auch weiterhin ohne oder mit geringen Konsequenzen missachtet.
Im Vergleich zu anderen Tools zum Schutz digitaler Kunstwerke wie Glaze ist Nightshade anstößig. Glaze verhindert, dass KI-Algorithmen den Stil eines bestimmten Bildes nachahmen, während Nightshade das Erscheinungsbild des Bildes an die KI anpasst. Beide Tools wurden von Ben Zhao, Professor für Informatik an der University of Chicago, entwickelt.
Der Ersteller des Tools empfiehlt zwar die Verwendung von Nightshade zusammen mit Glaze, es kann jedoch auch als eigenständiges Tool zum Schutz Ihrer Kunstwerke verwendet werden. Auch die Verwendung des Tools ist recht einfach, wenn man bedenkt, dass zum Schutz Ihrer Bilder mit Nightshade nur drei Schritte erforderlich sind.
Es gibt jedoch ein paar Dinge, die Sie beachten müssen, bevor Sie beginnen.
Nightshade ist nur für Windows und MacOS mit eingeschränkter GPU-Unterstützung und mindestens 4 GB VRAM verfügbar. Nicht-Nvidia-GPUs und Intel-Macs werden derzeit nicht unterstützt. Hier ist eine Liste der vom Nightshade-Team unterstützten Nvidia-GPUs (die GTX- und RTX-GPUs finden Sie im Abschnitt „CUDA-fähige GeForce- und TITAN-Produkte“). Alternativ können Sie Nightshade auf Ihrer CPU ausführen, dies führt jedoch zu einer langsameren Leistung. Wenn Sie eine GTX 1660, 1650 oder 1550 haben, kann ein Fehler in der PyTorch-Bibliothek Sie daran hindern, Nightshade ordnungsgemäß zu starten oder zu verwenden. Das Team hinter Nightshade könnte das Problem in Zukunft beheben, indem es von PyTorch auf Tensorflow umsteigt, aber derzeit gibt es keine Problemumgehungen. Das Problem erstreckt sich auch auf die Ti-Varianten dieser Karten. Ich habe das Programm gestartet, indem ich auf meinem Windows 11-PC Administratorzugriff gewährte und einige Minuten wartete, bis es geöffnet wurde. Ihr Kilometerstand kann variieren. Wenn Ihr Kunstwerk viele feste Formen oder Hintergründe aufweist, kann es zu Artefakten kommen. Dem kann durch eine geringere Intensität der „Vergiftung“ entgegengewirkt werden.Was den Schutz Ihrer Bilder mit Nightshade betrifft, müssen Sie Folgendes tun. Beachten Sie, dass in diesem Handbuch die Windows-Version verwendet wird, diese Schritte jedoch auch für die macOS-Version gelten.
Laden Sie die Windows- oder macOS-Version von der Nightshade-Downloadseite herunter. Nightshade wird als archivierter Ordner heruntergeladen, ohne dass eine Installation erforderlich ist. Sobald der Download abgeschlossen ist, extrahieren Sie den ZIP-Ordner und doppelklicken Sie auf Nightshade.exe, um das Programm auszuführen. Wählen Sie das Bild aus, das Sie schützen möchten, indem Sie oben links auf die Schaltfläche „Auswählen“ klicken. Sie können auch mehrere Bilder gleichzeitig für die Stapelverarbeitung auswählen. Passen Sie die Intensitäts- und Renderqualitätsregler nach Ihren Wünschen an. Höhere Werte führen zu einer stärkeren Vergiftung, können aber auch zu Artefakten im Ausgabebild führen. Klicken Sie anschließend im Abschnitt „Ausgabe“ auf die Schaltfläche „Speichern unter“, um ein Ziel für die Ausgabedatei auszuwählen. Klicken Sie unten auf die Schaltfläche „Nightshade ausführen“, um das Programm auszuführen und Ihre Bilder zu verfälschen.Optional können Sie auch ein Poison-Tag auswählen. Wenn Sie dies nicht tun, erkennt Nightshade automatisch ein einzelnes Wort-Tag und schlägt es vor. Sie können es jedoch ändern, wenn es falsch oder zu allgemein ist. Beachten Sie, dass diese Einstellung nur verfügbar ist, wenn Sie ein einzelnes Bild in Nightshade verarbeiten.
Wenn alles gut geht, sollten Sie ein Bild erhalten, das für das menschliche Auge genauso aussieht wie das Original, sich aber völlig von einem KI-Algorithmus unterscheidet – und Ihr Kunstwerk vor generativer KI schützt.
Haftungsausschluss: Alle bereitgestellten Ressourcen stammen teilweise aus dem Internet. Wenn eine Verletzung Ihres Urheberrechts oder anderer Rechte und Interessen vorliegt, erläutern Sie bitte die detaillierten Gründe und legen Sie einen Nachweis des Urheberrechts oder Ihrer Rechte und Interessen vor und senden Sie ihn dann an die E-Mail-Adresse: [email protected] Wir werden die Angelegenheit so schnell wie möglich für Sie erledigen.
Copyright© 2022 湘ICP备2022001581号-3