New York Times verbannt KI
Die New York Times blockiert seit kurzem die Sammlung seiner Daten und Inhalte für das Training von KI-Modellen. Wie die KI-Industrie darauf reagieren wird, soll sich demnächst zeigen, jedoch gibt es schon erste Anpassungen an Webcrawlern und Lizenzvereinbarungen, um den Datenfluss aufrecht zu erhalten und rechtskonform zu machen.
Mit einer Anpassung seiner Nutzungsbedingungen hat die New York Times ein Verbot gegen die Nutzung ihrer Inhalte für KI-Training eingeführt. Wie "Adweek" berichtet, trat die Änderung am 3. August 2023 in Kraft. Inhalte seien unter anderem als Text, Fotografie, Bilder, Illustrationen, Designs, Audio- und Videoclips, "Look und Feel" und Metadaten definiert. Zudem verbieten die neuen Nutzungsbedingungen auch Webcrawlern, die Daten zum Trainieren von Large Language Models (LLMs) wie ChatGPT oder Google Bard zu verwenden. Laut der Nutzungsbedingungen könnte ein Verstoss Strafen nach sich ziehen, welche jedoch bisher nicht weiter definiert wurden.
Trotzdem scheint die New York Times laut "The Verge" keine Anpassungen vorgenommen zu haben, die Webcrawler darüber informiert, auf welche Seiten sie zugreifen können. Wie "Adweek" weiter berichtet, lancierte OpenAI in der vergangenen Woche zudem GPTBot, einen neuen Webcrawler zum Trainieren von KI der sich an eben jene Regeln halten würde. Andere KIs wie Microsoft Bing und Google Bard hätten ihren Crawlern solche Funktionalitäten bisher noch nicht hinzugefügt - wodurch Verleger wenig Einfluss darauf hätten, welche Inhalte zum Training genutzt werden.
Obwohl bisher unklar sei, wie KI-Unternehmen auf diese neuen Nutzungsbedingungen reagieren werden, hätten sie doch ein Eigeninteresse, sich an an jene Regeln zu halten um sich vor rechtlichen Problemen zu schützen. Diese jüngsten Entwicklungen würden auch zu Lizenzvereinbarungen führen, heisst es weiter. So bestände inzwischen ein Deal zwischen OpenAI und der Associated Press (AP), welcher vorsieht, dass AP für die Nutzung ihrer Inhalte zum Training von KIs bezahlt wird. Diese Deals kämen nicht nur aus monetären Gründen zustande, sondern auch um eine richtige Akkreditierung der Inhalte mittels Fussnoten zu gewährleisten, und zugleich Fact-Check-Prozesse zu etablieren, die die Generierung falscher Informationen verhindern sollen.
Dass KI-Unternehmen transparenter und bedachter in ihrem Umgang mit Daten werden müssen, zeigt auch eine Sammelklage gegen OpenAI und Microsoft wegen massiven Datenmissbrauchs. Hier erfahren Sie mehr.