• KasimirDD@feddit.orgOP
    link
    fedilink
    Deutsch
    arrow-up
    7
    ·
    13 days ago

    Interessante Argumentation des Richters:

    Grundsätzlich handele es sich beim Training großer Sprachmodelle um einen “spektakulär transformativen” Prozess, der deshalb eindeutig unter die Fair-Use-Regel falle. Firmen wie Anthropic nutzen die Bücher der Kläger nicht, um sie zu replizieren und die Autoren mit Kopien zu verdrängen, argumentiert er in der Urteilsbegründung. Stattdessen erschaffen sie mithilfe der erlernten Informationen etwas Neues. So wie ein Mensch Bücher lese, um vielleicht selbst Schriftsteller zu werden, machen sich demnach auch die großen Sprachmodelle bloß das vorhandene Wissen zunutze, um daraus zu lernen.

    • adventor@lemmy.world
      link
      fedilink
      arrow-up
      8
      ·
      13 days ago

      Heißt das wenn ich sage, dass ich auch mal Schriftsteller werden will, kann ich ab heute Bücher kostenlos lesen? Cool!

      • KasimirDD@feddit.orgOP
        link
        fedilink
        Deutsch
        arrow-up
        5
        ·
        13 days ago

        Nee, eben nicht. Steht weiter hinten: du musst sie kaufen bevor du sie liest. Und das hat Antrophic nicht getan.

        • Successful_Try543@feddit.org
          link
          fedilink
          arrow-up
          1
          ·
          edit-2
          13 days ago

          Das haben sie in der Vergangenheit vor allem bei E-Books bisweilen nicht getan. Zuletzt haben sie containerweise gebrauchte physische Bücher eingescannt, die sie zuvor legal erworbenen hatten.

          Arstechnica.com

  • Zacryon@feddit.org
    link
    fedilink
    arrow-up
    4
    ·
    13 days ago

    Das Unternehmen argumentierte, die Nutzung geschützter Werke für KI-Training falle unter Fair Use, da eine kreative und transformative Änderung des Ausgangsmaterials stattfinde.

    Transformativ sei mal dahingestellt. Man hat nun schon mehr als ein Mal bewiesen, dass man viele Trainingsdaten aus den Modellen wieder herstellen kann (Beispiel). Darüber hinaus, bzgl. Transformerbasierten KI Modellen, wie eben auch LLMs: Je spezifischer man seine Anfrage formuliert, desto wahrscheinlicher wird es, dass genau solche Trainingsdaten nahezu im Original wiedergegeben werden, da man dadurch die Generalisierung in Teilen überbrücken kann. So habe ich es schon einige Male geschafft Textsegmente aus (Lehr-)Büchern oder wissenschaftlichen Arbeiten eins zu eins von einer LLM rekonstruieren zu lassen, oder mit Suno die sehr charakteristische Stimme eines bestimmten Sängers nutzen zu lassen. Ein Mensch lernt die Bücher, die er liest, in der Regel nichg auswendig. Eine LLM schon eher. Ein Mensch kann die Stimme anderer Menschen in der Regel nicht gut nachahmen. Eine KI schon.

    In einer kapitalistischen Gesellschaft ist das ein Problem, da das Urheberrecht hier eine kritische finanzielle Rolle spielt. Daher muss es strenge Regulierungen für die kommerzielle Entwicklung und Nutzung von KI geben.

    Wobei ich persönlich der Meinung bin, dass Robotik & KI nach einer kommunistischen Gesellschaftsform verlangen, in der es kein auf Individuen beschränktes, profitakkumulierendes Handeln gibt. Wenn eines Tages sämtliche Arbeit von Robotern übernommen wird, ist da eben weder viel Platz noch die Notwendigkeit für menschliche Arbeit. Die geschaffenen Güter müssen dann zwangsweise gerecht verteilt werden, da es dann, bis auf gewisse Ressourcen, keine Verknappung mehr geben kann, auf die ein kapitalistischer Markt aufbaut. Ebenso ist das Urheberrecht in einer Gesellschaft, in der Geld keine tragende Rolle zukommt, nur noch in Form von Autorattribution relevant. Wenn Autorys nicht befürchten müssen durch unbegrenzte Verfielfältigung ihrer Werke zu verarmen und vor die Hunde zu gehen, ist es auf gut Deutsch gesagt auch scheiß egal, wer sich das wie oft kopiert und an wen verteilt. Dann geht es nur noch des Rufes wegen darum zu verhindern, dass niemand fremde Werke als sein eigenes Schaffen ausgibt.