Der jüngste Versuch eines Mannes, einen durch künstliche Intelligenz generierten Anwalts-Avatar in einem Berufungsverfahren einzusetzen, beeindruckte einen New Yorker Gerichtssaal, aber vielleicht nicht in der erhofften Weise. Laut „The Register“Bericht,Jerome Dewald, 74, hat ein Start-up gegründet, das behauptet, „künstliche Intelligenz zu nutzen, um die rechtliche Selbstverteidigung zu revolutionieren“. 

Am 26. März wurde DeWaard während einer Anhörung zum Arbeitsstreit scharf gerügt, weil er den Richter während seiner mündlichen Verhandlung nicht über die künstliche Intelligenz informiert hatte. Obwohl das Gericht DeWald erlaubte, das Video einzureichen, war Richterin Sallie Manzanet-Daniels verwirrt, als ein unbekannter Sprecher, der eindeutig nicht DeWald war, auf dem Bildschirm erschien.

„Moment mal“, unterbrach Manzanette-Daniels das Video, sobald der Avatar seinen ersten Satz beendet hatte. „Ist er in diesem Fall der Verteidiger?“

„Ich habe es erschaffen“, antwortete DeWald, „es ist keine echte Person.“

Der Avatar – ein „großer, gutaussehender Kerl“ namens Jim – wurde von einer Avatar-Firma mit künstlicher Intelligenz namens Tavus bereitgestellt. Dewald sagte, das Video sei eingereicht worden, weil er Schwierigkeiten beim Sprechen habe, das Gericht sei sich jedoch nicht bewusst gewesen, dass der Inhalt künstlich erzeugt worden sei.

„Es wäre schön gewesen, wenn Sie das gewusst hätten, als Sie sich beworben haben. Sie haben es mir nicht gesagt, Sir, und ich lasse mich nicht gerne in die Irre führen“, antwortete Manzanette-Daniels auf Dewalds Eingeständnis. „Sie betrachten dieses Gericht nicht als den Beginn Ihres Geschäfts.“

Es ist das Neueste in einer Reihe von Patzern, die auftreten, wenn Menschen versuchen, rechtliche Prozesse mit der Technologie der künstlichen Intelligenz zu kombinieren. Im Jahr 2023 wurden zwei Anwälte und eine Anwaltskanzlei bestraft, weil sie falsche, von ChatGPT fabrizierte Rechtsrecherchen eingereicht hatten. Das „Robo-Lawyer“-Unternehmen DoNotPay wurde im Februar außerdem zur Zahlung einer Abfindung in Höhe von 193.000 US-Dollar an die Federal Trade Commission verurteilt, weil es ohne Beweise behauptet hatte, dass seine Rechtsvertretungsdienste mit künstlicher Intelligenz genauso gut seien wie echte Anwälte.