KI im Rechtswesen: Qualität, Haftung, AI Act & Aufsicht

KI im Rechtswesen: Qualität, Haftung, AI Act & Aufsicht

·

·

Die rasan­te Inte­gra­ti­on Künst­li­cher Intel­li­genz (KI) ver­än­dert die Rechts­bran­che grund­le­gend. Wäh­rend KI-Sys­te­me das Poten­zi­al haben, die Effi­zi­enz und Pro­duk­ti­vi­tät in Kanz­lei­en und Rechts­ab­tei­lun­gen enorm zu stei­gern, wer­fen sie gleich­zei­tig kom­ple­xe Fra­gen hin­sicht­lich Qua­li­tät, Ver­ant­wort­lich­keit und recht­li­cher Com­pli­ance auf. Es ist ent­schei­dend, dass Juris­ten und Kanz­lei­en nicht nur die Chan­cen erken­nen, son­dern auch die damit ver­bun­de­nen Risi­ken ver­ste­hen und pro­ak­ti­ve Stra­te­gien ent­wi­ckeln, um die­se zu mana­gen.

Herausforderungen und Haftungsrisiken generativer KI im Rechtswesen

Gene­ra­ti­ve KI-Model­le wie Lar­ge Lan­guage Models (LLMs) sind in der Lage, Tex­te zu erstel­len, zu ana­ly­sie­ren und zusam­men­zu­fas­sen, was im juris­ti­schen Kon­text von unschätz­ba­rem Wert sein kann. Doch die­se Tech­no­lo­gien sind nicht feh­ler­frei. Ein bekann­tes Pro­blem sind soge­nann­te „Hal­lu­zi­na­tio­nen“, bei denen die KI fal­sche oder nicht exis­tie­ren­de Infor­ma­tio­nen gene­riert, ein­schließ­lich frei erfun­de­ner Zita­te oder Fund­stel­len. Ein aktu­el­les Bei­spiel aus dem Amts­ge­richt Köln, bei dem ein Anwalt einen Schrift­satz mit durch KI gene­rier­ten, fal­schen Zita­ten ein­reich­te, unter­streicht die Not­wen­dig­keit mensch­li­cher Prü­fung und Sorg­falt.

Haftungsrechtliche Zurechnung: Wer trägt die Verantwortung?

Die Fra­ge der Haf­tung bei Feh­lern, die durch KI-Sys­te­me ver­ur­sacht wer­den, ist zen­tral. Grund­sätz­lich gilt: Die KI selbst haf­tet nicht, da ihr eine eige­ne Rechts­per­sön­lich­keit fehlt. Die Ver­ant­wor­tung liegt statt­des­sen beim Ver­wen­der oder Betrei­ber des KI-Sys­tems – im Zwei­fel also beim Unter­neh­men oder der Kanz­lei, die KI-gene­rier­te Inhal­te nutzt und sich die­se zu eigen macht, sei es auf der Web­site, in Kun­den­un­ter­la­gen oder in der Rechts­be­ra­tung. Ein kana­di­sches Gericht hat bei­spiels­wei­se eine Flug­ge­sell­schaft für Fehl­in­for­ma­tio­nen durch ihren Chat­bot haft­bar gemacht, da das Unter­neh­men kei­ne ange­mes­se­nen Maß­nah­men zur Sicher­stel­lung der Rich­tig­keit der KI-Ant­wor­ten ergrif­fen hat­te.

Das deut­sche Bür­ger­li­che Gesetz­buch (BGB) regelt die Haf­tung für den Ein­satz von KI oder deren Man­gel­haf­tig­keit nicht expli­zit, doch es kom­men all­ge­mei­ne Haf­tungs­grund­sät­ze zur Anwen­dung. Zukünf­tig wird die Pro­dukt­haf­tungs­richt­li­nie (Prod­HaftRL) ange­passt, und ein Vor­schlag für eine EU-KI-Haf­tungs­richt­li­nie sieht spe­zi­fi­sche Regeln vor, um die Durch­set­zung von Scha­dens­er­satz­an­sprü­chen bei KI-ver­ur­sach­ten Schä­den zu erleich­tern. Dies beinhal­tet eine mög­li­che wider­leg­li­che Kau­sa­li­täts­ver­mu­tung, wenn ein Anbie­ter gegen Sorg­falts­pflich­ten ver­stößt und ein Scha­den ein­tritt. Das Phä­no­men der „Black Box“, also der man­geln­den Nach­voll­zieh­bar­keit von KI-Ent­schei­dun­gen, soll durch Offen­le­gungs­pflich­ten für Hoch­ri­si­ko-KI-Sys­te­me adres­siert wer­den.

Datenschutz und weitere Risiken

Ein wei­te­res signi­fi­kan­tes Risi­ko betrifft den Daten­schutz. Die Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten bei der Nut­zung von KI-Sys­te­men fällt unter das stren­ge Regime der Daten­schutz-Grund­ver­ord­nung (DSGVO). Dies umfasst nicht nur Regis­trie­rungs­da­ten, son­dern auch per­so­nen­be­zo­ge­ne Daten, die in Prompts ein­ge­ge­ben oder in hoch­ge­la­de­nen Doku­men­ten ent­hal­ten sein kön­nen. Die Über­tra­gung die­ser Daten auf Ser­ver in Dritt­län­dern, ins­be­son­de­re in den USA, kann zusätz­li­che daten­schutz­recht­li­che Pro­ble­me auf­wer­fen. Kanz­lei­en müs­sen daher sicher­stel­len, dass ihre KI-Nut­zung DSGVO-kon­form ist und geeig­ne­te tech­ni­sche und orga­ni­sa­to­ri­sche Maß­nah­men ergrif­fen wer­den.

Dar­über hin­aus kön­nen KI-Sys­te­me dis­kri­mi­nie­ren­de Ergeb­nis­se pro­du­zie­ren, wenn sie mit vor­ein­ge­nom­me­nen Daten trai­niert wur­den – ein Risi­ko, das bei­spiels­wei­se bei Rekru­tie­rungs-KIs auf­tre­ten kann. Sol­che Bias-Pro­ble­me stel­len erheb­li­che ethi­sche und recht­li­che Her­aus­for­de­run­gen dar.

Der EU AI Act: Ein regulatorischer Rahmen für die Anwaltschaft

Die Euro­päi­sche Uni­on hat mit dem EU AI Act (Ver­ord­nung (EU) 2024/1689) einen welt­weit ers­ten umfas­sen­den regu­la­to­ri­schen Rah­men für Künst­li­che Intel­li­genz geschaf­fen. Ziel ist es, Inno­va­ti­on zu för­dern und gleich­zei­tig hohe Stan­dards für den Schutz von Gesund­heit, Sicher­heit und Grund­rech­ten zu gewähr­leis­ten.

Risikobasierter Ansatz und Pflichten

Der AI Act ver­folgt einen risi­ko­ba­sier­ten Ansatz, der KI-Sys­te­me in vier Kate­go­rien ein­teilt:

  • Unan­nehm­ba­res Risi­ko: Prak­ti­ken, die fun­da­men­ta­le Rech­te ver­let­zen, sind strikt ver­bo­ten (z.B. mani­pu­la­ti­ves Ver­hal­ten, Social Scoring).
  • Hohes Risi­ko: Sys­te­me mit poten­zi­ell gra­vie­ren­den Aus­wir­kun­gen (z.B. in der Rechts­durch­set­zung, im Gesund­heits­we­sen oder bei der kri­ti­schen Infra­struk­tur) unter­lie­gen stren­gen Anfor­de­run­gen. Rechts­an­wäl­te und Legal Tech-Unter­neh­men fal­len als Anbie­ter und/oder Betrei­ber sol­cher Sys­te­me regel­mä­ßig in den Anwen­dungs­be­reich des AI Acts.
  • Gerin­ges Risi­ko: Für die­se Sys­te­me gel­ten Trans­pa­renz­pflich­ten.
  • Mini­ma­les Risi­ko: Sys­te­me ohne nen­nens­wer­te Risi­ken sind weit­ge­hend unre­gu­liert.

Für Anbie­ter (die KI-Sys­te­me ent­wi­ckeln oder auf den Markt brin­gen) und Betrei­ber (die KI-Sys­te­me beruf­lich ein­set­zen) von Hoch­ri­si­ko-KI-Sys­te­men erge­ben sich umfang­rei­che Pflich­ten. Dazu gehö­ren die Imple­men­tie­rung eines Risi­ko­ma­nage­ment­sys­tems, die Sicher­stel­lung von Trans­pa­renz (ein­schließ­lich der Kenn­zeich­nung KI-gene­rier­ter Inhal­te), die Ein­hal­tung der Daten­schutz-Grund­ver­ord­nung (DSGVO) sowie eine detail­lier­te Doku­men­ta­ti­on zur Nach­ver­folg­bar­keit von KI-Ent­schei­dun­gen.

Auswirkungen und Zeitplan

Der AI Act ist am 1. August 2024 in Kraft getre­ten, wobei die Rege­lun­gen schritt­wei­se bis 2027 Gül­tig­keit erlan­gen. Bei­spiels­wei­se tre­ten die Bestim­mun­gen zu ver­bo­te­nen KI-Prak­ti­ken bereits am 2. Febru­ar 2025 in Kraft, wäh­rend die Ein­stu­fun­gen für Hoch­ri­si­ko-KI-Sys­te­me erst im Som­mer 2027 ver­pflich­tend wer­den. Ver­stö­ße gegen die Ver­bo­te kön­nen emp­find­li­che Stra­fen von bis zu 35 Mil­lio­nen Euro oder 7% des glo­ba­len Jah­res­um­sat­zes nach sich zie­hen.

Für die Anwalt­schaft bedeu­tet dies, dass sie sich nicht nur mit den neu­en Com­pli­ance-Anfor­de­run­gen des AI Acts aus­ein­an­der­set­zen muss, son­dern auch prü­fen soll­te, wie sie KI sinn­voll nut­zen kann, ohne gegen bestehen­de berufs­recht­li­che Vor­schrif­ten zu ver­sto­ßen. Die Nicht­ein­hal­tung des AI Acts oder das Ver­säum­nis, KI-Risi­ken zu mana­gen, kann nicht nur zu finan­zi­el­len Stra­fen, son­dern auch zu Repu­ta­ti­ons­schä­den füh­ren.

Die Notwendigkeit menschlicher Aufsicht und robuster Qualitätskontrolle

Ange­sichts der poten­zi­el­len Risi­ken und der Kom­ple­xi­tät von KI-Sys­te­men ist die mensch­li­che Auf­sicht ein unver­zicht­ba­rer Pfei­ler für den siche­ren und ver­ant­wor­tungs­vol­len Ein­satz im Rechts­we­sen. Der AI Act ver­pflich­tet expli­zit zur wirk­sa­men mensch­li­chen Auf­sicht bei Hoch­ri­si­ko-KI-Sys­te­men (Arti­kel 14 AI Act).

Definition und Ziele der menschlichen Aufsicht

Mensch­li­che Auf­sicht bedeu­tet, dass natür­li­che Per­so­nen in der Lage sein müs­sen, den Betrieb eines Hoch­ri­si­ko-KI-Sys­tems wäh­rend des­sen gesam­ter Ein­satz­dau­er wirk­sam zu über­wa­chen und bei Bedarf ein­zu­grei­fen. Ziel ist es, Risi­ken für Gesund­heit, Sicher­heit und Grund­rech­te zu ver­hin­dern oder zu mini­mie­ren, die trotz Ein­hal­tung ande­rer Anfor­de­run­gen des AI Acts fort­be­stehen könn­ten.

Die Auf­sichts­per­son muss dabei „kau­sa­le Wirk­sam­keit“ über das Sys­tem haben, was bedeu­tet, dass sie in das Sys­tem ein­grei­fen und des­sen Ent­schei­dun­gen über­stim­men kön­nen muss. Dies erfor­dert ein tief­grei­fen­des Ver­ständ­nis der Fähig­kei­ten und Gren­zen des KI-Sys­tems, die Fähig­keit, Anoma­lien, Fehl­funk­tio­nen oder uner­war­te­te Leis­tun­gen zu erken­nen und zu behe­ben, sowie ein Bewusst­sein für den „Auto­ma­ti­sie­rungs­bi­as“ – die mög­li­che Ten­denz, sich über­mä­ßig auf die von der KI gene­rier­ten Aus­ga­ben zu ver­las­sen. Exper­ten for­dern hier­für kla­re „KI-Grund­re­geln“ für mensch­li­che Auf­sicht.

Qualitätskontrolle juristischer KI-Anwendungen

Die Qua­li­täts­kon­trol­le von durch KI gene­rier­ten Rechts­tex­ten und juris­ti­schen Ana­ly­sen ist von höchs­ter Bedeu­tung. KI-Sys­te­me kön­nen zwar eine hohe Ana­ly­se­treue errei­chen, wie bei­spiels­wei­se spe­zia­li­sier­te Legal AI Sui­ten, die eine bestän­dig hohe Ana­lys­qua­li­tät von über 92% auf­wei­sen kön­nen. Den­noch bleibt die mensch­li­che Über­prü­fung uner­läss­lich.

Feh­ler­ver­mei­dung beginnt bereits bei der Daten­qua­li­tät: KI-Sys­te­me sind nur so gut wie die Daten, mit denen sie trai­niert wer­den. Schlech­te, unvoll­stän­di­ge oder vor­ein­ge­nom­me­ne Daten füh­ren zu unzu­ver­läs­si­gen Ergeb­nis­sen. Eine gründ­li­che Daten­vor­be­rei­tung ist daher ent­schei­dend. Dar­über hin­aus sind kon­ti­nu­ier­li­che Über­wa­chung und die Anpas­sung von KI-Sys­te­men not­wen­dig, um Pro­ble­me früh­zei­tig zu erken­nen.

Für Anwäl­te bedeu­tet dies, dass sie KI-Tools als unter­stüt­zen­de Werk­zeu­ge betrach­ten soll­ten, die Rou­ti­ne­auf­ga­ben wie juris­ti­sche Recher­che, Doku­men­ten­ana­ly­se und Ent­wurfs­er­stel­lung erleich­tern kön­nen. Sie erset­zen jedoch nicht die juris­ti­sche Fach­kennt­nis, das kri­ti­sche Den­ken und die fina­le Ver­ant­wor­tung des Anwalts. Das bewuss­te Hin­ter­fra­gen und Prü­fen der von der KI bereit­ge­stell­ten Infor­ma­tio­nen ist eine Sorg­falts­pflicht.

Qualitätsmanagement und Risikominimierung in der Kanzlei

Ein pro­ak­ti­ves Qua­li­täts­ma­nage­ment und ein struk­tu­rier­tes Risi­ko­ma­nage­ment sind ent­schei­dend, um die Vor­tei­le von KI im Rechts­we­sen zu nut­zen und gleich­zei­tig die damit ver­bun­de­nen Risi­ken zu mini­mie­ren.

Implementierung interner Richtlinien und Compliance

Kanz­lei­en soll­ten kla­re Leit­li­ni­en und inter­ne Com­pli­ance-Maß­nah­men für den Ein­satz von KI defi­nie­ren. Dazu gehört:

  • Zie­le für den KI-Out­put fest­le­gen: Bevor KI-Anwen­dun­gen ein­ge­setzt wer­den, soll­ten Kanz­lei­en kla­re Zie­le für deren Out­put for­mu­lie­ren und regel­mä­ßig über­prü­fen, ob die­se erreicht wer­den.
  • Kon­trol­le statt blin­dem Ver­trau­en: KI ist nicht unfehl­bar. Ergeb­nis­se müs­sen stets gegen­prüft wer­den, oft reicht schon gesun­der Men­schen­ver­stand. Bei recht­li­chen Fra­gen soll­te KI nur ver­wen­det wer­den, wenn die Ant­wort selbst kon­trol­liert wer­den kann.
  • Daten­schutz-Com­pli­ance: Sicher­stel­len, dass die Nut­zung von KI den Anfor­de­run­gen der DSGVO ent­spricht, ins­be­son­de­re bei der Ver­ar­bei­tung per­so­nen­be­zo­ge­ner Daten.
  • Doku­men­ta­ti­on: Detail­lier­te tech­ni­sche Unter­la­gen und Pro­to­kol­le zur Nach­ver­folg­bar­keit von KI-Ent­schei­dun­gen sind wich­tig.

Aufbau eines spezifischen KI-Risikomanagementsystems

Ein effek­ti­ves KI-Risi­ko­ma­nage­ment ist der Schlüs­sel zur Mini­mie­rung von Risi­ken. Dies umfasst die Imple­men­tie­rung eines Sys­tems zur Iden­ti­fi­zie­rung, Bewer­tung und Min­de­rung poten­zi­el­ler Risi­ken, das spe­zi­ell auf die Bedürf­nis­se der Kanz­lei und die Anfor­de­run­gen des AI Acts zuge­schnit­ten ist. Die Nicht­ein­füh­rung eines sol­chen Manage­ments birgt selbst Risi­ken, da Wett­be­wer­ber bei Effi­zi­enz und Kos­ten die Nase vorn haben könn­ten. KI kann hier­bei sogar das Risi­ko- und Com­pli­ance-Manage­ment beschleu­ni­gen.

Kompetenzentwicklung und menschliche Expertise

Eine zen­tra­le Anfor­de­rung des EU AI Acts ist die Sicher­stel­lung eines aus­rei­chen­den Maßes an KI-Kom­pe­tenz inner­halb des Unter­neh­mens. Dies beinhal­tet:

  • Tech­ni­sches Ver­ständ­nis: Grund­kennt­nis­se über die Funk­ti­ons­wei­se von KI-Sys­te­men.
  • Recht­li­che und ethi­sche Aspek­te: Bewusst­sein für gesetz­li­che Vor­ga­ben und ethi­sche Impli­ka­tio­nen.
  • Risi­ko­be­wusst­sein: Fähig­keit, poten­zi­el­le gesell­schaft­li­che und daten­schutz­recht­li­che Risi­ken zu erken­nen und zu bewer­ten.

Die mensch­li­che Exper­ti­se bleibt dabei uner­setz­lich. KI-Tools sind her­vor­ra­gend für die Auto­ma­ti­sie­rung repe­ti­ti­ver Auf­ga­ben, aber sie kön­nen die Ver­ant­wor­tung oder Ent­schei­dungs­be­fug­nis des Rechts­an­walts nicht erset­zen. Die sorg­fäl­ti­ge Berufs­aus­übung des Anwalts (§ 43 BRAO) und die Pflicht zur per­sön­li­chen Leis­tungs­er­brin­gung (§ 613 BGB) blei­ben bestehen.

Chancen und Effizienzgewinne durch den verantwortungsvollen KI-Einsatz

Trotz der Her­aus­for­de­run­gen bie­tet der stra­te­gi­sche und qua­li­täts­ge­si­cher­te Ein­satz von KI enor­me Chan­cen für die Anwalt­schaft. KI-Tools kön­nen juris­ti­sche Arbeit in vie­len Berei­chen revo­lu­tio­nie­ren:

  • Juris­ti­sche Recher­che: KI-gestütz­te Such­sys­te­me kön­nen juris­ti­sche Daten­ban­ken intel­li­gent durch­su­chen und rele­van­te Recht­spre­chung, Geset­zes­tex­te und Fach­li­te­ra­tur prä­zi­ser iden­ti­fi­zie­ren, was tra­di­tio­nell eine der zeit­in­ten­sivs­ten Auf­ga­ben ist.
  • Auto­ma­ti­sier­te Doku­men­ten­er­stel­lung: KI kann bei der Erstel­lung von Ver­trä­gen und ande­ren juris­ti­schen Doku­men­ten unter­stüt­zen, indem sie Stan­dard­klau­seln mit benut­zer­de­fi­nier­ten Anfor­de­run­gen kom­bi­niert.
  • Ver­trags­prü­fung und ‑ana­ly­se: Spe­zia­li­sier­te KI-Tools kön­nen Ver­trä­ge in Sekun­den­schnel­le auf feh­len­de, feh­ler­haf­te oder regel­wid­ri­ge Klau­seln prü­fen, poten­zi­el­le Risi­ken und Com­pli­ance-Ver­stö­ße iden­ti­fi­zie­ren und Kor­rek­tur­vor­schlä­ge unter­brei­ten.
  • Man­dan­ten­kom­mu­ni­ka­ti­on: Chat­bots und vir­tu­el­le Assis­ten­ten kön­nen grund­le­gen­de recht­li­che Fra­gen beant­wor­ten und so die Arbeits­be­las­tung redu­zie­ren.
  • Risi­ko- und Com­pli­ance-Manage­ment: KI kann dabei hel­fen, Risi­ken recht­zei­ti­ger zu erken­nen und Com­pli­ance-Pro­zes­se zu beschleu­ni­gen.

Die­se Effi­zi­enz­ge­win­ne ermög­li­chen es Anwäl­ten, sich von Rou­ti­ne­auf­ga­ben zu ent­las­ten und sich auf anspruchs­vol­le­re, stra­te­gi­sche und wert­schöp­fen­de Tätig­kei­ten zu kon­zen­trie­ren, bei denen Empa­thie, ethi­sche Urteils­fä­hig­keit und krea­ti­ves Pro­blem­lö­sen unver­zicht­bar sind.

Fazit

Die Inte­gra­ti­on von Künst­li­cher Intel­li­genz in das Rechts­we­sen ist eine unum­kehr­ba­re Ent­wick­lung, die sowohl enor­me Poten­zia­le als auch signi­fi­kan­te Her­aus­for­de­run­gen mit sich bringt. Der EU AI Act eta­bliert einen kla­ren regu­la­to­ri­schen Rah­men, der Kanz­lei­en und Legal Tech-Anbie­ter vor die Auf­ga­be stellt, ihre Pro­zes­se anzu­pas­sen und stren­ge Anfor­de­run­gen an Trans­pa­renz, Sicher­heit und Ver­ant­wort­lich­keit zu erfül­len. Mensch­li­che Auf­sicht und eine umfas­sen­de Qua­li­täts­kon­trol­le sind dabei nicht nur recht­li­che Pflich­ten, son­dern essen­zi­el­le Bestand­tei­le eines ver­ant­wor­tungs­vol­len KI-Ein­sat­zes. Die Fähig­keit, KI-Ergeb­nis­se kri­tisch zu prü­fen, inter­ne Risi­ko­ma­nage­ment­sys­te­me zu imple­men­tie­ren und Mit­ar­bei­ter kon­ti­nu­ier­lich zu schu­len, wird dar­über ent­schei­den, wel­che Kanz­lei­en die Chan­cen der digi­ta­len Trans­for­ma­ti­on erfolg­reich nut­zen und sich gleich­zei­tig recht­lich absi­chern kön­nen. Letzt­lich bleibt die KI ein mäch­ti­ges Werk­zeug, des­sen Nut­zen maß­geb­lich von der Kom­pe­tenz und dem Urteils­ver­mö­gen der mensch­li­chen Juris­ten abhängt.


Schreibe einen Kommentar