• KI-Chatbots_1680

    Missbrauch und Unzuverlässigkeit

    KI-Chatbots haben Grenzen

KI-Chat­bots kön­nen be­geis­tern, so­gar nütz­lich sein und Auf­ga­ben über­neh­men. Die Tech­no­lo­gie da­hin­ter birgt aber auch gro­ßes Miss­brauchs­po­ten­zi­al. Was kommt da auf Nut­ze­rin­nen und Nut­zer zu?

30. Juni 2023

KI-Chat­bots er­zeu­gen Tex­t von­ erstaunlich hoher ­Quali­t­ät:­ An­schre­iben, ­Zusam­­menfas­­sungen, Aufsätze­, V­ergle­ic­he, Ge­schi­ch­ten in einem b­estimm­te­n S­chreib­stil ­– o­de­r so­gar fu­nk­tio­nie­ren­den Pro­gramm­co­de. Die Bots be­ar­bei­ten, prü­fen, ana­ly­sie­ren oder über­set­zen aber auch be­lie­bi­gen Text und Co­de. Das al­les kann un­ter­halt­sam bis nütz­lich sein. Gleich­zei­tig birgt der Ein­satz die­ser Tech­no­lo­gie „neu­ar­ti­ge IT-Si­cher­heits­ri­si­ken und ver­stärkt das Be­drohungs­po­ten­zi­al ei­ni­ger be­kann­ter IT-Si­cher­heits­be­droh­ungen“. Zu die­sem Schluss kommt das Bun­des­amt für Si­cher­heit in der In­for­ma­tions­tech­nik (BSI) in ei­nem Positionspapier.
Hin­ter je­dem KI-Chat­bot steht ein so­ge­nann­tes Sprach­mo­dell. Gro­ße KI-Sprach­mo­del­le, auch Lar­ge Language Models (LLMs) ge­nannt, sind Com­pu­ter­pro­gram­me, die in der La­ge sind, na­tür­li­che Spra­che in ge­schrie­be­ner Form au­to­ma­ti­siert zu ver­ar­bei­ten. Be­kann­te Mo­del­le sind etwa GPT von OpenAI oder Palm von Google. Palm ver­wen­det Google für sei­nen Chat­bot Bard. Und GPT kommt bei ChatGPT oder dem Bing-Chat von Mi­cro­soft zum Ein­satz. Das BSI nennt fol­gen­de be­kann­te Be­droh­ungen, die KI-Sprach­mo­del­le wei­ter ver­stär­ken kön­nen:
  • Das Er­stel­len oder Ver­bes­sern von Schad­soft­wa­re.
  • Das Er­zeu­gen von Spam- und Phishing-Mails un­ter Aus­nut­zung mensch­li­cher Ei­gen­schaf­ten wie Hilfs­be­reit­schaft, Ver­trau­en oder Angst (Social Engineering).
  • Da­bei kön­nen Sprach­mo­del­le den Schreib­stil der Tex­te in den Mails so an­pas­sen, dass er dem ei­ner be­stimm­ten Or­ga­ni­sa­tion oder Per­son ähn­elt.
  • Die bei Spam- und Phishing-Mails bis­lang häu­fig an­zu­tref­fen­den Recht­schreib- oder Gram­ma­tik­feh­ler, die hel­fen kön­nen, sol­che Nach­rich­ten zu er­ken­nen, fin­den sich in den au­to­ma­tisch ge­ne­rier­ten Tex­ten mitt­ler­wei­le kaum mehr.
  • Nicht nur zah­len­mä­ßig dürf­ten sich E-Mail-An­grif­fe mit­hil­fe von KI-Sprach­mo­del­len mit ver­hält­nis­mä­ßig ge­rin­gem Auf­wand stei­gern. Die Nach­rich­ten las­sen sich ver­mit­tels der Mo­del­le auch noch über­zeu­gen­der ge­stal­ten.
Und das sind ganz neue Pro­ble­me und Be­dro­hun­gen durch KI-Sprach­mo­del­le, die das BSI identifiziert hat:
  • Ein gro­ßes Ri­si­ko ist, dass An­grei­fer Ein­ga­ben von Nut­ze­rin­nen oder Nut­zern heim­lich in ein Sprach­mo­dell um­lei­ten, um den Chat zu mani­pu­lie­ren und Da­ten oder In­for­ma­tio­nen ab­zu­grei­fen.
  • Ohne­hin be­steht im­mer die Ge­fahr, dass ein­ge­ge­bene Da­ten nicht un­be­sehen blei­ben, son­dern vom Chat­bot-Be­trei­ber ana­ly­siert oder an un­be­kann­te Drit­te wei­ter­ge­ge­ben wer­den.
  • Es ist mög­lich, dass Sprach­mo­del­le zur Pro­duk­tion von Fake News, Pro­pa­gan­da oder Hass­nach­rich­ten miss­braucht wer­den, um die öf­fent­li­che Mei­nung zu be­ein­flus­sen.
  • Die Fähig­keit zur Schreib­stil-Imi­ta­tion birgt hier eine be­son­dere Ge­fahr: Falsch­in­for­ma­tio­nen könn­ten mit ei­nem an be­stimm­te Per­so­nen oder Or­ga­ni­sa­tio­nen an­ge­pass­ten Stil ver­brei­tet wer­den.
  • Denk­bar sind den An­ga­ben zu­fol­ge auch ma­schi­nell er­stell­te Be­wer­tun­gen, die da­zu ein­ge­setzt wer­den kön­nen, Dienst­leis­tun­gen oder Pro­duk­te zu be­wer­ben oder auch zu dis­kre­di­tie­ren.
  • Ein Grund­pro­blem von Chat­bots ist, dass die zum Trai­ning des Sprach­modells ver­wen­de­ten Da­ten und de­ren Qua­li­tät maß­geb­lich die Funk­tio­na­li­tät be­ein­flus­sen. Dar­aus er­ge­ben sich laut BSI fol­gen­de Ri­si­ken:
    • Frag­wür­di­ge In­hal­te wie Des­in­for­ma­tion, Pro­pa­gan­da oder Hass­re­de in der Trai­nings­men­ge des Sprach­mo­dells kön­nen in sprach­lich ähn­li­cher Wei­se in den KI-ge­ne­rier­ten Text ein­flie­ßen.
    • Es ist nie si­cher, dass KI-ge­ne­rier­te In­hal­te ak­tu­ell oder fak­tisch kor­rekt sind. Denn ein Sprach­mo­dell kann In­for­ma­tio­nen nur aus den be­reits „ge­sehenen“ Tex­ten ab­lei­ten. Al­le dar­über hin­aus­gehen­den Ein­ord­nun­gen, die Men­schen aus der rea­len Welt be­kannt sind, kön­nen Mo­del­le nicht vor­neh­men. Des­halb kann es so­gar zum Er­fin­den von In­hal­ten kom­men, das so­ge­nann­te Hal­lu­zi­nie­ren.
Fa­zit: Nut­ze­rin­nen und Nut­zer soll­ten kri­tisch blei­ben. Durch sprach­lich oft feh­ler­frei ge­ne­rier­ten Text ent­ste­he bei der Nut­zung von KI-Sprach­mo­del­len häu­fig der Ein­druck ei­nes men­schen­ähn­li­chen Leis­tungs­ver­mö­gens – und da­mit ein zu gro­ßes Ver­trauen in KI-ge­ne­rier­te In­hal­te, ob­wohl die­se un­an­ge­mes­sen, fak­tisch falsch oder mani­pu­liert sein kön­nen.
Foto: Karl-Josef Hildenbrand/dpa/dpa-tmn
 
 
 

Autorin

Pia Marie Wenholz

Pia Marie Wenholz

Pia Marie Wenholz ist Mit­­a­r­bei­­te­­rin der Öffent­lichen Olden­burg. Sie ist ver­ant­wort­lich für den Be­reich Pres­se und Kommu­ni­ka­tion.

Mail an "Wir sind Nähe"

Autorin

Pia Marie Wenholz

Pia Marie Wenholz

Pia Marie Wenholz ist Mit­­a­r­bei­­te­­rin der Öffent­lichen Olden­burg. Sie ist ver­ant­wort­lich für den Be­reich Pres­se und Kommu­ni­ka­tion.

Mail an "Wir sind Nähe"

Das könnte Sie auch interes­sieren

Cyber-Schutz

Finan­zielle Ab­siche­rung von Cyber-Gefahren.

Jetzt mehr erfahren

Das inter­ak­tive siche­re Haus

Treten Sie ein und be­­we­­gen sich nach Ihrem Be­­lie­­ben durch das vir­­tuel­­le Haus. Sie kön­­nen alle Räume frei be­­tre­­ten und sich sogar um­schauen.

Zum interaktiven sicheren Haus

E-Autos laden

Versicherer warnen: E-Autos nur in Ausnahmefällen an normalen Steckdosen laden.

Weiterlesen

Wir für Sie

Sie interessieren sich für Themen rundum die Öffentliche? Dann sind Sie hier genau richtig!

Zum Bereich "Wir für Sie"