Brown­bag Ses­si­on zum Thema ChatGPT

In die­ser Brown­bag-Ses­si­on in­for­mier­te Prof. Dr. Doris We­ßels über tie­fer­ge­hen­de Struk­tu­ren von ChatGPT und unter an­de­rem über Kon­se­quen­zen für die Ar­beit der Leh­ren­den an Hoch­schu­len be­züg­lich ChatGPT.
Zu Be­ginn er­läu­ter­te Prof. We­ßels die His­to­rie und die Grund­la­gen von ChatGPT.

ChatGPT wurde von Open­AI aus San Fran­cis­co ent­wi­ckelt und am 30. No­vem­ber letz­ten Jah­res ver­öf­fent­licht. Das Ziel von ChatGPT ist es, men­schen­ähn­li­che Ge­sprä­che zu füh­ren und dem Be­nut­zer das Ge­fühl zu geben, mit einer rea­len Per­son zu spre­chen. Dazu passt der Chat­bot seine Ant­wor­ten und sei­nen Schreib­stil an den des Be­nut­zers an und ver­sucht, eine na­tür­li­che Kon­ver­sa­ti­on zu füh­ren.

Die­ses für Dia­lo­ge op­ti­mier­te KI-Sys­tem ist eine neue Form von Be­nut­zer­schnitt­stel­le zu dem Sprach­mo­dell GPT-3.5, das aus dem Ba­sis­mo­dell GPT-3 durch ein Spe­zi­al­trai­ning mit mensch­li­chen Tes­tern wei­ter­ent­wi­ckelt wurde, dem so­ge­nann­ten „Rein­force­ment Lear­ning with Human Feed­back (RLHF)“. Das da­hin­ter lie­gen­de Mo­dell GPT-3 ver­fügt über 175 Mil­li­ar­den Pa­ra­me­ter und zeigt eine be­ein­dru­cken­de Leis­tungs­stär­ke und Ein­satz­viel­falt, was es zu einem der welt­weit füh­ren­den Sprach­mo­del­le macht. Das Funk­ti­ons­prin­zip ba­siert dar­auf, dass der­ar­ti­ge KI-Sprach­mo­del­le durch ma­schi­nel­les Ler­nen auf gro­ßen Men­gen von Tex­ten trai­niert wer­den, um Mus­ter in der Spra­che zu er­ken­nen und diese hin­ter­her ei­gen­stän­dig bei der Ge­ne­rie­rung von Tex­ten um­set­zen zu kön­nen.

Der Chat­bot nutzt diese Fä­hig­keit, um auf Fra­gen oder Aus­sa­gen von Be­nut­zern zu re­agie­ren, indem er eine „an­ge­mes­se­ne Ant­wort“ auf Basis sei­nes KI-Sprach­mo­dells ge­ne­riert. Um eine Ant­wort zu ge­ne­rie­ren, ver­wen­det ChatGPT über den Ge­sprächs­ver­lauf hin­weg kon­text­be­zo­ge­ne In­for­ma­tio­nen aus der Frage oder dem vor­he­ri­gen Dia­log­ver­lauf, um eine pas­sen­de Ant­wort zu ge­ne­rie­ren. Der Chat­bot ist wie ein Tau­send­sas­sa und kann für un­ter­schied­lichs­te The­men­be­rei­che ein­ge­setzt wer­den. Ob­wohl ChatGPT vor allem auf Ant­wor­ten in eng­li­scher Spra­che trai­niert wurde, ist das Tool mul­ti­lin­gu­al und soll ins­ge­samt 95 Spra­chen be­herr­schen.

Wie genau wer­den die Texte von ChatGPT er­stellt?
Die Sätze, die von ChatGPT ge­ne­riert wer­den, ba­sie­ren auf der Fä­hig­keit des Mo­dells, Sprach­mus­ter und -struk­tu­ren zu er­ken­nen und zu re­pro­du­zie­ren. Wenn eine Frage oder Aus­sa­ge an den Chat­bot ge­rich­tet wird, ana­ly­siert das Mo­dell den Kon­text und ver­wen­det das Wis­sen, das es durch das Trai­ning auf gro­ßen Men­gen von Tex­ten er­wor­ben hat, um eine pas­sen­de Ant­wort zu ge­ne­rie­ren.  Prof. Dr. Doris We­ßels zeig­te live auf dem Play­ground von Open­AI die­sen sta­tis­ti­schen Aus­wahl­pro­zess, bei dem das KI-Sys­tem Texte in klei­nen Ein­hei­ten (so­ge­nann­ten To­kens) nach und nach au­to­re­gres­siv ge­ne­riert. Wich­tig dabei ist, dass die auf diese Weise ge­ne­rier­ten Texte keine Pla­gia­te sind, son­dern ein­zig­ar­ti­ge Texte und somit Uni­ka­te dar­stel­len.

Ist ChatGPT „in­tel­li­gent“, hat es ein ei­ge­nes Be­wusst­sein?
ChatGPT ist keine tat­säch­li­che "In­tel­li­genz", son­dern nur eine „ma­schi­nel­le In­tel­li­genz“, d.h. ohne ein Be­wusst­sein wie bei uns Men­schen. Der zu­grun­de­lie­gen­de Me­cha­nis­mus, mit dem ge­ne­ra­ti­ve Sprach­mo­del­le wie GPT-3 bzw. GPT-4 (ver­öf­fent­licht am 14.03.2023) plau­si­bel wir­ken­de Texte ge­ne­rie­ren kön­nen, be­steht darin, dass sie ohne jeg­li­ches se­man­ti­sches Text­ver­ständ­nis und nur auf­grund der er­lern­ten sta­tis­ti­schen „Plau­si­bi­li­tä­ten“ immer um­fang­rei­che­re und qua­li­ta­tiv hoch­wer­ti­ger an­mu­ten­de Texte ge­ne­rie­ren kön­nen.

In­wie­weit ist ChatGPT ein Pro­blem für Hoch­schu­len?
Die Ver­wen­dung von ChatGPT zur Er­stel­lung von aka­de­mi­schen Ar­bei­ten führt zu viel­fäl­ti­gen recht­li­chen Fra­ge­stel­lun­gen (Ur­he­ber-, Haf­tungs-, Straf­recht) bis hin zu neuen Fra­ge­stel­lun­gen der aka­de­mi­schen In­te­gri­tät (z.B. neuen For­men der Kenn­zeich­nungs­pflich­ten und Ei­gen­stän­dig­keits­er­klä­run­gen). Prof. Dr. Doris We­ßels hat nach der Ver­öf­fent­li­chung von ChatGPT be­reits am 20. De­zem­ber letz­ten Jah­res für die Fach­zeit­schrift „For­schung und Lehre“ auf neue Her­aus­for­de­run­gen hin­ge­wie­sen und zu­gleich Zu­kunfts­the­sen for­mu­liert. Die am 23. März mit 250 an­ge­mel­de­ten Bil­dungs­ex­pert*innen durch­ge­führ­te Grün­dungs­kon­fe­renz des neuen KI-Kom­pe­tenz­zen­trums hat das Spek­trum von Po­ten­zia­len und Her­aus­for­de­run­gen glei­cher­ma­ßen wi­der­ge­spie­gelt.

Wenn Stu­die­ren­de oder For­schen­de künst­li­che In­tel­li­gen­zen wie ChatGPT ver­wen­den, um au­to­ma­tisch Texte zu ge­ne­rie­ren oder Auf­ga­ben aus­zu­füh­ren, ist die feh­len­de Fak­ten­treue noch immer ein gro­ßes Pro­blem. Ge­ne­riert ChatGPT auf An­wen­der­wunsch z.B. eine Li­te­ra­tur­lis­te, sind die dort ge­nann­ten Quel­len in der Regel fik­ti­ver Natur. Das be­deu­tet, dass alle von ChatGPT ge­ne­rier­ten Texte und An­ga­ben der­zeit un­be­dingt über­prüft wer­den müs­sen. 

Bie­ten Ent­wick­lun­gen wie ChatGPT auch Chan­cen für Hoch­schu­len?
Prof. Dr. Doris We­ßels be­ton­te die Am­bi­va­lenz die­ser Ent­wick­lung: „Diese Tech­no­lo­gie hat zwei ex­trem stark aus­ge­präg­te Sei­ten der Me­dail­le. Neben den neu­ar­ti­gen Her­aus­for­de­run­gen und Ri­si­ken bie­ten sich uns auch neue For­men für Lehre und Ler­nen, die wir in der Form vor­her nicht hat­ten“. Sie zeig­te durch Ein­ga­be ein­fa­cher „Prompts“ (Be­nut­zer­ein­ga­ben), wie ein­fach es ist, sich mit ChatGPT z.B. den ei­ge­nen Vo­ka­bel-, Ma­the­ma­tik- oder auch Ver­hand­lungs­trai­ner zu ge­ne­rie­ren und mit die­sen di­gi­ta­len ChatGPT-Trai­nern selbst­be­stimmt und ei­gen­stän­dig zu trai­nie­ren. Per­spek­ti­visch kön­nen na­he­zu alle Schul­fä­cher durch diese neue Form des Ler­nens un­ter­stützt wer­den. Glei­ches trifft für un­se­re Mo­du­le im Hoch­schul­be­reich zu. Damit geht ein Rol­len­wech­sel ein­her und wird die Lehre und das Ler­nen der Zu­kunft gra­vie­rend ver­än­dern.

Worin sehen die Men­schen grund­sätz­lich eine re­el­le Ge­fahr durch die An­wen­dung von ChatGPT?
 

  1. Fehl­in­for­ma­tio­nen und Ma­ni­pu­la­ti­on: ChatGPT könn­te ver­wen­det wer­den, um fal­sche In­for­ma­tio­nen oder Pro­pa­gan­da zu ver­brei­ten, indem es au­to­ma­ti­sier­te Ant­wor­ten ge­ne­riert, die Men­schen dazu brin­gen, Fehl­in­for­ma­tio­nen zu glau­ben oder eine be­stimm­te Mei­nung zu un­ter­stüt­zen.
  2. Da­ten­schutz und Si­cher­heit: Da ChatGPT und ähn­li­che Mo­del­le auf gro­ßen Men­gen von Text­da­ten trai­niert wer­den, kön­nen sie mög­li­cher­wei­se auch auf pri­va­te und ver­trau­li­che In­for­ma­tio­nen zu­grei­fen. Wenn diese In­for­ma­tio­nen in die fal­schen Hände ge­ra­ten, kann dies zu schwer­wie­gen­den Da­ten­schutz­ver­let­zun­gen füh­ren.
  3. Ar­beits­platz­ver­lus­te: ChatGPT und ähn­li­che Tech­no­lo­gi­en könn­ten Ar­beits­platz­ver­lus­te ver­ur­sa­chen, da sie in der Lage sind, mensch­li­che Ar­beit in Be­rei­chen wie Kun­den­ser­vice, Über­set­zung und Schreib­ar­beit zu au­to­ma­ti­sie­ren.
  4. Künst­li­che In­tel­li­genz Bias: ChatGPT und ähn­li­che Tech­no­lo­gi­en könn­ten vor­han­de­ne Vor­ur­tei­le und Ste­reo­ty­pen aus den Trai­nings­da­ten über­neh­men und diese ver­stär­ken. Dies kann zu dis­kri­mi­nie­ren­den oder un­ge­rech­ten Ent­schei­dun­gen füh­ren, wenn diese Tech­no­lo­gi­en bei der Ent­schei­dungs­fin­dung ein­ge­setzt wer­den.
  5. Ab­hän­gig­keit von Tech­no­lo­gie: ChatGPT und ähn­li­che Tech­no­lo­gi­en könn­ten dazu füh­ren, dass Men­schen zu­neh­mend von Tech­no­lo­gie ab­hän­gig wer­den, um Ent­schei­dun­gen zu tref­fen oder Pro­ble­me zu lösen, an­statt selbst kri­tisch zu den­ken oder un­ab­hän­gig zu han­deln.

Text und Bild: Mat­thi­as Dress­ler
(ver­öf­fent­licht: 17.04.2023-ra)