Bei ChatGPT (und anderen Large Language Models) ist der Name „Künstliche Intelligenz“ aber auch irreführend. Das Ding kann letztendlich „nur“ sehr gut erraten welches Wort als nächstes den meisten Sinn ergibt und auf die ihm eintrainierte Texte zurückgreifen (also auf die Worte und deren relative Häufigkeit zueinander). Das ist nicht wirklich intelligent sondern nur extrem effizient und bei so „schwammigen“ Sachen wie „erstelle mir eine Präsentation, schreib mir ne Mail, erkläre mir nicht Domänenspezifisches wissen“ performt das auch, Mathematik beherrscht es beispielsweise gar nicht soweit ich weis, ist aber auch nicht allen klar. Programmiersprachen sind dank fester Regeln und Wort abfolgen auch gut zu lernen. Alles ausserhalb davon bekommt eine Antwort erträumt die plausibel klingt (die Worte ergeben in ihrer Reihenfolge grundsätzlich Sinn) aber von einem Experten sofort als Schwachsinn erkannt wird. Selbiges mit „gib Quellen“ da werden auch einfach welche erzeugt die es nicht gibt. Was ChatGPT aber recht gut kann ist wohl Schreib und/oder Argumentations Stile imitieren. Da hat ein Freund sich ausgetobt und verschiedenste Philosophen antreten lassen. Klang wohl alles sehr überzeugend. ?
Zuletzt bearbeitet: