| Antworten können Fehler oder Halluzinationen enthalten. |
Auch wenn sie überzeugend klingen. |
| Kein echtes Wissen oder Verständnis. |
Das Modell arbeitet mit Mustern und Wahrscheinlichkeiten. |
| Stand der Informationen kann veraltet sein. |
Besonders bei aktuellen Ereignissen oder sehr neuen Themen. |
| Kann Kontext falsch interpretieren. |
Vage oder unpräzise Fragen führen zu unpassenden Antworten. |
| Nicht für sensible oder vertrauliche Daten geeignet. |
Persönliche Dokumente, Kundendaten und interne Informationen gehören nicht hinein. |
| Begrenztes Urteilsvermögen. |
Es kann keine professionellen Entscheidungen ersetzen (Medizin, Recht, Finanzen). |
| Stil wirkt manchmal zu sicher. |
ChatGPT formuliert oft selbstbewusst, auch wenn Inhalte unsicher sind. |
| Keine eigene Meinung, Werte oder Emotionen. |
Alles wirkt nur so, als hätte die KI Ansichten – tatsächlich werden Muster reproduziert. |
| Abhängig von guter Anleitung. |
Qualität der Antworten hängt stark vom Prompt ab. |