Armes GPT-Sprachmodell offenbar halluzinogen-abhängig

Wie konnte das passieren? Armes GPT-Sprachmodell offenbar halluzinogen-abhängig – redet ständig von Dingen, die gar nicht existieren San Francisco (dpo) – Alarmierende Nachrichten aus der Welt der Künstlichen Intelligenz: Offenbar leidet das Sprachmodell ChatGPT unter massiven Halluzinationen – und könnte laut Experten längst von digitalem LSD abhängig sein. „Es fing harmlos an“, erzählt ein Entwickler…
Weiterlesen


15. Mai 2025 0