ChatGPT kapituliert bei Programmierfragen
US-Forschende haben ChatGPTs Fähigkeit, Programmierfragen zu beantworten und Codefragmente zu liefern, getestet. Der KI-Chatbot liefert wenig beeindruckende Ergebnisse.
Der generative KI-Chatbot ChatGPT von OpenAI ist gemäss Forschenden der Purdue University nur bedingt als Antwortgeber für Programmierfragen geeignet. Bei der Erstellung von Code-Fragmenten für Software-Vorhaben lieferte das Tool in Tests verhältnismässig viele falsche Ergebnisse – insbesondere bei Stack Overflow.
Die Ergebnisse der Testreihe seien ernüchternd, denn der Chatbot hat mit 48 Prozent noch nicht einmal die Hälfte der gestellten Fragen korrekt beantwortet. Zudem fielen 78 Prozent der Antworten im Vergleich zu menschlichen Antworten auf verschiedenen Ebenen inkonsistent aus – sie waren aber formaler, analytischer und die Tonalität weniger negativ. Nur bei knapp jedem fünften Ergebnis (22 Prozent) gab es Übereinstimmungen mit den von Menschen gegebenen Antworten.
Einen Pluspunkt kassiert ChatGPT allerdings in Sachen Verständlichkeit, wie es heisst. Der Bot sei zu 65 Prozent verständlich und die Antworten gut lesbar. Ein Problem bleibe aber nach wie vor die Fülle an gelieferten irrelevanten Infos.
Dieser Artikel ist zuerst bei "Werbewoche" erschienen.
Synaforce stärkt Marktpräsenz in der Schweiz mit neuem CEO
Das Ende des Bottom-up – warum CIOs jetzt radikal umdenken müssen
Technologie, die entlastet: Ganzheitliche Lösungen für Produktivität und Zusammenarbeit
Justizbehörden ermitteln gegen fünf Softwareone-Kaderleute
Digitale Souveränität – handlungsfähig bleiben nach Schweizer Massstäben
Update: Graubünden erweitert E-Voting-Tests
Cloud-Services und künstliche Intelligenz sicher nutzen
Führungskräfte im Kundenservice sehen Vorteile in agentischer KI
isolutions Future Compass: CIO-Trends 2026