Kris on Nostr: ...
https://bc.ctvnews.ca/air-canada-s-chatbot-gave-a-b-c-man-the-wrong-information-now-the-airline-has-to-pay-for-the-mistake-1.6769454
Hier gingen ja neulich ein Haufen amüsierte Postings durch, wo Leute sich vom ChatGPTs von Arbeitsämtern haben bei den Python-Hausaufgaben helfen lassen.
Nun haben wir den ersten Fall, wo ein ChatGPT offensichtlichen Quatsch erzählt hat, und weil ein GPT nicht haften kann, tut es nur die Airline, die das angeboten hat.
Das sollte ChatGPT in Auto-Mode mit Kundenkontakt ab sofort effektiv ermorden.
Hier gingen ja neulich ein Haufen amüsierte Postings durch, wo Leute sich vom ChatGPTs von Arbeitsämtern haben bei den Python-Hausaufgaben helfen lassen.
Nun haben wir den ersten Fall, wo ein ChatGPT offensichtlichen Quatsch erzählt hat, und weil ein GPT nicht haften kann, tut es nur die Airline, die das angeboten hat.
Das sollte ChatGPT in Auto-Mode mit Kundenkontakt ab sofort effektiv ermorden.