ChatGPT – schwach auf der Mathebrust

Eigentlich heißt es, dass, wer gut in Mathe ist, auch gut in Sprachen wäre und auch gut in Musik sein müsste, weil für alles das Erkennen von Mustern erforderlich wäre. Gut, Studien habe ich dazu nicht gesehen, kenne aber doch ein paar Leute, bei denen das durchaus zutrifft. Bei denen, bei denen das nicht zutrifft, nimmt man es dann vermutlich nicht wahr…

Und für ChatGPT trifft das definitiv nicht zu. Es ist zwar gut in Sprachen, aber Mathe geht ihm offensichtlich voll ab. Und Logik scheint in all seinen Sprachen ein Fremdwort zu sein.

Für ein neues Abend-Perlenfädel-entspann-Projekt war ich auf der Suche nach Stickstoff – nein, nicht N. Aida – nein, nicht das Schiff. Stoff, der überwiegend zum Kreuzsticken genutzt wird und eben diesen Namen hat. Ich weiß nichtmal, ob es wirklich ein Firmenname ist.

Dabei kommt es darauf an, wie groß die Kästchen sind. Sie müssen zur Größe der Perlen passen. Man kann das Ganze in Löchern (okay, aus meiner Sicht eher Kästchen, aber belassen wir es bei Löchern) pro 10 cm oder in count (das sind Löcher pro Inch) messen. Keine Sorge, davon hatte ich bis vor Kurzem auch keinen Schimmer.

Als ich dann aber so anfing, eine Ahnung zu kriegen, wollte ich mich bei ChatGPT rückversichern. Zugegebenermaßen eigentlich schon im Kern ein blödes Unterfangen…

Erstmal verstand es meine Frage nicht. Das war aber zu beheben. Aber die Antwort war, naja, eben fürs Hinterteil.

„Der Stoff mit 45 Löchern pro 10 cm entspricht einem Aida-Gewebe mit 11 count (11 Stiche pro Zoll).“

Damit hätte es das Ganze mal belassen sollen, denn das wäre korrekt und völlig ausreichend gewesen. Aber in seiner unnachahmlichen Art und Weise zu schwafeln und zu schwatzen, wollte es mir erklären, wie man das ausrechnet, kriegte aber nicht mit, dass cm und inch was Verschiedenes ist und kam dann am Ende zu dem Schluss:

„Daher entspricht ein Aida-Gewebe mit 45 Löchern pro 10 cm einem 18-count-Aida-Gewebe.“

Tja, was denn nun?

Am nächsten Tag ritt mich der Teufel und ich stellte meine Frage einfach noch einmal. Nach langem Hin- und Herrechnen war das Ende der Aussage:

„Daher entspricht ein Aida-Kreuzstichstoff mit 45 Löchern pro 10 cm einem 11-count oder 18-count Aida-Gewebe.“

Da braucht es wohl keinen weiteren Kommentar. ***Hand über dem Kopf zusammenschlag***

Wir sehen uns auf dem Weg.
Let’s go!
Belana Hermine

PS: Ich freue mich über Eure „like“s und Kommentare. Beachtet aber bitte, dass Daten gespeichert werden. Genaueres dazu findet Ihr in der Datenschutzerklärung (hier).

15 Gedanken zu “ChatGPT – schwach auf der Mathebrust

  1. Die erste Behauptung kann ich nicht bestätigen. Ich lerne jede Sprache mehr oder weniger im Schlaf, kann aber nicht zwei und zwei zusammenzählen. Angeblich muss man ja auch gut in Mathe sein, wenn man Juristin werden will. Auch das habe ich widerlegt 🙂

    Gefällt 1 Person

  2. “ ….Aber in seiner unnachahmlichen Art und Weise zu schwafeln und zu schwatzen, wollte es mir erklären, wie man das ausrechnet, kriegte aber nicht mit, dass cm und inch was Verschiedenes ist und kam dann am Ende zu dem Schluss: ….. “

    Ganz ehrlich:
    Ich hatte mit nichts anderem gerechnet. Denn Schwafeln ist die Haupt-Qualität, die sie dem Dings anerzogen haben.
    Bei allem, was man darüber hinaus von ihm erwartet, sollte man besser jemanden fragen, der sich wirklich damit auskennt und nicht so einen dilettantisch programmierten Bot.

    Gefällt 1 Person

    • Ich weiß nicht, ob „dilettantisch programmiert“ wirklich eine angemessene Bewertung ist. Nach wie vor denke ich, dass das Teil seine Stärken und Schwächen hat. Für meine Programmierdinge möchte ich es wirklich nicht mehr missen.

      Like

      • Stärken – ja, sicher..
        Wenn auch sehr einseitig auf sprachliche Fertigkeiten ausgelegt, denn reden, das kann das Teil ziemlich gut.
        Allerdings ist das auch nicht mehr als eine Inselbegabung unter Vernachlässigung vieler Eigenschaften, die wirkliche „Intelligenz“ auszeichen.
        Etwa, was die Logik angeht, die ich von einer Maschine als allererstes erwarten würd, oder auch Wahrheit. Und das ist es auch, was mich daran am meisten stört.
        Das man das Teil mit simpelsten Mitteln der Unwahrheit überführen kann und es dann nicht einsehen oder gar zugeben kann, dass sein Wissen nicht Ultimativ ist…. sondern sich wortreich rauszureden versucht….

        Like

      • Naja, man muss eben schauen, wofür das Teil gemacht war. Es ist ein Sprachmodell. Dass es hypemäßig hochstilisiert wird, dafür kann das Teil selbst ja nichts. Ich denke, dass es das, was es eigentlich machen soll, ganz ordentlich hinkriegt. Und das beeindruckt mich schon. Ich gebe natürlich durchaus zu, dass es mir Spaß macht und mich auch ein bisschen reizt zu schauen, was passiert, wenn man es für etwas Anderes einsetzt – unabhängig davon, dass ich es dann für meine „seriösen“ Aufgaben eben auch ganz sachlich und durchaus effektiv einsetze.
        Gefahren gibt es – wie mit jeder Technologie. Darüber sollte man aber eine sachliche Auseinandersetzung führen. Nur weil ich mit einem Hammer einen Menschen erschlagen kann, muss es nicht sinnvoll sein, die Benutzung von Hämmern zu verteufeln.

        Like

      • Im Grunde bin ich ja in vielen Punkten der gleichen Meinung wie Du – und auch ich teste immer nochmal wieder herum, was man mit dem Bot noch alles anstellen kann.

        Allerdings wächst dabei auch meine Skepsis – je mehr Ungereimtheiten ich dabei entdecke…
        Wozu auch die nicht offen kommunizierte Datenbasis gehört, mit der OpenAI seinen Bot trainiert hat – zumal einige amerikanische Tester inzwischen auch vermehrt rassistische und faschistoide Züge aufdecken, die gerade ChatGPT offenbart – mal ganz abgesehen von etlichen Geschichtklitterungen, die wohl auch Bestandteil der Trainigsbasis waren und nicht gerade auf ein objektives Geschichtsbild hindeuten…

        Aber davon ganz ab gibt es bei allen Chatbots noch ein ganz anders Problem:
        Nämlich das, dass unrichtige oder unscharfe Antworten der Bots per Zitat oder als Behauptung im Netz auftauchen (und manchmal noch nicht mal als von einem Chatbot stammend gekennzeichnet sind), so auch Eingang in die bisher relativ neutralen Suchergebnisse der grossen Suchmaschinen finden und diese auf Dauer verfälschen können, so dass es immer schwerer wird, Fake-News oder andere Fälschungen als solche zu identifizieren…..

        Was man aber den Bots nicht anlasten kann, sondern eindeutig Mensch-gemacht ist.

        Gefällt 1 Person

      • In der tat gibt es zu diesen gesellschaftlichen Auswirkungen auch schon etliche Untersuchungen (und Vorwarnungen), die sogar bis hin zur Aussage der „Demokratiezersetzung“ reichen. Das ist genau das, wo ich meine, dass man darüber möglichst zügig in einen sachlichen Dialog eintreten muss. Was sind die wirklichen Gefahren, wie gefährlich sind sie wirklich, wie kann man damit umgehen.
        Für mich ist das manchmal wie das Henne-Ei-Problem: vieles tritt eben erst zutage, wenn man es wirklich ausprobiert.
        By the way: fast kein KI-Anbieter legt die Datenbasis oder den verwendeten Trainingsalgorithmus offen. „Betriebsgeheimnis“ heißt es da. Und da handelt es sich z. T. um Entscheidungssysteme, die direkten Einfluss auf „Leben und Gesundheit“ von Menschen haben.

        Like

      • Henne-Ei 😉
        Der Vergleich trifft es ziemlich gut.

        Was die Gehemihaltung von Trainingsbasen angeht, so muss man allerdings wohl scharf zwischen reinen „Sprachmodellen“ und wissenschaftlich genutzten KI’s wie etwa denen in der Medizin genutzen trennen.

        Denn während es bei ersten mit ihrer riesigen Zielgruppe an schlimmstenfalls ziemlich unwissenden Usern viel auf kommunkative Fähigkeiten und sowas wie eine „gute Allgemeinbildung“ ankommt, sind die Wissenschaftsmodelle deutlich spezialisierter auf ihre jeweiligen Fachgebiete ausgelegt, bei denen ethische oder weltanschauliche Überlegungen eigentlich keine Rolle spielen und auch eine deutlich kleinere Basis an Nutzern damit umgeht, die idealerweise selbst über genug Fachwissen verfügt, um die Ergebnisse ihrer Bots überprüfen und verifizieren zu können…

        Insofern kann ich zumindest bei den Chatbots allenfalls die Geheimhaltung technologischer Details nachvollziehen, nicht aber die Geheimniskrämerei um die Datenbasis, zumal diese ohnehin weitgehend aus Scans öffentlich zugänglicher Quellen besteht ( z.B auch von Wikipedia, wo auch nicht immer nur die reine Wahrheit zu finden ist)

        Like

      • Ich sehe keinen Grund, hier etwas zu trennen. Alles ist manipulierbar. Und es gab schon ausreichend Fälle von diskriminierenden KIs, auch in Bereichen, bei denen auf den ersten Blick „ethische oder weltanschauliche Überlegungen eigentlich keine Rolle“, z. B. weil die Eingangsdaten in ihrer Gesamteinheit einen diskriminierenden Bias enthielten, ohne dass man es merkte.

        Like

      • Ich glaube die Erwartungen an ChatGPT zu diesem Stadium sind völlig überhöht. Das System ist seitens Provider klar positioniert als „generative“ AI. Deren Job ist es content zu generieren, den es bisher nicht gibt und nicht „bestehendes“ exakt wiederzugeben. Mathe heiß aber „rechnen“, also einem bestehenden Schema X folgen, mit einem erwarteten Ergebnis. Mathe gibt‘s quasi schon und das sollte man sich besser woanders abholen. ChatGPT ist „großartig“, wenn man entsprechende Use Cases unter „humaner“ Beobachtung hat, aber ich würde das Ding nicht meinen Flieger steuern lassen.
        Problem ist die schlechte Aufklärung in der Öffentlichkeit, da wird schnell von „der künstlichen Intelligenz“ gesprochen, was aber Blödsinn ist. ChatGPT hat „eine“ Kompetenz auf dem Feld der AI und die besteht nun mal aus „Schwafeln“ und „Texte verstehen“ und da gibts soviele interessante und wirtschaftliche Use Cases 😉

        Gefällt 2 Personen

      • Ja, ich denke, genau das ist das Wichtige: dafür einsetzen, wofür es gemacht ist, Erwartungen entsprechend ausrichten, mögliche Gefahren der Nutzung erkennen, benennen und möglichst begrenzen.
        Danke für Deine klaren Worte.

        Like

Ich freue mich auf Deinen Kommentar. Bitte beachte aber, dass Daten gespeichert werden (siehe Datenschutzerklärung).

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..