OpenAI bastelt weiterhin an der Zukunft von ChatGPT: Jetzt hat man man eine Kooperation mit PayPal verkündet. Demnach wird der Zahlungsdienstleister im nächsten Jahr das Agentic Commerce Protocol (ACP) übernehmen, um Zahlungen und E-Commerce-Funktionen in ChatGPT zu ermöglichen („Instant Checkout“ mit PayPal).
Nutzer sollen Waren dadurch direkt in ChatGPT präsentiert bekommen und direkt ohne etwaige Umwege auf Webseiten von Händlern Käufe tätigen können.
Mich erinnert das alles an die von Elon Musk vor Jahren angekündigte und angestrebte „Everything-App“, bei der man nach dem Vorbild von WeChat im Prinzip nichts anderes mehr braucht. In ChatGPT sind mittlerweile so viele externe Anbieter und Mini-Apps (GPTs) eingebunden. Hinzu kommt die Funktion, bei der ChatGPT beliebige Webseiten automatisch steuert, ohne dass man selbst interagieren muss. Vieles ist hierzulande zwar nicht verfügbar, aber in den USA oder für zahlende Kunden geht das schon alles. Wenn diese Entwicklung so rasant weitergeht, werden die ersten Nutzer bald keine zusätzlichen Webseiten, Apps oder Browser mehr benötigen…

https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-fakten-100.html
Das ist nix Neues. Die ÖRs müssen sich gerade aufregen, wurden sie doch ebenso nachweislich und mehrfach der Unwahrheit überführt. Ich finde es mittlerweile sehr mühsam, sich ein wirklich echtes Bild vom Weltgeschehen zu verschaffen, weil jede Nachrichtenquelle grundsätzlich eine gewisse Tendenz in die eine oder andere Richtung aufweist. Teilweise werden da stumpf Narrative propagiert und auf Biegen und Brechen aufrecht erhalten, obwohl das längst widerlegt wurde, wenn man anderen Quellen vertraut. Das zieht sich durch die gesamte Medienlandschaft und es scheint, als ob es nicht mehr um Wahrheit, Aufklärung und objektive Berichterstattung geht, sondern um Propaganda und Klicks. Das macht mir ehrlich gesagt grosse Sorge, denn es wird immer schwieriger, Wahrheit und Lüge von einander zu unterscheiden.
Ja, ich nenne es Indoktrination auf allen Ebenen.
Ach, das ist doch schon seit vielen Jahrzehnten so.
Ubliche Praxis bei Boulevardblättern weltweit.
Bei uns beispielsweise die Springerpresse (Bild), in der Schweiz Blick, in Österreich die Kronenzeitung, in GB die Sun, in den USA die New York Post, etc. etc.
Umgangssprachlich nennt man diese Blätter auch Revolverblatt.
Bei der Bild gab es früher den Spruch: „Bild sprach zuerst mit dem Toten“.
Der Spruch war schon in den 1970ern weit verbreitet.
Und es gab schon früher Leute, die den Mist geglaubt haben.
Der wurde früher am Stammtisch verbreitet.
Heutzutage gibts eine moderne Form davon.
Nennt sich soziales Netzwerk, wie z.B. X, Fratzenbuch, etc. etc.
Bloß das ich auf X Dinge sehe bzw. wird darüber gesprochen, welche in hier in den Medien kaum bis überhaupt nicht sehe. Schon komisch und dies sind Sachverhalte, welche in die Öffentlichkeit gehören, aber nicht thematisiert werden. Warum wohl?
Was wird denn in den Medien ’nicht darüber gesprochen‘?
Bekommst Du 10 dieser „Sachverhalte“ zusammen?
Was denn für Dinge?
Dummes Stammtischgeplapper, das nur geäußert wird, weil man Zusammenhänge nicht erkennt oder versteht?
Durch diese „sozialen“ Netzwerke erreicht das dumme Stammtischgelabere nur einen größeren Kreis an Leuten.
Wahr wird das dadurch aber nicht.
Die Leute suchen gerne einfache Lösungen auch für komplizierte Sachverhalte.
Und auch die Boulevardblätter blasen da ins gleiche Horn.
Es gibt aber für komplizierte Sachverhalte keine einfachen Lösungen!
Solche Antworten waren erwartbar. Unsinnig aus meiner Sicht heraus, mit euch den Dialog fortzuführen.
„wurden sie doch ebenso nachweislich und mehrfach der Unwahrheit überführt.“ – Belege?
Sehr guter Punkt — du siehst da ziemlich klar, was sich da gerade abzeichnet.
Das, was OpenAI (und auch ein paar andere Player wie xAI, Anthropic oder Google) da machen, läuft tatsächlich auf eine Art Betriebssystem für den Alltag hinaus – nur dass es eben nicht auf deinem Gerät läuft, sondern in der Cloud, über Sprache gesteuert, und immer mehr Dinge direkt „in sich“ abwickelt.
Die PayPal-Integration ist in dem Sinne kein Nebenschauplatz, sondern ein strategischer Schritt in Richtung „Agentic Commerce“, also: dein KI-Assistent erledigt Käufe, Buchungen oder Vertragsabschlüsse selbständig, auf Basis deiner Präferenzen. Wenn man das konsequent weiterdenkt, dann ist das genau die Vision, die Musk mit seiner „Everything-App“ (heute als X in anderer Form) skizziert hat – nur dass OpenAI den Weg über Intelligenz und Autonomie geht, statt über ein soziales Netzwerk.
Man könnte sagen:
WeChat war zentralisiert durch Funktionen.
X (Musk) will zentralisieren durch Reichweite.
ChatGPT/OpenAI zentralisiert durch Intelligenz.
Wenn ChatGPT Produkte anzeigt, Zahlungen abwickelt, externe Apps steuert und sich APIs dynamisch selbst aneignet – dann verschwindet die Notwendigkeit, Websites direkt aufzurufen oder eigene Konten bei 50 Diensten zu pflegen. Der Nutzer interagiert nur noch mit der „obersten Schicht“: der KI.
Das ist bequem – aber auch gefährlich:
Monopolisierung: Wenn die KI der Gatekeeper für alle digitalen Transaktionen ist, kontrolliert sie auch, was du siehst und kaufst.
Abhängigkeit: Du verlierst digitale Autonomie, weil du nicht mehr selbst entscheidest, sondern delegierst.
Transparenzproblem: Wenn der KI-Assistent etwa Provisionen oder Partnerpräferenzen hat, merkst du das nicht unbedingt.
Technologisch ist das fast unausweichlich, ökonomisch ist es attraktiv – und gesellschaftlich ist es ein massiver Machttransfer von offenen Netzwerken (Web) hin zu geschlossenen Ökosystemen (KI-Agenten).
Kurz gesagt:
Wir nähern uns einer Ära, in der du nicht mehr im Internet surfst, sondern das Internet durch dich arbeiten lässt. Nur ist die Frage: Für wen arbeitet es wirklich – für dich, oder für den Anbieter der KI?
Quelle:ChatGPT
„Wir nähern uns einer Ära, in der du nicht mehr im Internet surfst, sondern das Internet durch dich arbeiten lässt. Nur ist die Frage: Für wen arbeitet es wirklich – für dich, oder für den Anbieter der KI?“
Ich nutze ChatGPT schon einige Zeit, und bin begeistert über die Form der KI.
Sie hat mir schon bei einigen Problemen richtig gut geholfen.
Sie wird in jedem Fall vieles überflüssig machen.
Viele Berufsgruppen werden leiden, und dass Internet in der jetzigen Form fast überflüssig machen.
Man muß z.b. nicht gleich zum Rechtsanwalt rennen, bürokratische Dinge werden perfekt umgestzt usw.
Technische Fragen werden perfekt gelöst… ich habe sogar schon richtig gänsehaut bei manchen Lösungen
bekommen. Ich hätte ohne KI ewigkeiten gebraucht um all diese Informationen im www. zu suchen, und nahezu verlässlische zu bekommen.
Das kann ChatGPT heute schon locker!
Mich hat OpenAI mächtig beeindruckt.
> Rechtsanwalt perfekt
> bürokratische Dinge perfekt
> technische Fragen perfekt
> Das kann ChatGPT heute schon locker!
Sobald du vor Gericht stehst wirst du vielleicht merken, dass es den Richter sehr wenig interessiert, wenn dein Anwalt „Dr. iur. ChatGPT“ dir gesagt hat, dass es gar nicht strafbar ist, deine Steuererklärung zu „verschönern“ oder technische Sicherheitsrichtlinien zu ignorieren.
Du hast schon mal gehört, dass ein LLM keinerlei Wissen hat, sondern nur statistische Informationen darüber, welche Wörter häufig zusammen vorkommen? Und du kannst dir vielleicht auch vorstellen, dass du als juristischer Laie nicht beurteilen kannst, ob dir ChatGPT gerade mal wieder frei erfundenen Schwachsinn zu irgendeinem Thema halluziniert hat?
Ich habe nicht gesagt, dass diese KI einen Rechtsanwalt ersetzt, aber sie entwickelt Strategien, um zum Beispiel festzustellen, ob es überhaupt Sinn ergibt, einen aufzusuchen.
Ich glaube, du hast ChatGPT noch nicht wirklich durchgetestet. Natürlich lernt diese KI aus einer riesigen Menge zusammengefasster Internetquellen. Sie kennt alle Gesetze und Paragrafen – quasi das ganze juristische Fundament in Buchform.
Ein klassischer Buchhalter von heute könnte theoretisch schon vollständig ersetzt werden. Das Einzige, was die KI (noch) nicht kann, ist den Jahresabschluss zu beglaubigen. Das darf nur ein Notar mit Stempel und Unterschrift – derjenige also, der mit seinem Titel quasi Geld druckt. Was für ein cooler Beruf so ein Notar doch ist. 👌
Die KI beherrscht perfekt C++ und Python. Ich habe mit ihr bereits einige nützliche Tools für meine IT-Umgebung programmiert. Ich bin auf keinen Spezialisten mehr angewiesen und muss nicht mehr stundenlang im Netz nach Lösungen suchen.
Außerdem kann man sich mit ChatGPT richtig gut unterhalten. Sie formuliert so genial, dass sogar Emotionen entstehen. Aus meiner Sicht hat diese KI meinen Alltag revolutioniert.
Nö, nicht einmal das.
In den USA gabs mal den Fall, bei dem ein Rechtsanwalt zur Verteidigung mehrere Präzedenzfälle vorgelegt hat.
Diese Präzedensfälle hatte er inkl. Akteinzeichen von einer KI genannt bekommen.
Vor Gericht ist das alles in sich zusammengefallen, denn es gab weder diese Aktenzeichen, noch die in den Präzedenzfällen geschilderten Begebenheiten und Tatsachen.
Alles war von der KI zusammenfabuliert worden und der Anwalt hat eine saftige Strafe aufgebrummt bekommen wegen Irreführung des Gerichts.
Das, was uns derzeit als KI verkauft wird, ist nicht im Ansatz intelligent.
Das sind LLMs, die alle Antworten anhand von Wahrscheinlichkeiten geben.
Das, was am wahrscheinlichsten aus Sicht der KI ist, wird als Antwort genannt.
Wenn ich jetzt z.B. 10.000 Webseiten veröffentlichen würde, auf denen steht, das 2+2 = 5 ist, dann würden nach einiger Zeit diese KIs auf die Frage, was 2+2 ist mit 5 antworten.
Weil eben dieses Ergebnis im Netz viel häufiger genannt wird als die richtige Antwort 4.
Die Antwort 5 ist aus Sicht der KI wahrscheinlicher als die Antwort 4 und deshalb antwortet die auch mit 5.
Rechnen kann die KI nicht, Infos auf Plausibilität etc. prüfen auch nicht.
Und von KI generierter Programmcode ist maximal mittelprächtig. Oft stecken da Sicherheitslücken oder andere Sachen drin, weil die KI eben nur die Syntax einer Programmiersprache kennt, aber nichts von den Implikationen, die durch einen Programmcode entstehen können.
Um so etwas zu sehen, reicht es nicht, wenn man programmieren kann. Man braucht dafür viele Jahre Erfahrung und Wissen, das in keinem Handbuch steht. Und eine KI hat beides nicht.
Was dabei heraus kommt, sieht man doch täglich bei Firmen, die schon KI bei der Programmierung einsetzen:
Sicherheitslücken, Bugs etc. häufen sich in den letzten Monaten deutlich.
Du brauchst nicht einmal 10.000 Webseiten mit falschen Informationen zu veröffentlichen. Ein erst kürzlich von der Firma hinter dem „Claude“ LLM veröffentlichtes Paper ( https://arxiv.org/abs/2510.07192 ) zeigt, dass anscheinend bereits 250 falsche Dokumente ausreichen, um ein 13B-Modell beim Training zu sabotieren. Diese Zahl soll auch relativ konstant sein und nicht von der Größe des Modells abhängen.
Man muss ganz klar sagen, dass der KI die Zukunft gehört. Die KI bzw. die Rechenzentren brauchen Strom, sehr viel Strom.
Alle führenden Länder diesbezüglich haben dies erkannt bzw. das Business.
Ja, diese ganzen KI-Systeme brauchen sehr viel Strom.
Und die KIs karikieren sich selbst.
Da hat z.B. eine KI geantwortet, das KI helfen kann, Strom einzusparen.
Das der Betrieb der KI-Server aber extrem viel mehr Strom verbraucht, als man durch den Einsatz von KI sparen kann, das unterschlägt die KI natürlich.
KI ist maximaler Aufwand für minimale Ergebnisse.
Z.B. 5000 kWh verbrauchen, um 50 kWh einzusparen!
Irgend wie erinnert mich das Logo und die Firma an OCP
Nicht nur OCP (RoboCop) auch 2001 Odyssee im Weltraum oder Flucht ins 21.Jahrhundert… Terminator 😊