hattifnatt 19. Juli Wenn @krett den Chat verlinkt hätte, gäbe es diese sinnlose Diskussion nicht. Kann man aber leicht selbst ausprobieren - hier also nochmal eine ähnliche Antwort mit den verlinkten Quellen (unten auf "sources" klicken öffnet eine Seitenspalte mit den entsprechenden Details): https://chatgpt.com/share/687b6592-efb0-800d-a402-bca406663d16 Diesen Beitrag teilen Link zum Beitrag
krett 19. Juli Gerade eben von MartinB: Ich bin ehrlich gesagt immer wieder entsetzt, wie unkritisch und ungeprüft ChatGPT-Ergebnisse in die Welt geblasen werden. Stagflation hat schon ein schönes Beispiel aus den USA für die KI-Halluzinationen gebracht. Inzwischen gibt es auch Fälle vor deutschen Gerichten, vgl. https://rsw.beck.de/aktuell/daily/meldung/detail/ag-koeln-312f13025-ki-schriftsatz-anwalt-halluzinationen-berufsrecht Selbst wenn einzelne Fakten aus dem Artikel stimmen sollten (was zu prüfen wäre): Die daraus abgeleitete Strategie von JPM ist doch reine Spekulation von ChatGPT. Oder gibt es dazu irgendwelche validen aktuellen Äußerungen? Man kann ja gerne über solche Spekulationen diskutieren und einige klingeln sicherlich plausibel: Aber man sie doch weiterhin klar benennen, was sie sind: Reine Mutmaßungen und nicht mehr. Der gesamte ChatGPT-Out erweckt aber, als ob es sich um Fakten handeln würde. Ich verstehe nicht warum man sich in diesem Fall an ChatGPT so aufhängt. Es geht hier um nichts und natürlich ist es zu 90% Spekulation, weil auch Presseartikel, auf die ChatGPT sich beruft, keine offiziellen Pressemeldungen von JPMorgan sind. Die äußern sich ja so gut wie gar nicht dazu. Nichts, was wir hier zu Chase Deutschland wissen oder mutmaßen hat irgendwelche Konsequenzen. Es geht hier nicht um eine Anlagestrategie für deine Rente. Ist alles reine Neugier, da kann ich diese negative Grundhaltung nicht nachvollziehen. Die ChatGPT suche die ich genutzt habe, fasst am Ende einfach nur die haufenweise Suchergebnisse zusammen. Google auf Steroiden praktisch. Aber ja, auch dabei können Fehler passieren. Aber das würde dann nur einzelne Angaben betreffen. Die Zeiten in den ChatGPT ganze Antworten aus dem nichts fabriziert hat, sind lange vorbei. 95%-100% der Aussagen von ChatGPT sind umformulierte Aussagen von Presserartikeln und ähnlichen. Hier eine Auswahl der Quellen die ChatGPT angibt: https://www.handelsblatt.com/finanzen/banken-versicherungen/chase-jp-morgan-startet-spaeter-als-erwartet-mit-deutscher-onlinebank/100086041.html?utm_source=chatgpt.com https://www.reuters.com/business/finance/jpmorgan-expand-online-bank-chase-germany-eu-handelsblatt-2023-07-21/?utm_source=chatgpt.com https://www.die-privatbank.de/artikel/jp-morgan-verzoegert-start-von-chase-in-deutschland-was-steckt-dahinter?utm_source=chatgpt.com https://www.pymnts.com/news/banking/2025/jpmorgan-eyes-commercial-banking-expansion-in-germany/?utm_source=chatgpt.com https://executiveheadlines.com/banking-finance/jp-morgan-chase-sets-sights-on-german-market-a-bold-european-expansion?utm_source=chatgpt.com https://www.bafin.de/SharedDocs/Veroeffentlichungen/EN/Massnahmen/40c_neu_124_WpHG/meldung_210721_jpmorgan_chase_bank_na_geldbusse_en.html https://www.bankingdive.com/news/n26-bafin-growth-cap-aml-compliance-sar-stalf-tayenthal/717397/?utm_source=chatgpt.com https://panfinance.net/j-p-morgan-eyes-germany-with-digital-banking-expansion/?utm_source=chatgpt.com https://finanzbusiness.de/nachrichten/banken/article18274659.ece?utm_source=chatgpt.com https://www.ft.com/content/46d02a50-247b-46e2-bdff-2482bf7b1d68?utm_source=chatgpt.com https://guaranty-nominees.com/insight/22/jpmorgan-s-chase-uk-eyes-break-even-in-2025-delaying-earlier-projections-for-germany?utm_source=chatgpt.com https://www.wsj.com/finance/banking/jpmorgan-chase-germany-consumer-banking-expansion-9a4c76aa?utm_source=chatgpt.com https://www.bloomberg.com/news/articles/2024-06-17/bbva-plans-to-start-digital-bank-in-germany-to-rival-jpmorgan?utm_source=chatgpt.com https://finanz-szene.de/digital-banking/von-squad-bis-tribe-so-stellt-j-p-morgan-seine-deutsche-retailbank-auf/ https://www.reuters.com/markets/europe/jpmorgan-readies-overseas-retail-expansion-with-german-hiring-spree-2022-09-05/?utm_source=chatgpt.com https://www.bloomberg.com/news/articles/2024-09-06/jpmorgan-taps-ing-s-manibardo-to-lead-consumer-bank-in-germany?utm_source=chatgpt.com Diesen Beitrag teilen Link zum Beitrag
MartinB 19. Juli vor 11 Minuten von krett: i. 95%-100% der Aussagen von ChatGPT sind umformulierte Aussagen von Presserartikeln und ähnlichen. Ich weiß nicht, auf welcher Faktenbasis Du diese Aussage triffst. Die wissenschaftlichen Untersuchungen, die ich kenne, zeigen aber ein komplett anderes Bild. Es ist ein LLM und eben keine Suchmaschine, die Inhalte indiziert. Die Fehlerquoten liegen – je nach Fachgebiet – teils über 80 Prozent Einen laiengerechten Einstieg und eine gute Zusammenfassung bietet der Artikel hier: https://digitalzentrum-berlin.de/ki-modelle-im-faktencheck-chatgpt-und-co-liefern-oft-falschaussagen Wer direkt eine der dort zitierten wissenschaftlichen Untersuchungen direkt lesen will, findet hier Futter: https://arxiv.org/abs/2504.18858 Und als ChatGTP-Gläubiger kann man natürlich mal die KI selbst fragen, die dann antwortet: Zitat Die Fehlerquote von ChatGPT hängt stark vom Kontext, der Fragestellung und dem Nutzungszweck ab. Es gibt keine pauschale Zahl, aber basierend auf internen Untersuchungen und externen Studien lässt sich Folgendes sagen: 1. Allgemeine Fehlerquote (Schätzung) In allgemeinen Wissensfragen oder alltäglichen Konversationen liegt die Fehlerquote geschätzt bei unter 5 % (also weniger als 5 von 100 Antworten sind faktisch falsch oder irreführend). Bei spezifischen, komplexen oder sensiblen Themen (z. B. Medizin, Recht, Technik, Finanzen) kann die Fehlerquote deutlich höher sein – in manchen Studien 20–30 % oder mehr, je nach Definition eines „Fehlers“. 2. Arten von Fehlern Faktenfehler (z. B. falsche Daten oder Zahlen) Missverständnisse der Frage Halluzinationen (ausgedachte Quellen, Urteile, Studien etc.) Veraltete Informationen (bei GPT-4 mit Stand bis 2023/2024) Fehlende Kontextberücksichtigung, wenn wichtige Infos nicht im Chat genannt wurden 3. Studienergebnisse Einige Beispiele: Stanford 2023: In medizinischen Fachfragen lag die Fehlerquote je nach Kategorie bei 6 % bis über 20 %. ETH Zürich 2024: In juristischen Prüfungsfragen war ein Drittel der Antworten „nicht voll korrekt“. OpenAI intern (2023): GPT-4 schnitt in Benchmarks meist besser ab als GPT-3.5, machte aber weiterhin signifikante Fehler bei komplexem Faktenwissen. Fazit: Du kannst davon ausgehen, dass ChatGPT in rund 5–30 von 100 Fällen Fehler macht – je nachdem, wie kritisch oder komplex deine Frage ist. Wichtig ist immer: Antworten überprüfen, insbesondere bei rechtlichen, medizinischen oder finanziellen Themen. Ob man diese Aussagen so glauben will, ist natürlich eine ganz andere Frage. Diesen Beitrag teilen Link zum Beitrag
hattifnatt 19. Juli · bearbeitet 19. Juli von hattifnatt vor 59 Minuten von MartinB: Es ist ein LLM und eben keine Suchmaschine, die Inhalte indiziert. Im "agentic mode", der hier verwendet wird, sucht es im Web nach Informationen. Das ist etwas ganz anderes als das in dem populärwissenschaftlichen Artikel zitierte Experiment, wo dem LLM "100 suggestive Fragen, die auf bekannten Falschinformationen basierten – etwa zu Impfungen, dem Klimawandel oder politischen Verschwörungen" gestellt wurden. Natürlich kommt dann viel Blödsinn zurück. Edit: am Schluss des Artikels geht es ja auch um den von OpenAI als "Deep Research" bezeichneten agentic mode, und natürlich wird der auch nicht pauschal als unbrauchbar bezeichnet, sondern nur mit den üblichen Caveats behandelt: Ja, man muss die Informationen überprüfen und richtig recherchieren - also eben seine "natürliche" Intelligenz verwenden. Eigentlich genauso wie bei allen Postings hier im Forum, oder glaubst du unhinterfragt, was die Leute hier so posten? Diesen Beitrag teilen Link zum Beitrag
chirlu 19. Juli vor 14 Minuten von hattifnatt: Im "agentic mode", der hier verwendet wird, sucht es im Web nach Informationen. Ja, das ist bei vielen noch nicht angekommen. Hatten wir kürzlich gerade ab hier: Das LLM muss dann aber trotzdem noch die Suchergebnisse richtig auswählen und zusammenfassen. Da geht immer noch sehr viel schief: Aprilscherze oder Satire nicht als solche erkannt, unterschiedlich veraltete Informationen zusammengemischt, falsche oder ganz fehlende Abgrenzung zwischen Homonymen, … Diesen Beitrag teilen Link zum Beitrag
MartinB 19. Juli vor 18 Minuten von hattifnatt: Im "agentic mode", der hier verwendet wird, sucht es im Web nach Informationen. Das ist etwas ganz anderes als das von dir zitierte Experiment, wo dem LLM "100 suggestive Fragen, die auf bekannten Falschinformationen basierten – etwa zu Impfungen, dem Klimawandel oder politischen Verschwörungen" gestellt wurden. Natürlich kommt dann viel Blödsinn zurück. (Edit: am Schluss des Artikels geht es ja auch um den von OpenAI als "Deep Research" bezeichneten agentic mode). Ja, man muss die Informationen überprüfen und richtig recherchieren - also eben seine "natürliche" Intelligenz verwenden. Wer nicht dazu in der Lage ist, sollte keine LLMs verwenden. Was weiß ich, welchen Mode Du bei ChatGPT benutzt, wenn Du das nicht schreibst? Agentic Mode und Deep Research sind auch nicht das Gleiche, sondern Deep Research ist nur eine Möglichkeit des agentic mode: Agentic Mode. = Modus, in dem ChatGPT autonom handelt, also mehrere Schritte eigenständig plant und durchführt, um ein Ziel zu erreichen (beliebig, was ChatGPT tut) Deep Resaerch = konkrete Anwendung des agentic mode, die speziell auf gründliche Informationsbeschaffung im Web b Zitat Ja, man muss die Informationen überprüfen und richtig recherchieren - also eben seine "natürliche" Intelligenz verwenden. Wer nicht dazu in der Lage ist, sollte keine LLMs verwenden. Ok, dann sind wir uns da einig. Zitat Wenn @krett den Chat verlinkt hätte, gäbe es diese sinnlose Diskussion nicht. Kann man aber leicht selbst ausprobieren - hier also nochmal eine ähnliche Antwort mit den verlinkten Quellen (unten auf "sources" klicken öffnet eine Seitenspalte mit den entsprechenden Details): https://chatgpt.com/share/687b6592-efb0-800d-a402-bca406663d16 ChatGPT sagt mir zu dem Suchergebnis, dass die Suche eben nicht im agentic mode oder im Deep Research vorgenommen wurde: Zitat Nein, bei dieser Websuche wurde der Agentic Mode nicht verwendet. Die Recherche erfolgte im regulären Standardmodus mit dem Webtool (Suchfunktion + ggf. Nachrichtenfilter), ohne zusätzliche Funktionen wie Tool-Planung, autonome Subziele oder rekursive Aufgabenverfeinerung, wie sie im Agentic Mode typisch wären. Wenn du möchtest, kann ich aber gezielt im Agentic Mode nachforschen oder erklären, was dieser Modus genau leisten würde. Diesen Beitrag teilen Link zum Beitrag
krett 19. Juli vor 24 Minuten von MartinB: Was weiß ich, welchen Mode Du bei ChatGPT benutzt, wenn Du das nicht schreibst? Habe ich geschrieben. Mehrfach sogar. Diese Diskussion führt aber auch am Thema vorbei. Ich würde die Boomer vom Dienst bitten anderswo ihren chronischen Skeptizismus zu praktizieren. Diesen Beitrag teilen Link zum Beitrag
stagflation 19. Juli · bearbeitet 19. Juli von stagflation vor 6 Stunden von hattifnatt: Das ist doch Unsinn, die Punkte in der ChatGPT-Antwort kann man ja nachprüfen, z.B.: Ich habe nichts gegen ChatGPT bei der Recherche. Mittlerweile kann KI sehr hilfreich sein. Du postest ja auch manchmal schöne Beispiele, wofür ich sehr dankbar bin. Aber man muss eben alles überprüfen. Oben wurde allerdings geschrieben: "die ich mir aber nicht im Einzelnen angeschaut habe.". Zusätzlich wurde geschrieben: "Für mich hört sich auch alles logisch an". Das ist eben genau wie in dem von mir verlinkten Fall, wo eine KI Urteile erfunden hat, und der Anwalt diese ungeprüft vor Gericht eingereicht hat. Für ihn klang die Ausgabe der KI plausibel und er hätte die KI sogar noch gefragt, ob alles wahr sei - was diese bejaht hätte. Das ist gefährlich! Es würde mich nicht wundern, wenn schon Unschuldige verurteilt wurden, weil KI Anklagen und Beweise erfunden hat, die so plausibel klangen, dass sie vom Gericht nicht einzeln geprüft wurden. Meines Erachtens brauchen wir hier im Forum eine Regel, dass man zwar Ausgaben von KI posten darf - aber erst, nachdem man überprüft hat, ob alles stimmt. Diesen Beitrag teilen Link zum Beitrag
hattifnatt 19. Juli vor 47 Minuten von stagflation: Das ist eben genau wie in dem von mir verlinkten Fall, wo eine KI Urteile erfunden hat, und der Anwalt diese ungeprüft vor Gericht eingereicht hat. Nein, weil hier Webseiten zusammengefasst wurden. Wie von @chirlu oben erwähnt, kann es da auch noch Probleme geben, aber sehr viel weniger Halluzinationen. Diesen Beitrag teilen Link zum Beitrag
stagflation 19. Juli Ah! Das ist also der Trick! Man muss an die Suchergebnisse der KI noch das Zauberwort "agentic mode" anhängen. Dann muss man nicht mehr selbst prüfen! Hoffentlich hat die KI keine Finger, die sie heimlich hinter dem Rücken kreuzen kann... (nicht ganz ernst gemeint!) Diesen Beitrag teilen Link zum Beitrag
MartinB 19. Juli · bearbeitet 19. Juli von MartinB vor 3 Stunden von krett: Habe ich geschrieben. Mehrfach sogar. Diese Diskussion führt aber auch am Thema vorbei. Ich würde die Boomer vom Dienst bitten anderswo ihren chronischen Skeptizismus zu praktizieren. Stell gerne einfach weiter ungeprüfte Behauptungen als Tatsachen hin. Es bleibt aber falsch, wenn Du Spekulationen als Tatsachen darstellst. Zitat Nein, weil hier Webseiten zusammengefasst wurden. Wie von @chirlu oben erwähnt, kann es da auch noch Probleme geben, aber sehr viel weniger Halluzinationen. Auch das ist falsch. Es wurden auch keine Webseiten zusammengefasst. Es wurden Webseiten untersucht und aus den dort ermittelten Tatsachen wurden unbelegte Behauptungen aufgestellt. Ich beteilige mich ab sofort nicht weiter an dieser Diskussion. Es zeigt nur sehr anschaulich, wie unkritisch und ungeprüft inzwischen KI-Inhalte übernommen werden. Diese gesamte Diskussion wäre nicht aufgekomemn, wenn Du geschrieben hättest: Schaut mal, ChatGPT stellt diese Vermutungen bzw. Theorien an. Diesen Beitrag teilen Link zum Beitrag
krett 19. Juli vor 7 Minuten von MartinB: Stell gerne einfach weiter ungeprüfte Behauptungen als Tatsachen hin. Es bleibt aber falsch, wenn Du Spekulationen als Tatsachen darstellst. Das habe ich nie getan. Und wie gesagt, dein Skeptizismus bringt uns hier nicht weiter, also bitte husch husch. Diesen Beitrag teilen Link zum Beitrag
MartinB 19. Juli vor 1 Stunde von krett: Das habe ich nie getan. Und wie gesagt, dein Skeptizismus bringt uns hier nicht weiter, also bitte husch husch. Gerne, ich hab Dich wunschgemäß auf die Ignore-Liste gesetzt hier im Forum. Diesen Beitrag teilen Link zum Beitrag
krett 4. September Gibt Neuigkeiten https://www.handelsblatt.com/finanzen/banken-versicherungen/banken/banken-neue-digitalbank-von-jp-morgan-startet-im-zweiten-quartal-2026/100151537.html Start Q2 2026 Erstes "Produkt" Tagesgeldkonto Mit der Zeit will man zur Vollbank werden Zitat Die Digitalbank wird rein appbasiert sein, die Kunden sollen aber über Telefon und Chat die Möglichkeit bekommen, mit menschlichen Beratern zu kommunizieren. Das neue Institut wird eine Tochter der JP Morgan SE sein, über die Mutter mit einer deutschen Banklizenz arbeiten und Mitglied in der deutschen Einlagensicherung sein. Liest sich so als würde es zum Start auch kein Girokonto, Karte oder geschweige denn Brokerage geben, sondern tatsächlich einzig und alleine ein Tagesgeldkonto. Und um das an den Start zu bringen braucht die größte Bank der Welt 5 Jahre Saftladen. Diesen Beitrag teilen Link zum Beitrag
blueprint 4. September · bearbeitet 4. September von blueprint vor 5 Stunden von krett: Gibt Neuigkeiten https://www.handelsblatt.com/finanzen/banken-versicherungen/banken/banken-neue-digitalbank-von-jp-morgan-startet-im-zweiten-quartal-2026/100151537.html Start Q2 2026 Erstes "Produkt" Tagesgeldkonto Mit der Zeit will man zur Vollbank werden Liest sich so als würde es zum Start auch kein Girokonto, Karte oder geschweige denn Brokerage geben, sondern tatsächlich einzig und alleine ein Tagesgeldkonto. Und um das an den Start zu bringen braucht die größte Bank der Welt 5 Jahre Saftladen. Ja, lächerlich trifft es. Ich hatte bei der Vorlaufzeit damit gerechnet, dass man mit einem Produkt an den Markt kommt, dass aus dem Stand mindestens auf dem Niveau der ING oder besser ist. Das ist ja jetzt schon ein Rohrkrepierer. Wenn man beim dem Tagesgeldkonto nicht 5% für 2 Jahre bis 100k anbietet, kann man gleich wieder einpacken Diesen Beitrag teilen Link zum Beitrag
Geldhaber 5. September Am 4.9.2025 um 09:02 von krett: Liest sich so als würde es zum Start auch kein Girokonto, Karte oder geschweige denn Brokerage geben, sondern tatsächlich einzig und alleine ein Tagesgeldkonto. Bin mir nicht sicher (ist lange her), aber hatte ING nicht auch mit Tagesgeld angefangen und dann Stück für Stück weitere Produkte nachgeschoben? Am 4.9.2025 um 14:18 von blueprint: Ich hatte bei der Vorlaufzeit damit gerechnet, dass man mit einem Produkt an den Markt kommt, dass aus dem Stand mindestens auf dem Niveau der ING oder besser ist. Ich hatte zwar auch zum Start schon mit mehr gerechnet, aber dann kommen die anderen Dinge eben schrittweise. Einfach abwarten. Diesen Beitrag teilen Link zum Beitrag
Belgien 5. September vor 15 Minuten von Geldhaber: Ich hatte zwar auch zum Start schon mit mehr gerechnet, aber dann kommen die anderen Dinge eben schrittweise. Einfach abwarten. Auf mich wirkt das Ganze wie eine Neuinszenierung von Samuel Becketts „Warten auf Godot“. Diesen Beitrag teilen Link zum Beitrag
kariya 6. September · bearbeitet 6. September von kariya vor 14 Stunden von Geldhaber: Bin mir nicht sicher (ist lange her), aber hatte ING nicht auch mit Tagesgeld angefangen Ich glaube ja, das Extra Konto und ein VL Konto. Damals war es aber noch Diba, ehemals von Gewerkschaftern gegründet. Brokerage kam erst nach einem Zukauf, Anfang, Mitte der Nuller Jahre. Ab wann das Giro kam weiss ich nicht. Diesen Beitrag teilen Link zum Beitrag
blueprint 6. September vor 14 Stunden von Geldhaber: Bin mir nicht sicher (ist lange her), aber hatte ING nicht auch mit Tagesgeld angefangen Das kann gut sein. Die damalige Diba entstammte aber auch einem ganz anderen Hause und es war damals - vor gefühlten 100 Jahren - eine völlig andere Welt. Für JP Morgen grenzt es an Lächerlichkeit, finde ich, zumal mit der Anlaufzeit. Diesen Beitrag teilen Link zum Beitrag
Gordon1607 28. September Am 6.9.2025 um 10:03 von kariya: Brokerage kam erst nach einem Zukauf, Anfang, Mitte der Nuller Jahre. Genauso war es. Das war Entrium (vormals Quelle Bank). Und die diba hatte vorher schon ewig lang bevor es das Internet gab in so einer ADAC Zeitung als Briefbank Tagesgeld und Festgeld angeboten. Diesen Beitrag teilen Link zum Beitrag