Zum Inhalt springen
Barqu

ChatGPT kann wohl Aktienbewegungen vorhersagen

Empfohlene Beiträge

dev
vor 5 Minuten von Fasteindialog:

Und wenn diese KI programmieren kann  dann sagt uns das eigentlich nur, das die Fähigkeit zu programmieren nicht so komplex ist, wie es gerne den Anschein machen soll. 

Eventuell kehrt sich dann endlich das Gehaltverhältnis Reinigungskraft zu Programmierer um, das wäre auch langsam an der Zeit,

Ich verstehe auch nicht wieso das nicht jeder kann, aber die Realität verblüfft mich immer wieder.

 

Aber ich finde, das allgemeine Niveau bzgl. Programmierung ist auf jeden Fall gestiegen, schon allein weil es immer einfacher wird, sowie viele Tools & Co einem enorm viel Arbeit abnehmen, eventuell kommt die KI auch dazu.

 

Aber am Ende muß man vorher schon eine Idee haben was gehen könnte und dann einen geeigneten Entwickler/Programmierer/KI?, welche diese Idee umsetzen kann.

Oft scheitert ein Projekt mit der Inkompatibilität der Teilnehmer. :-*

Diesen Beitrag teilen


Link zum Beitrag
chirlu
vor 7 Stunden von Pilharmonie:

Um nun auf den eingangs zitierten Satz einzugehen, dass ChatGPT "strunz doof" sei. ChatGPT zeigt hier, was es kann. Es kopiert Dinge nicht, es versteht Dinge und leitet daraus Ergebnisse ab.

 

Ja, es ist interessant, wie schnell Menschen einem strunzdoofen System Verständnis- und Schlussfolgerungsfähigkeit zuschreiben. Das war selbst bei der primitiven ELIZA schon so.

 

Es gibt recht gute Einführungen in die Funktionsweise und tatsächlichen Fähigkeiten von ChatGPT. Die von Stephen Wolfram ist lang, aber sehr aufschlussreich.

Diesen Beitrag teilen


Link zum Beitrag
Gast231208
vor 22 Minuten von chirlu:

 

Ja, es ist interessant, wie schnell Menschen einem strunzdoofen System Verständnis- und Schlussfolgerungsfähigkeit zuschreiben.

Wenn ich mir die kurze Geschichte der Menschheit und besonders ihre "Führer" anschaue, dann ...

Diesen Beitrag teilen


Link zum Beitrag
hattifnatt
· bearbeitet von hattifnatt
vor 1 Stunde von chirlu:

Es gibt recht gute Einführungen in die Funktionsweise und tatsächlichen Fähigkeiten von ChatGPT. Die von Stephen Wolfram ist lang, aber sehr aufschlussreich.

Ja, eine sehr gute Darstellung! 

vor 4 Stunden von dev:

Soweit ich weis, wurde die KI mit Algorithmen gefüttert und kann sie in verschiedene Programmiersprachen umsetzen.

Nein, sie wurde nur mit Programmiersprachen gefüttert (ebenso wie mit Englisch, Deutsch usw.) und kann Programme (oder Texte) in diesen Sprachen erzeugen. Es hat nichts mit dem Wissen über Algorithmen zu tun (ebensowenig wie z.B. bei natürlichen Sprachen mit dem Wissen über Grammatik).

Diesen Beitrag teilen


Link zum Beitrag
Gast240408
1 hour ago, hattifnatt said:

(ebensowenig wie z.B. bei natürlichen Sprachen mit dem Wissen über Grammatik).

Technisch gesehen machen Sie nicht viel: Kaskaden von Matrizen mit ein paar Nichtlinearitaeten nach jeder Multiplikation, und eine analytische gradientenbasierte Methode zum Auffinden lokaler Minima zur Fehlerminimierung. Auch fuer Transformerarchitekturen gilt das weiterhin (ja ich weiss, es gibt auch andere Methoden als backprop und ueberwachtes Lernen, aber das ist graduell im Unterschied).

 

Aber ein Argument ist das jetzt nicht: Jedes Kind lernt seine Muttersprache ohne explizite Grammatik. Jeder der spaeter im Leben eine andere Sprache lernt weiss, dass das in Geschwindigkeit und Tiefe eine Kruecke gegen die Leistung des Kleinkindes ist. Und das Kind lernt durch Mustererkennung und Ausprobieren. Das ist ein inherenter Bestandteil menschlichen Denkens und eben auch der Arbeitsweise dieser Art Maschine. Die Frage, ob es essentiell hoeheres Menschenspezifisches gibt, kommt wieder einmal auf den Tisch und ist keineswegs beantwortet. Mit dieser potentiellen Demuetigung koennen viele Leute nicht leben. Ich selbst neige auch der Meinung zu, dass da noch mehr ist, aber die aktuelle Stufe des Mustererkennungsaspekts den neuronale Netzarchitekturen erreicht haben werde ich den Teufel tun und negieren.

 

 

Diesen Beitrag teilen


Link zum Beitrag
reko
· bearbeitet von reko
vor 7 Stunden von myrtle:

Und das Kind lernt durch Mustererkennung und Ausprobieren. Das ist ein inherenter Bestandteil menschlichen Denkens und eben auch der Arbeitsweise dieser Art Maschine.

Dieses intuitive Wissen hat Vorteile und Nachteile gegenüber dem analytischen Wissen das an Universitäten gelehrt wird. Beides zu verbinden ist die Kunst.

Neuronale Netze befinden sich auch in den Gehirnen aller Tiere. Bezeichnen wir sie deshalb als intelligent?

Diesen Beitrag teilen


Link zum Beitrag
Ramstein

Beispiel für die Unzulänglichkeit von ChatGPT:

 

Zitat

Männer und Frauen gehen in ein Restaurant. Die Männer Zahlen jeweils 25 €, die Frauen jeweils 16€. Die Frauen geben insgesamt 1 € mehr aus als die Männer.
Wieviele Männer und wieviele Frauen sind es?

 

ChatGPT antwortet:

Zitat

Sei M die Anzahl der Männer und F die Anzahl der Frauen. Wir haben folgende Informationen:

Die Männer zahlen insgesamt 25€ * M.

Die Frauen zahlen insgesamt 16€ * F.

Die Frauen geben insgesamt 1€ mehr aus als die Männer: 16€ * F = 25€ * M + 1€.

Um die Anzahl der Männer und Frauen zu finden, müssen wir diese Gleichungen lösen. Hier ist ein möglicher Weg:

16F = 25M + 1 (1) (nach Frauen umgestellt)

Wir suchen ganze Zahlen M und F, daher muss 16F eine Zahl sein, die 1 mod 25 ist. Wir probieren einige Werte aus:

16 * 1 = 16 (nicht geeignet) 16 * 2 = 32 (geeignet) 16 * 3 = 48 (geeignet) 16 * 4 = 64 (geeignet)

Wir sehen, dass F = 2, 3 oder 4 sein kann. Wir setzen diese Werte in Gleichung (1) ein:

Für F = 2 haben wir 16 * 2 = 25M + 1, also M = 39/25, was nicht erlaubt ist.

Für F = 3 haben wir 16 * 3 = 25M + 1, also M = 47/25, was nicht erlaubt ist.

Für F = 4 haben wir 16 * 4 = 25M + 1, also M = 63/25, was nicht erlaubt ist.

Keine der drei Möglichkeiten funktioniert, d.h. es gibt keine ganzzahligen Lösungen für M und F, die diese Bedingungen erfüllen. Möglicherweise haben Sie einen Schreibfehler in der Frage gemacht, oder es ist nicht möglich, eine Lösung zu finden.

 

Lösung:
   - es sind 7 Männer und 11 Frauen
   - die Männer zahlen 175 €, die Frauen zahlen 176 €
   - die Rechnung beträgt 351 €

Diesen Beitrag teilen


Link zum Beitrag
Oli Garch

Inzwischen hat ChatGPT gelernt. Bei mir kommt diese Antwort:

Dies ist ein mathematisches Problem. Wir können es lösen, indem wir zwei Gleichungen mit zwei Unbekannten aufstellen. Nennen wir die Anzahl der Männer x und die Anzahl der Frauen y. Dann haben wir:

25x = 16y + 1 y = (25x - 1) / 16

Da x und y ganze Zahlen sein müssen, muss 25x - 1 durch 16 teilbar sein. Der kleinste Wert für x, der diese Bedingung erfüllt, ist 7. Setzen wir diesen Wert in die obige Gleichung ein, erhalten wir y = 10.

Also gibt es 7 Männer und 10 Frauen.

Diesen Beitrag teilen


Link zum Beitrag
Ramstein
· bearbeitet von Ramstein

Also merkt es sich das. Denn ich hatte weiter gemacht:

Zitat

Die Antwort ist falsch. Es sind 7 Männer und 11 Frauen. Die Männer zahlen 175 €, die Frauen zahlen 176 €. Die Rechnung beträgt 351 €

 

Antwort:

Zitat

Es tut mir leid, dass meine vorherige Antwort nicht korrekt war. Danke für die Korrektur!

Hier ist der Lösungsweg:

Sei M die Anzahl der Männer und F die Anzahl der Frauen. Dann haben wir:

Die Männer zahlen insgesamt 25€ * M.

Die Frauen zahlen insgesamt 16€ * F.

Die Frauen geben insgesamt 1€ mehr aus als die Männer: 16€ * F = 25€ * M + 1€.

Um die Anzahl der Männer und Frauen zu finden, müssen wir diese Gleichungen lösen. Hier ist ein möglicher Weg:

16F = 25M + 1 (1) (nach Frauen umgestellt)

Da M und F ganze Zahlen sein müssen, ist 25M + 1 eine Zahl, die 1 mod 16 ist. Wir probieren einige Werte aus:

25 * 1 + 1 = 26 (geeignet) 25 * 2 + 1 = 51 (nicht geeignet) 25 * 3 + 1 = 76 (nicht geeignet) 25 * 4 + 1 = 101 (nicht geeignet) 25 * 5 + 1 = 126 (nicht geeignet) 25 * 6 + 1 = 151 (nicht geeignet) 25 * 7 + 1 = 176 (geeignet)

Wir sehen, dass M = 7 und F = 11 die Lösung ist, da 25M + 1 = 176 und 16F = 16 * 11 = 176.

Daher gibt es 7 Männer und 11 Frauen im Restaurant. Die Männer zahlen insgesamt 25€ * 7 = 175€ und die Frauen zahlen insgesamt 16€ * 11 = 176€. Insgesamt beträgt die Rechnung 351€.

 

Also: Man darf sich nicht blind (blöd) auf ChatGPT verlassen, sondern muss (so vorhanden) seine NI (natürliche Intelligenz) nutzen (hier: nicht nur 2, 3 und 4 probieren), dann kann man ChatGPT als Hilfsmittel, nicht als Ersatz für eigenes Denken einsetzen.

 

Interessant wäre zu untersuchen, ob gelernt, oder nur gemerkt wurde. Also: eine ähnliche, aber anders formulierte Aufgabe mit anderen Zahlen stellen.

Diesen Beitrag teilen


Link zum Beitrag
hattifnatt
· bearbeitet von hattifnatt
vor 8 Stunden von myrtle:

Aber ein Argument ist das jetzt nicht

Es sollte auch ein Argument für die umgekehrte Richtung sein: Ebensowenig wie man Wissen über Grammatik braucht, um brauchbare Texte zu erzeugen, braucht man Wissen über Algorithmen, um brauchbare Programme zu erzeugen.

Diesen Beitrag teilen


Link zum Beitrag
Gast240408
· bearbeitet von myrtle
4 hours ago, reko said:

Dieses intuitive Wissen hat Vorteile und Nachteile gegenüber dem analytischen Wissen das an Universitäten gelehrt wird. Beides zu verbinden ist die Kunst.

Neuronale Netze befinden sich auch in den Gehirnen aller Tiere. Bezeichnen wir sie deshalb als intelligent?

 

Das ist gerade einer der Punkte - zuerst einmal zu akzeptieren, dass Mustererkennung auf Ebene heutiger KI ein Bestandteil ist - das allerdings auch mit allen Konsequenzen. Die Schwarz-/Weiss-Diskussionen ueber Intelligenz, echte Intelligenz usw. fuehrt kaum jemand im Gebiet. Noch einmal herausgehoben: Schwarz-Weiss nicht - Diskussion schon. Und den Teilaspekt gilt es zu honorieren in  Form von Quantifizierung, Klasse der damit loesbaren Probleme usw..

 

Ich bin ja selbst in der Bilderkennungsvariante des Problems taetig. Ich interessiere mich schon immer - das ist nicht Standard - fuer den biologischen Teil. Die unteren Schichten vom Auge bis zum Visuellen Kortex 1 sind auch schon recht gut verstanden. Darueber, gerade ab VC 3 hin zur Synthetisierung und Representation von allgemeinem Wissen sowie in die Bereiche hinein mit Verantwortlichkeiten fuer neuronale Ablaeufe von Lernen wird die Lage sehr verschwommen. Aber auch dort ist bis jetzt nichts originaer Menschenspezifisches zu einer Individualitaet, Willen oder Intellekt gefunden worden. Ist nicht alles, wie ich wie gesagt denke, ist aber der Stand. Dahingehend sind auch die emergenten Ausbrueche interessant, die an den letzten Iterationen der neueren Netze festgestellt wurden (Fuer einen Ueberblick, siehe hier). 

 

edit: Ach so

 

Quote

analytischen Wissen das an Universitäten gelehrt wird.

 

Wo kommt das her?, ist eine gute Frage hier. Eine Variante ist naemlich, dass das auch "nur" spezifische Mustererkennung ist. Grammatik z.B. als ein Muster auf Sprache. Und als Mathematiker kann ich nur sagen - Beweise sind das Eine, die zu beweisenden Aussagen erst einmal zu finden ist die hohe Schule. Und die dafuer benoetigte  Intuition beinhaltet jede Menge Mustererkennung, sei es in Symmetrieeigenschaften, der Reduktion von bekannten bis dato unabhaengigen Problemen auf eine Wurzel usw. usf.

Diesen Beitrag teilen


Link zum Beitrag
reko
· bearbeitet von reko
vor 1 Stunde von myrtle:

Und die dafuer benoetigte  Intuition beinhaltet jede Menge Mustererkennung, sei es in Symmetrieeigenschaften, der Reduktion von bekannten bis dato unabhaengigen Problemen auf eine Wurzel usw. usf.

Ich glaube nicht, dass für die dafür notwendige Kreativität Mustererkennung und der Vergleich mit bisherigen Lerninhalten ausreicht. Ähnliches gilt auch für Investments.

Für entscheidend halte ich, dass man Annahmen (Hypothesen) trifft, Modelle bildet und die Konsequenzen durchrechnet.

Diesen Beitrag teilen


Link zum Beitrag
Gast240408
50 minutes ago, reko said:

Ich glaube nicht, dass für die dafür notwendige Kreativität Mustererkennung und der Vergleich mit bisherigen Lerninhalten ausreicht. Ähnliches gilt auch für Investments.

Für entscheidend halte ich, dass man Annahmen (Hypothesen) trifft, Modelle bildet und die Konsequenzen durchrechnet.

Und diese Faehigkeit zur Bildung von Hypothesen besitzen als Voraussetzung u.a. und wesentlich Mustererkennung. Beispiel - Mathematik, weil ich da eben herkomme: Die auf Galois zurueckgehende gleichnamige Theorie loeste vor 200 Jahren das Problem der Loesung des Polynoms fuenften Grades durch sogenannte Radikale zuerst in einem befriedigenden Sinn (es gibt leicht aeltere Loesungen, die aber eben nicht die allgemeinen Gruende herausarbeiteten). Letztere liegen in Eigenschaften sogenannter Permutationsgruppen begruendet, die i.W. die Moeglichkeiten von Invarianzen bei Vertauschungen der Wurzeln eines solchen Polynoms beschreiben. Das sind der Natur nach Symmetrieeigenschaften und Symmetrie ist eines der schlagenden Beispiele fuer ein Muster. Um eine dahingehende Hypothese zu formulieren, muss man dieses Muster sehen oder ahnen. Auch moderne Mathematik und Physik heben wesentlich auf Symmetrieeigenschaften in vielerlei Kontexten weiterhin ab.

Diesen Beitrag teilen


Link zum Beitrag
Actionic

Ist nicht die Aladdin-Software bzw. eher -Dienstleistung(?) von Blackrock, die an professionelle Investoren vertrieben wird bereits so eine Anwendung?

 

Die werden in der Datenaufbereitung und Analyse wohl einigermaßen entwickelt sein..

 

Diesen Beitrag teilen


Link zum Beitrag
Gast230510
Am 22.4.2023 um 09:29 von Ramstein:

Also merkt es sich das. Denn ich hatte weiter gemacht:

 

Antwort:

 

Also: Man darf sich nicht blind (blöd) auf ChatGPT verlassen, sondern muss (so vorhanden) seine NI (natürliche Intelligenz) nutzen (hier: nicht nur 2, 3 und 4 probieren), dann kann man ChatGPT als Hilfsmittel, nicht als Ersatz für eigenes Denken einsetzen.

 

Interessant wäre zu untersuchen, ob gelernt, oder nur gemerkt wurde. Also: eine ähnliche, aber anders formulierte Aufgabe mit anderen Zahlen stellen.

Das was du gemacht hast, ist das was der Entwickler von ChatGPT will. Du hast 
ChatGPT etwas beigebracht, angelernt, mit Daten „gefüttert“. Besser wäre gewesen, wenn du nicht die richtige Lösung, sondern eine falsche genannt hättest. Dann würde man anhand der Reaktion merken, wie Chatgpt arbeitet. Ob sie dich korrigiert oder es so als richtig hinnimmt oder dir eventuell Lösungsvorschläge unterbreitet, etc. Das was KIs fehlt, ist Kreativität, das „um die Ecke denken“ , unter anderem. 

 

Außerdem gibt es doch hier im Forum so etwas Ähnliches, den Thread „Gedanken zu den Märkten“ ;-) Da passiert das gleiche nur langsamer - die Vergangenheit wird ausgewertet. Über die Zukunft muss man sich aber Gedanken machen, wenn man vor Investitionentscheidungen steht. Die Vergangenheit ist nur dann von Bedeutung, wenn man schon investiert war. Anleger unterliegen ziemlich oft Geschehnissen der Vergangenheit und treffen daraufhin Entscheidungen, für die Zukunft, ohne es richtig begründen zu können. Sie denken sich einfach, dass es so weitergeht wie bisher ( Dividenden werden sicherlich weiter bezahlt und erhöht; in Emerging Markets wird nicht mehr investiert, weil sie in den letzten Jahren nicht gut performt haben etc.)

 

@myrtle bringen dir deine mathematischen Fähigkeiten etwas für deine Investments? Also machst du mehr Rendite dadurch? Erkennst du gewisse Strukturen, „Gesetzmäßigkeiten“, Trends etc. schneller und besser (häufiger) als andere Marktteilnehmer?

Diesen Beitrag teilen


Link zum Beitrag
sharepower

Das Ding lernt (und merkt sich) überhaupt nichts - es muss erst jemand "nachprogrammiert" haben, dann funzzt es.

 

Der Standardsatz lautet sehr oft, wenn ich klar sage, dass die Antwort falsch ist: "Entschuldigen Sie, Sie haben Recht, dass ...."

 

Was mir auffällt, dass sehr oft Antworten kommen, die völlig an den Haaren herbeigezogen sind und wenn man einen Tag später die gleiche Frage stellt, kommt nochmal eine Antwort an den Haaren herbeigezogen und nicht (wie erwartet) die selbe. 

Jemand muss das Teil so programmiert haben, dass (random) Antwort (so schwachsinnig sie auch ist) vor Einsicht des Nichtwissens priorisiert wurde.

 

Bitte nicht falsch verstehen. Ich liebe das Teil und hat bei mir schon mind. Google zu 50 Prozent ersetzt und wird auch die Zukunft sein, aber aktuell ist das Teil nicht nur

 

strunz doof, sondern auch sehr oft belehrend und daher sehr nervend - vom Threadtitel wollen wir erst mal überhaupt nicht reden!

Diesen Beitrag teilen


Link zum Beitrag
hattifnatt
· bearbeitet von hattifnatt
vor 55 Minuten von sharepower:

Das Ding lernt (und merkt sich) überhaupt nichts - es muss erst jemand "nachprogrammiert" haben, dann funzzt es.

Prinzipiell ja ("nachprogrammiert" wäre hier eher "nachtrainiert"), es wird allerdings der bisherige Verlauf der aktuellen Unterhaltung berücksichtigt.

vor 55 Minuten von sharepower:

und wenn man einen Tag später die gleiche Frage stellt, kommt nochmal eine Antwort an den Haaren herbeigezogen und nicht (wie erwartet) die selbe. 

Das wird auch in dem von @chirlu verlinkten Wolfram-Artikel erklärt: 

https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/

Zitat

But, OK, at each step it gets a list of words with probabilities. But which one should it actually pick to add to the essay (or whatever) that it’s writing? One might think it should be the “highest-ranked” word (i.e. the one to which the highest “probability” was assigned). But this is where a bit of voodoo begins to creep in. Because for some reason—that maybe one day we’ll have a scientific-style understanding of—if we always pick the highest-ranked word, we’ll typically get a very “flat” essay, that never seems to “show any creativity” (and even sometimes repeats word for word). But if sometimes (at random) we pick lower-ranked words, we get a “more interesting” essay.

 

The fact that there’s randomness here means that if we use the same prompt multiple times, we’re likely to get different essays each time. And, in keeping with the idea of voodoo, there’s a particular so-called “temperature” parameter that determines how often lower-ranked words will be used, and for essay generation, it turns out that a “temperature” of 0.8 seems best.

 

P.S.:

vor 55 Minuten von sharepower:

Jemand muss das Teil so programmiert haben, dass (random) Antwort (so schwachsinnig sie auch ist) vor Einsicht des Nichtwissens priorisiert wurde.

Das könnte gut damit zusammenhängen, dass es an Texten aus dem Internet trainiert worden ist ;) Die rassistischen/chauvinistischen/sexistischen Inhalte musste man ja auch mühsam manuell herausfiltern, ein wenig von der typischen "Rechthaberei" ist wohl übrig geblieben.

Diesen Beitrag teilen


Link zum Beitrag
reko
· bearbeitet von reko
vor 22 Minuten von hattifnatt:

es wird allerdings der bisherige Verlauf der aktuellen Unterhaltung berücksichtigt.

Ich gehe davon aus, dass dies nicht gelernt wird sondern bei der nächsten Unterhaltung wieder vergessen ist.

Es bräuchte für die Aktienbewertung und den Börsenhandel zu viel Zeit bis aktuelle Entwicklungen im neuronalen Netz ausreichend berücksichtigt sind.

Man müßte auch das Alter des gelernten Wissens mit bewerten. Was letztes Jahr richtig war kann jetzt falsch sein.

Diesen Beitrag teilen


Link zum Beitrag
slowandsteady
· bearbeitet von slowandsteady
vor 1 Stunde von sharepower:

Jemand muss das Teil so programmiert haben, dass (random) Antwort (so schwachsinnig sie auch ist) vor Einsicht des Nichtwissens priorisiert wurde.

ChatGPT ist eine etwas bessere Markov-Kette, hier ein Beispiel wie Markov Ketten funktionieren: https://projects.haykranen.nl/markov/demo/ Wenn ich diese Webapp als "Trainingsmaterial" mit der Schöpfungsgeschichte aus der Bibel füttere, dann kommt auch schon lesbarer Text im gleichen Stil raus und das obwohl der gesamte Code nur aus wenigen PHP-Zeilen besteht. Hier ein Beispiel was es so ausspuckt:

Zitat

Und Gott sprach: Es werden Lichter: ein jeder nach seines Licht und schied Gott sah, das Sammlung der Wasser unter dem Himmel an ein jedes nach seiner Art. Und Gott schied das uns Menschen machte Gott sah, das den Tag und die Erde aufgehen über die Vögeln und Frau. Und Gott sprach: Es sammle sie und über dem Himmels. 21 Und Gott sprach: Es sammle sich habe euch und über der nach seien Licht Tage und schuf er ihn; und Tiere des Himmelt, ein jedes nach seiner Art Früchten, in denen aufgehen Gras und Kraut zur Nahrung gegeben. Und es geschah so.

Was ChatGPT "besser" macht als diese Webanwendung ist:

  • viel mehr Trainingsmaterial als nur ein einzelner Text - vermutlich das ganze Internet
  • enorm viel mehr Rechenleistung (eine einzelne Anfrage kostet nur in der Generierung wohl so 10ct an Stromkosten!)
  • manuelle Anpassungen und Feintuning des Trainingsmaterials, dass es nicht komplett rassistisch wird und/oder nicht allzuviel Blödsinn "lernt"

Aber letztendlich ist ChatGPT immer noch dumm. Es wird keine kreativen Ideen von selbst haben.

 

Was ChatGPT also kann ist "die Mehrheitsmeinung" aus Millionen Forenposts zu einer Aktie zu extrahieren und in nette Textform zu verpacken. Das kann man natürlich als Vorhersage nehmen - denn wenn viele erwarten, dass Aktie XY steigt, dann werden diejenigen auch die Aktie kaufen und auch ChatGPT wird "kaufen" sagen. Die Aktie wird wahrscheinlich dann steigen und somit hat ChatGPT recht. Das könnte man aber auch ohne den Umweg über ChatGPT ermitteln und Algotrader machen das schon seit Jahrzehnten. Das führt dann in der Realität zu sowas: Per Saldo: Der Hathaway-Effekt - n-tv.de

Zitat

Wer denkt, Computer in Handelsräumen lesen keine Klatschmagazine, der irrt. Zumindest die Vertreter der Zunft, die für den automatisierten Börsenhandel verantwortlich sind, haben eine Leidenschaft für Promis.

Diese Entdeckung verdanken wir Dan Mirvish, seines Zeichens Regisseur und Blogger der "Huffington Post". Er hat eine erstaunliche Wechselbeziehung entdeckt: Wenn die Schauspielerin Anne Hathaway für Schlagzeilen sorgt, steigt der Aktienkurs der Beteiligungsfirma des US-Milliardärs Warren Buffett, Berkshire Hathaway. Beispiel gefällig? Am Freitag vor der jüngsten Oscarverleihung, die von Hathaway moderiert wurde, gewannen die Berkshire-Papiere zwei Prozent.

Mirvish führt weitere Beispiele an und hat für dieses merkwürdige Phänomen eine prima Erklärung: Der automatisierte Börsenhandel ist schuld.

 

Diesen Beitrag teilen


Link zum Beitrag
Nachtfalke
On 4/22/2023 at 9:29 AM, Ramstein said:

Also: Man darf sich nicht blind (blöd) auf ChatGPT verlassen, sondern muss (so vorhanden) seine NI (natürliche Intelligenz) nutzen (hier: nicht nur 2, 3 und 4 probieren), dann kann man ChatGPT als Hilfsmittel, nicht als Ersatz für eigenes Denken einsetzen.

 

Interessant wäre zu untersuchen, ob gelernt, oder nur gemerkt wurde. Also: eine ähnliche, aber anders formulierte Aufgabe mit anderen Zahlen stellen.

 

+1. 

 

Ich habe selbst schon auf dem Forum berichtet, dass ich ChatGPT zwischenzeitlich ein paar doch ganz schön schwere Fragen gestellt hatte, auf die hin ich von der Software UNWAHRE Antworten bekam. 

Warum also sollte ich die Software dann also bei Fragen konsultieren, von deren Beantwortung für mich eventuell mehr abhängt als in dem betreffenden Fall eine Buchempfehlung?

 

Diese versprochene AI-Revolution, ich seh' sie noch nicht. Ich sehe, dass AI immer wichtiger werden wird, sicher - aber für die nächsten paar Jahre sehe ich noch kein massentaugliches Angebot, wie es die Medien die letzten Monate vorgaukeln. Mein Kühlschrank kann mir jetzt vielleicht bald sagen, wann ich Milch nachkaufen muss. Der Weg zu dem süßen Holo-Girlfriend aus "Bladerunner 2049" ist aber vielleicht doch noch ein Bisserl weiter weg, als man uns allgemein glauben machen möchte.

Diesen Beitrag teilen


Link zum Beitrag
Gast240408
· bearbeitet von myrtle
2 hours ago, slowandsteady said:

ChatGPT ist eine etwas bessere Markov-Kette

Na ja, das ist schon etwas viel understatement. Im Ansatz verletzt ein Transformer natuerlich die strenge Markoveigenschaft, weil Woerter aus dem gesamten Kontextfenster herangezogen werden, nicht nur das letzte (was Markov fordert).

 

Man kann sich dem technisch entziehen, indem man Markovketten hoeherer Ordnung definiert, die von weiter in der Vergangenheit liegenden Zustaenden abhaengen. Jede solche Kette kann in ein Markovsystem erster Ordnung (einem strengen) konvertiert werden. Aber das hat seinen Preis, naemlich - ein im Fall ChatGPT/nichttrivialer Transformer extremes - exponentiell von der Laenge dieser Vergangenheit abhaengendes Aufblaehen des Zustandsraumes.

Diesen Beitrag teilen


Link zum Beitrag
slowandsteady
· bearbeitet von slowandsteady
vor 49 Minuten von myrtle:

Na ja, das ist schon etwas viel understatement.

Ja, ein neuronales Netzwerk ist komplizierter als die simple Webapp mit ihrer Markov-Kette. Aber letztendlich ist ein neuronales Netzwerk auch nur eine Menge Knoten und auf Knotenebene simple Mathematik mit Plus, Minus, Mal, Geteilt. Die Nichtlinearität wird dadurch erreicht, dass es Aktivierungsfunktionen gibt, aber auch das ist mathematisch nicht super kompliziert.

 

Man kann jetzt sagen: Menschliche Gehirne sind auch nur ein neuronales Netzwerk und sind trotzdem intelligent. Allerdings sind selbst tierische Gehirne nochmal Größenordnungen komplexer als das was wir aktuell modellieren können.

Ich glaube, der meiste Fortschritt bei AI im letzten Jahrzehnt ist hauptsächlich dem Umstand geschuldet, dass wir immer mehr und mehr Rechenleistung und somit komplexere Modelle fürs Training und Generierung verwendet haben als davor - sicher auch, weil die Kosten durch Moore's Law gesunken sind. Also genau das was du hier geschrieben hast:

Zitat

Aber das hat seinen Preis, naemlich - ein im Fall ChatGPT/nichttrivialer Transformer extremes - exponentiell von der Laenge dieser Vergangenheit abhaengendes Aufblaehen des Zustandsraumes.

 

Letztendlich landet man bei der eher philosophischen Frage: "Was ist Intelligenz?". Ist jemand, der 95% der Fragen richtig beantwortet und bei 5% absoluten Unfug erzählt intelligent? Falls nein, dann sind fast alle Menschen nicht intelligent ;) 

Diesen Beitrag teilen


Link zum Beitrag
Gast240408
3 hours ago, Nachtfalke said:

Warum also sollte ich die Software dann also bei Fragen konsultieren, von deren Beantwortung für mich eventuell mehr abhängt als in dem betreffenden Fall eine Buchempfehlung?

 

Diese versprochene AI-Revolution, ich seh' sie noch nicht. Ich sehe, dass AI immer wichtiger werden wird, sicher - aber für die nächsten paar Jahre sehe ich noch kein massentaugliches Angebot, wie es die Medien die letzten Monate vorgaukeln. Mein Kühlschrank kann mir jetzt vielleicht bald sagen, wann ich Milch nachkaufen muss. Der Weg zu dem süßen Holo-Girlfriend aus "Bladerunner 2049" ist aber vielleicht doch noch ein Bisserl weiter weg, als man uns allgemein glauben machen möchte.

Dann duerftest du mit keinem Menschen mehr reden, weil du natuerlich von denen jede Menge unwahrer Antworten bekommst. Abgesehen von der bekannten direkten PC-Frisierung von ChatGPT kann man das auch positiv als intelligenzartige Leistung oder gar emergentes Verhalten ansehen. Du bist halt dann genauso gefordert wie bei jeder Meinungsbildung unter menschlichen Akteuren verschiedener Interessen und deren Moeglichkeiten, dich zu manipulieren.

Diesen Beitrag teilen


Link zum Beitrag
Nachtfalke
· bearbeitet von Nachtfalke
4 hours ago, myrtle said:

Dann duerftest du mit keinem Menschen mehr reden, weil du natuerlich von denen jede Menge unwahrer Antworten bekommst. Abgesehen von der bekannten direkten PC-Frisierung von ChatGPT kann man das auch positiv als intelligenzartige Leistung oder gar emergentes Verhalten ansehen. Du bist halt dann genauso gefordert wie bei jeder Meinungsbildung unter menschlichen Akteuren verschiedener Interessen und deren Moeglichkeiten, dich zu manipulieren.

Okay, dann triffst Du also Deine Investment-Entscheidungen ab jetzt also mit Hilfe der Chatbot-Software, die manchmal Dinge erfindet, und ich bleibe bei meiner Google-Recherche, die mir manchmal Ergebnisse listet, die ich so nicht brauche.

 

"Hey, Bottie, warum betreibt Elon Musk eigentlich neben Twitter und Tesla auch noch Space-X?" -- "Hallo, Nachtfalke, beep-boop! Elon plant seine Rückkehr in seine Heimat, zum Planeten Krypton."

 

 puss-boots.gif

Diesen Beitrag teilen


Link zum Beitrag
Gast240408
· bearbeitet von myrtle
1 hour ago, Nachtfalke said:

Okay, dann triffst Du also Deine Investment-Entscheidungen ab jetzt also mit Hilfe der Chatbot-Software

Um das klarzustellen, ich treffe keinerlei Investmententscheidung mit dieser Software und werde die Hoelle aufpassen, wenn die breitbandig begonnen wird als backend irgendwelcher Suchmaschinen zu fungieren. Besonders, wenn sentiment produziert wird. Die Gebiete, auf denen ich diese Teile nutze und mit ihnen interagiere, sind komplett anders gelagert.

Diesen Beitrag teilen


Link zum Beitrag

Erstelle ein Benutzerkonto oder melde dich an, um zu kommentieren

Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können

Benutzerkonto erstellen

Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!

Neues Benutzerkonto erstellen

Anmelden

Du hast bereits ein Benutzerkonto? Melde dich hier an.

Jetzt anmelden

×
×
  • Neu erstellen...