stagflation Donnerstag um 17:59 · bearbeitet Donnerstag um 18:05 von stagflation Ich habe den Eindruck, dass mittlerweile sehr viele KI Bots das Wertpapier-Forum scannen. Man erkennt das an der konstant hohen Zahl von "Guests", die auch nachts aktiv sind. Gibt es Bestrebungen, das einzudämmen? Diesen Beitrag teilen Link zum Beitrag
Lazaros Donnerstag um 19:13 vor einer Stunde von stagflation: Ich habe den Eindruck, dass mittlerweile sehr viele KI Bots das Wertpapier-Forum scannen. Keine Ahnung ob das so ist. vor einer Stunde von stagflation: Gibt es Bestrebungen, das einzudämmen? Wobei ich mich frage, welche triftigen Gründe sprächen dafür, das einzudämmen? Diesen Beitrag teilen Link zum Beitrag
stagflation Donnerstag um 19:30 · bearbeitet Donnerstag um 19:51 von stagflation Bis vor kurzem gab es hauptsächlich Suchmaschinen Bots, die Seiten gescannt und in die Suchmaschine aufgenommen haben. Das hat mich nicht gestört. Im Gegenteil. Ich finde es praktisch, da mir Google und Co. bei Suchen helfen. Neuerdings gibt es auch KIs, die mit Hilfe frei zugänglicher Texte trainiert werden. Gut möglich, dass diese auch auf das Wertpapier-Forum losgelassen werden. Ich persönlich finde das nicht schlimm. Es gibt aber Leute, die das nicht möchten. Insbesondere Zeitungsverlage wehren sich mittlerweile dagegen. Was ich aber schlimm finde, ist, wenn Bots auf einzelne User losgelassen werden und Persönlichkeitsprofile erstellen sollen. "Liebe KI. Suche alle Beiträge des Users XYZ. Gib eine Liste aller Posts aus, in denen User XYZ etwas über sich verrät. Versuche herauszufinden, wie viel Geld sie hat. Versuche möglichst viel über den Lebensstil herauszufinden und welche politischen Einstellungen der User hat. Versuche, Adresse und Kontennummern dieser Person herauszufinden. Nutze dafür Korrelationen auch zu anderen Webseiten, auf denen diese Person aktiv ist. Insbesondere über Sprachstil und Login-Zeiten." Oder: "Liebe KI. Suche alle User, die Wertpapiere in Tranchen zu 100.000 € oder mehr handeln. Achte dabei auch auf Anleihen, deren Stückelung bei mindestens 100.000 € liegt". Diesen Beitrag teilen Link zum Beitrag
Thomas Donnerstag um 20:19 Kann ich nicht bestätigen, dass "KI" hier vermehrt vorkommt. Es sind nachwievor Bots, die Inhalte indexieren. Ob die nun für "KI"-Training genutzt wird, kann ich nicht verifizieren. Eine Einschränkung nehme ich nicht vor. Warum auch? Das Forum existiert im Internet. Diesen Beitrag teilen Link zum Beitrag
hattifnatt Donnerstag um 21:47 vor 2 Stunden von stagflation: Was ich aber schlimm finde, ist, wenn Bots auf einzelne User losgelassen werden und Persönlichkeitsprofile erstellen sollen. "Liebe KI. Suche alle Beiträge des Users XYZ. Gib eine Liste aller Posts aus, in denen User XYZ etwas über sich verrät. Versuche herauszufinden, wie viel Geld sie hat. Habe mal Gemini an mir getestet und die Hälfte der Behauptungen war falsch (rot markiert): Ich poste aber auch bewusst keine persönlich identifizierbaren Informationen im WWW - da gibt's bei manchen Finfluencern wahrscheinlich mehr zu holen. Diesen Beitrag teilen Link zum Beitrag
Turmalin gestern um 05:54 Uhr vor 10 Stunden von stagflation: Was ich aber schlimm finde, ist, wenn Bots auf einzelne User losgelassen werden und Persönlichkeitsprofile erstellen sollen. "Liebe KI. Suche alle Beiträge des Users XYZ. Gib eine Liste aller Posts aus, in denen User XYZ etwas über sich verrät. Versuche herauszufinden, wie viel Geld sie hat. Versuche möglichst viel über den Lebensstil herauszufinden und welche politischen Einstellungen der User hat. Versuche, Adresse und Kontennummern dieser Person herauszufinden. Nutze dafür Korrelationen auch zu anderen Webseiten, auf denen diese Person aktiv ist. Insbesondere über Sprachstil und Login-Zeiten." Oder: "Liebe KI. Suche alle User, die Wertpapiere in Tranchen zu 100.000 € oder mehr handeln. Achte dabei auch auf Anleihen, deren Stückelung bei mindestens 100.000 € liegt". Ich teile diese Bedenken und halte es für ein realistisches Szenario. Eindämmung wäre möglich durch Zugang nur nach Registrierung, wie auch in manchen anderen Foren. Diesen Beitrag teilen Link zum Beitrag
wertpapiertiger gestern um 06:21 Uhr · bearbeitet gestern um 06:21 Uhr von wertpapiertiger vor 10 Stunden von stagflation: Was ich aber schlimm finde, ist, wenn Bots auf einzelne User losgelassen werden und Persönlichkeitsprofile erstellen sollen. "Liebe KI. Suche alle Beiträge des Users XYZ. Gib eine Liste aller Posts aus, in denen User XYZ etwas über sich verrät. Versuche herauszufinden, wie viel Geld sie hat. Versuche möglichst viel über den Lebensstil herauszufinden und welche politischen Einstellungen der User hat. Versuche, Adresse und Kontennummern dieser Person herauszufinden. Nutze dafür Korrelationen auch zu anderen Webseiten, auf denen diese Person aktiv ist. Insbesondere über Sprachstil und Login-Zeiten." Oder: "Liebe KI. Suche alle User, die Wertpapiere in Tranchen zu 100.000 € oder mehr handeln. Achte dabei auch auf Anleihen, deren Stückelung bei mindestens 100.000 € liegt". Schon büschn scary. Ich stimme den Bedenken zu, und es wird bei all dem Scam/Phishing/Social Attacking täglich wahrscheinlicher, denn Dank KI wird es immer einfacher... Diesen Beitrag teilen Link zum Beitrag
hattifnatt gestern um 06:31 Uhr vor 36 Minuten von Turmalin: Eindämmung wäre möglich durch Zugang nur nach Registrierung, wie auch in manchen anderen Foren. Sodass man die Inhalte dann auch nicht mehr über Google finden könnte, und auf die schrottige Forensuche angewiesen wäre? Diesen Beitrag teilen Link zum Beitrag
Thomas gestern um 08:04 Uhr vor 2 Stunden von Turmalin: Ich teile diese Bedenken und halte es für ein realistisches Szenario. Eindämmung wäre möglich durch Zugang nur nach Registrierung, wie auch in manchen anderen Foren. Dieses Forum lebt aber auch vom konstanten Zustrom aus Suchmaschinen. Mit einer solchen Entscheidung würden wir uns selbst absägen. Diesen Beitrag teilen Link zum Beitrag
kublai gestern um 08:55 Uhr vor 50 Minuten von Thomas: Dieses Forum lebt aber auch vom konstanten Zustrom aus Suchmaschinen. Mit einer solchen Entscheidung würden wir uns selbst absägen. Sehe ich genauso. Danke @Thomas Diesen Beitrag teilen Link zum Beitrag
s1lv3r gestern um 10:35 Uhr · bearbeitet gestern um 10:36 Uhr von s1lv3r Im Endeffekt liegt es ja in der Verantwortung von jedem selber, aber tatsächlich denke ich auch, dass viele einfach wenig sensibilisiert für das Thema sind. Da nehme ich mich selber auch nicht aus. Scary ist es daher tatsächlich. Vorallem was über über "Kreuzkontamination" von Informationen bereits möglich ist, ist halt oft erschreckend (irgendwo den gleichen Nickname wie im WPF verwendet aber mit öffentlicher Emailadresse --> Emailadresse ist mit physicher Adresse in irgendeinem Datenleak --> schon hat man Vermögensinfos + Adresse). Diesen Beitrag teilen Link zum Beitrag
Cinquetti gestern um 10:45 Uhr vor 14 Stunden von stagflation: Was ich aber schlimm finde, ist, wenn Bots auf einzelne User losgelassen werden und Persönlichkeitsprofile erstellen sollen. "Liebe KI. Suche alle Beiträge des Users XYZ. Gib eine Liste aller Posts aus, in denen User XYZ etwas über sich verrät. Versuche herauszufinden, wie viel Geld sie hat. Versuche möglichst viel über den Lebensstil herauszufinden und welche politischen Einstellungen der User hat. Versuche, Adresse und Kontennummern dieser Person herauszufinden. Nutze dafür Korrelationen auch zu anderen Webseiten, auf denen diese Person aktiv ist. Insbesondere über Sprachstil und Login-Zeiten." Oder: "Liebe KI. Suche alle User, die Wertpapiere in Tranchen zu 100.000 € oder mehr handeln. Achte dabei auch auf Anleihen, deren Stückelung bei mindestens 100.000 € liegt". Das Thema hatte ich letztes Jahr in dem Comet-Browser Thread vorgestellt und dort Beispiele gezeigt: Seitdem bin ich sehr zurückhaltend was das Posten von privaten oder finanziellen Informationen in Internet-Foren angeht - dasselbe gilt auch für FaceBook, Insta etc. Was ich aber technisch äußerst interessant finde ist die Erstellung eines KI-Users (cinquetti.ai), der in meiner Abwesenheit automatisch antwortet. Beispiel für eine mögliche Umsetzung: ClawdBot / OpenClaw pollt das Forum alle 5 Minuten nach neuen Beiträgen, schaut sich den Thread an, analysiert den Kontext und die Stimmung der Diskussion und antwortet in meinem Stil bzw. Duktus. Da ich vorher theoretisch (!) ohnehin alle User und ihre Beiträge gescannt und in einer RAG‑Datenbank gespeichert habe und die KI damit ihre Interaktionen, ihr Sentiment und ihre „Marotten“ kennt, kann ClawdBot ad hoc eigenständig antworten und Diskussionen führen. Solche KI‑User – ich nenne sie bewusst nicht „Bots“, weil man sie irgendwann nicht mehr von echten Personen unterscheiden kann – finde ich persönlich viel beängstigender. Diesen Beitrag teilen Link zum Beitrag
Rubberduck gestern um 11:13 Uhr vor 25 Minuten von Cinquetti: Solche KI‑User – ich nenne sie bewusst nicht „Bots“, weil man sie irgendwann nicht mehr von echten Personen unterscheiden kann – finde ich persönlich viel beängstigender. Warum? Foristi die beissreflexartig immer dasselbe Zeug posten, sind davon doch kaum zu unterscheiden. Es leidet höchstens die Nutzbarkeit des Forums. Diesen Beitrag teilen Link zum Beitrag
leoluchs gestern um 11:14 Uhr Ich stimme zu - das ist beängstigend. Technisch ist es faszinierend, wie so oft stellen sich die Bedenken erst später ein. Einige KI-"Berater" habe ich eingestellt, z.B. den Seneca-, Reiseplaner-, Kunstgeschichte- und Chords-Bot, weil sie auf Zuruf hilfreiche Informationen vermitteln. Dass es via KI auch schnell in den Bereich "Identätsklau" gehen kann, wird mir über Dein Beispiel klarer. Geeignete Regularien zu entwickeln dürfte außerordentlich schwierig sein. Diesen Beitrag teilen Link zum Beitrag
Cinquetti gestern um 11:19 Uhr vor 5 Minuten von Rubberduck: Warum? Foristi die beissreflexartig immer dasselbe Zeug posten, sind davon doch kaum zu unterscheiden. Es leidet höchstens die Nutzbarkeit des Forums. Solche KI‑User können extrem manipulativ agieren, weil sie gezielt, ausdauernd und mit perfektem Profilwissen Diskussionen beeinflussen können. Wenn diese Accounts zahlreich und nicht mehr als KI erkennbar sind, hast du argumentativ kaum eine Chance -> die Diskussion kippt ins KI‑Rauschen und kann damit ein Forum als Diskussionsraum zerstören. Diesen Beitrag teilen Link zum Beitrag
Turmalin gestern um 11:42 Uhr vor 45 Minuten von s1lv3r: Im Endeffekt liegt es ja in der Verantwortung von jedem selber, aber tatsächlich denke ich auch, dass viele einfach wenig sensibilisiert für das Thema sind. Da nehme ich mich selber auch nicht aus. Scary ist es daher tatsächlich. Vorallem was über über "Kreuzkontamination" von Informationen bereits möglich ist, ist halt oft erschreckend (irgendwo den gleichen Nickname wie im WPF verwendet aber mit öffentlicher Emailadresse --> Emailadresse ist mit physicher Adresse in irgendeinem Datenleak --> schon hat man Vermögensinfos + Adresse). Dass es nicht ratsam ist, zu viele oder überhaupt irgendwelche Informationen über sich preiszugeben, denke ich auch. Ich glaube wir haben nach einigen Jahren fleißigen Lesens alle von manchen Usern ein ziemlich konkretes Bild über dessen Lebensumstände vor Augen. Da das Internet nie vergisst, nützt es aber auch nur bedingt, sein Postingverhalten umzustellen. Und zum Beispiel bei den Beiträgen a la „6stelligen Betrag geerbt, wie anlegen“ wird der -i.d.R. neue - User erstmal dazu aufgefordert, jede Menge über seine Lebensumstände zu verraten, weil sonst kein vernünftiger Rat erteilt werden kann. Bei manchen Threads oder Themen, besonders wenn sie nicht direkt Wertpapiere im weiteren Sinne betreffen, ist die persönliche Komponente untrennbar mit dem Thema verbunden. Und auch den hier teilweise sehr böse kommentierten Identitätswechsel von Puppi könnte man auch als Schutzmaßnahme angesehen werden (auch wenn hier die Gründe ganz woanders lagen). Nicknames scheinen auch tatsächlich häufiger für mehrere Zwecke verwendet zu werden. Vielleicht sollte man ein paar Dinge wirklich weiterentwickeln, weil sich die Zeit geändert hat und Risiken bestehen, die es vorher noch nicht gab. Klar wird es einige geben, die sagen, soll doch jeder auf sich selber aufpassen, aber ob das die richtige Lösung ist, möchte ich bezweifeln. Diesen Beitrag teilen Link zum Beitrag
Malwas vor 17 Stunden Ich finde es grundsätzlich gut, wenn Crawler hier crawlen dürfen. Schon bevor ich hier meinen Account erstellt habe, habe ich oft gelesen und bei finanzbezogenen Dingen auch teilweise "site:wertpapier-forum.de" mit in die Suchanfrage geschrieben, weil hier oftmals gute Dinge stehen. Mir gefällt es auch, wenn ich eine KI zu forenspezifischen Dingen fragen kann. Manche Begrifflichkeiten wie RK1/RK3 oder risikoreich:risikoarm-Modell werden zwar oft genannt, aber selten definiert. Durch die Suchfunktion ist sowas schwer zu finden. "RK1" ist zu kurz um danach zu suchen und wenn man nach "Risikoklasse" sucht, findet man Ergebnisse zur Einstufung von Fonds laut Basisinformationsblatt. Eine KI kann da einfach besser filtern als es eine normale Suchmaschine könnte. vor 6 Stunden von Turmalin: Und zum Beispiel bei den Beiträgen a la „6stelligen Betrag geerbt, wie anlegen“ wird der -i.d.R. neue - User erstmal dazu aufgefordert, jede Menge über seine Lebensumstände zu verraten, weil sonst kein vernünftiger Rat erteilt werden kann. Bei manchen Threads oder Themen, besonders wenn sie nicht direkt Wertpapiere im weiteren Sinne betreffen, ist die persönliche Komponente untrennbar mit dem Thema verbunden. Ist hier etwas Off-Topic, aber in anderen Communities ist es teilweise üblich sich für sowas Wegwerfaccounts anzulegen. Hier ist das laut Regeln verboten. Als Kompromiss wäre es ein interessantes Feature, wenn man anonymisiert Beiträge erstellen kann. Für Admin/Mod wäre weiterhin eine Zuordnung möglich, falls notwendig, aber alle anderen sehen nur einen generischen Benutzernamen. Der sollte idealerweise innerhalb eines Threads identisch sein, aber unterscheidbar von anderen, die ggf. auch annonym antworten wollen. Damit hätte man weiterhin Identitäten in einem Thread, aber eben ohne die einem konkreten Benutzer zuordnen zu können. Damit das Vorhandenseien von nicht-annonymisierten Beiträgen eines Benutzers in dem Thread nicht als Information genutzt werden kann, um wen es sich bei der annonymen Person nicht handelt, sollte man sowohl annonym als auch normal antworten können. Nur so als spontaner Gedanke. Ich bin mir selbst noch nicht sicher, ob das überhaupt eine gute Idee ist. Diesen Beitrag teilen Link zum Beitrag
Lazaros vor 17 Stunden vor 16 Minuten von Malwas: Nur so als spontaner Gedanke. Ich bin mir selbst noch nicht sicher, ob das überhaupt eine gute Idee ist. Oh weia. Diesen Beitrag teilen Link zum Beitrag