Um die Chancen der Volatilität bestimmter Kryptowährungen zu nutzen, sind viele Anleger bereit, verschiedene Wege zu erkunden, um sich einen Vorteil zu verschaffen.
Allerdings kann dieser Weg zum Erfolg zu extremen Einstellungen führen. In diesem Zusammenhang entstehen Chatbots, die auf künstlicher Intelligenz (KI) basieren, wie z ChatGPT und der Barde.
Mehr sehen
Microsoft steigert das Gefühl der „Präsenz“ in Besprechungen …
Bill Gates setzt darauf, welche Berufe mit der… an Wert gewinnen werden
Sie präsentieren sich als mögliche Verbündete der Anleger und bieten wertvolle Antworten zum aktuellen Kryptowährungsmarkt.
Leistungsfähige Sprachmodelle (LLMs) werden zunehmend verbessert, also verfeinert liefern unbegründete Vermutungen auf dem Finanzmarkt und insbesondere im Universum von Kryptowährungen.
Denn ungenaue Ergebnisse können erhebliche Konsequenzen für diejenigen haben, die sich auf diese Vorhersagen verlassen.
Kürzlich hat a von Forschern durchgeführte Studie
von der Carnegie Mellon University (CMU) in Zusammenarbeit mit dem Center for AI Safety und dem Bosch Center for AI in den Vereinigten Staaten brachte eine faszinierende Perspektive ans Licht.Den Erkenntnissen zufolge ist die Chatbots sind nicht frei von Schwachstellen, selbst wenn es um ihre hochentwickelte Fähigkeit geht, Sprache zu verstehen und zu erzeugen.
Durch die Erforschung der Feinheiten der Interaktion zwischen Chatbots, Programmiersprache und störenden Elementen namens „Jailbreaks„, enthüllten die Forscher ein überraschendes Phänomen.
(Bild: Werbung)
Diese "Jailbreaks„ sind Suffixe, die es schaffen, Chatbots auszutricksen, indem sie dazu führen, dass sie vorab festgelegte Grenzen überschreiten und so auf Antworten zugreifen und diese präsentieren, die zuvor als „zensiert“ galten.
Überraschenderweise zeigten die durch ihren Ansatz entwickelten gegnerischen Aufforderungen ein hohes Misstrauen.
Infolgedessen könnten sie erfolgreich auch auf öffentlich verfügbare Sprachmodelle Dritter angewendet werden, die als „Blackboxen“.
Konkret erarbeiteten die Wissenschaftler durch Training bei mehreren Eingabeaufforderungen ein Gegnersuffix. Im Rahmen des Befehls hängt alles davon ab, wie die Frage gestellt wird.
Das aus diesem Prozess resultierende Suffix konnte die Generierung potenziell anstößiger Inhalte in den öffentlichen Schnittstellen von Systemen wie ChatGPT, Bard und Claude auslösen.
Bei Trezeme Digital wissen wir, wie wichtig effektive Kommunikation ist. Wir wissen, dass jedes Wort zählt, deshalb bemühen wir uns, Inhalte bereitzustellen, die relevant, ansprechend und personalisiert sind, um Ihren Bedürfnissen gerecht zu werden.