This is topic Allgemeiner KI-Thread in forum OffTopic & SmallTalk at technoforum.de.
Um den Thread anzusehen, klicke auf diesen Link:
https://forum.technoforum.de/cgi-bin/ultimatebb.cgi?ubb=get_topic;f=21;t=007247
Geschrieben von: Hyp Nom (Usernummer # 1941) an 
: 
   
was mich viel mehr umtreibt als KI in der musik: nach der finalen kapitalismusstufe, wenn das monopol für alles in der hand der größten KI-maschinenbesitzer liegt, bleibt wohl nur noch der totale kommunismus als lösung (vergesellschaftung (enteignung) der produktionsmittel & immobilien und zentral gesteuerte verteilung der güter)? der größte treppenwitz der geschichte, nachdem sich der westen als systemsieger über den kommunismus des ostens wähnte..
denn was macht man mit den ganzen leuten, die keine arbeit mehr haben? dass das KI-zeitalter eine riesen nachfrage nach (neuer) arbeit bringt, die nur ohne KI erledigt werden kann, ist absehbar nicht der fall. die macht der besitzer der maschinen wird so groß sein wie nie. und für alle menschen geld drucken ohne gegenleistung, wird das geld entwerten wie nie.
ChatGPT dazu: "Wahrscheinlich wird es keine freiwillige Umverteilung durch die wenigen Maschinenbesitzer geben. Wenn die Bevölkerung keinen Zugang mehr zu Einkommen hätte, gäbe es massive politische und soziale Instabilität (Aufstände, Enteignungen, Systemumstürze). Damit wird es unausweichlich: Ein automatisiertes System muss Mechanismen entwickeln, die den Reichtum breit streuen – ob über Steuern, Grundeinkommen, Kollektiveigentum oder eine ganz neue Wirtschaftsordnung."
die politik der letzten jahrzehnte ging in die gegenrichtung, so dass sich bei den besitzern der produktionsmittel (und des kapitals) verhältnismäßig immer mehr sammelt. dass diese politik zeitig radikal auf den kopf gestellt wird - dafür gibt es keinerlei anzeichen...
 
Geschrieben von: soulstar (Usernummer # 5668) an 
: 
   
Hier muss ich auch sofort was dazu schreiben...
Hyp, du sagst es. Du triffst es auf den Punkt. 
Im Grunde weis ich gar nicht wo ich anfangen sollte... Ich bin jetzt 50 Jahre, war immer Realist mit einem Hang zum Optimismus...aber so langsam hat man (das System in dem wir alle stecken) mir den letzten Rest ausgetrieben. Unsere Politik ist vollkommen Macht und Innovationslos, ein stures Verwalten und auf Sicht fahren. Traurig. 
Die Welt ordnet sich gerade neu; Europa schaut nur zu anstatt mit zu gestalten; im positiven Sinn ein eRolle zu besetzen- nein, man streitet lieber darüber ob in Gaza ein Genozid stattfindet oder nicht... anstatt ihn zu beenden oder wenigstens zu kritisieren.
KI oder was auch immer es inzwischen ist... ich fürchte der Zug ist schon so weit unterwegs...das es Aussichtslos scheint. Die Menschen nutzen vollkonmen hörig Technologien die sie nicht verstehen und die droht zu entgleiten. Von Machtkonzentration bei den Hyperreichen mal ganz abgesehen. 
Mir fehlt inzwischen die Fantasie wie das alles friedlich ausgehen kann. 
Ist nur noch die Frage ob Hard Exit oder Soft Exit... oder gar kein Exit.  ![[Wink]](wink.gif) 
 
Geschrieben von: chris (Usernummer # 6) an 
: 
   
/edit: Sorry. Ich glaube, ich sollte meine Gedanken doch etwas 'entschärft' formulieren *g* - gebt mir'n Moment Zeit für  ![[Wink]](wink.gif)
 
 [ 05.09.2025, 23:48: Beitrag editiert von: chris ]
 
Geschrieben von: wizard of wor (Usernummer # 5122) an 
: 
   
edit... gehts mir doch glatt so wie Chris  ![[smilesmile]](graemlins/smilesmile.gif) ich denk mir lieber meinen Teil...
  ich denk mir lieber meinen Teil...   ![[Wink]](wink.gif)
 
 [ 06.09.2025, 09:59: Beitrag editiert von: wizard of wor ]
 
Geschrieben von: soulstar (Usernummer # 5668) an 
: 
   
Ja, das Thema ist nicht ungefährlich.
Aber wichtig.
 
Geschrieben von: Hyp Nom (Usernummer # 1941) an 
: 
   
das passt zu den statistiken, dass die angst und unsicherheit, seine meinung zu sagen, auf immer neue höchststände klettert und man sich lieber in selbstzensur übt.
auch daran lässt sich ablesen, ob die demokratie bei uns noch funktioniert.
wenn man das mal mit den politischen diskussionen früherer jahre hier vergleicht...
die einfache lösung für euch: schreibt eure meinung ungefiltert ChatGPT und bittet um eine politisch korrekte umformulierung für deutschland im jahre 2025.  ![[Wink]](wink.gif) 
 
Geschrieben von: chris (Usernummer # 6) an 
: 
   
Also, natürlich sage ich frei Schnauze meine Meinung, aber da es u.U. passieren könnte, dass ich mal beruflich in die US und A reisen muss, will ich jetzt doch nicht zu viele Datenpunkte im Netz hinterlassen, die aus einer Einreise eine direkte Rückreise machen, müsste vor so einer Reise ohnehin mal unzählige WhatsApp-Nachrichten entfernen, die sich nicht besonders positiv auf den werten Herrn T. beziehen. Das war also mein Grund, warum ich den Beitrag doch besser editiert hatte. Wenngleich ich es sowieso, wann immer möglich, vermeiden möchte, in den nächsten etwa 3 Jahren dorthin zu reisen und die Ausrede, dass mein Reisepass abgelaufen wäre, zählt bald auch nicht mehr, da der neue bereits in der Bundesdruckerei ist. Das hat jetzt natürlich nicht direkt mit dem Thread zu tun, aber insofern doch, weil: - und hier greife ich das auf, was ich schon geschrieben hatte und nun nur etwas anders beschreibe:
Aktuell habe ich keine 'Angst' vor der AI, aber sagen wir's so: Ich mache mir seit einigen Jahren wesentlich mehr Sorgen als früher. Früher war ich doch zu naiv und ging von eine friedlichen, grünen Zukunft aus: Abrüstung, grüner Strom, Abkehr von fossilen Brennstoffen, mehr Nachhaltigkeit, mehr 'Bio', mehr Bewusstsein für das, was wir dem Planeten antun und wie sich das auswirkt. Natürlich im Bewusstsein, dass es zahlreiche Staaten und Staatsführer gibt, die nur ihre eigenen Interessenten verfolgen und das große, ganze Bild ignorieren. Zumindest hatte ich seit der Jugend den Eindruck, dass hierzulande etwas Positives passiert.... 
Und wenn ich jetzt statt brummender Dieselmotoren hier vor der Wohnung ein leises Surren von Elektromotoren höre, habe ich hin und wieder den Eindruck, dass wir uns noch immer auf einem guten Weg befinden, unabhängig davon, dass wir viel zu langsam sind und auch 'grüne Technologie' (hallo seltene Erden) für die Umwelt zahlreiche Nachteile birgt. 
Und der Eindruck leidet, wenn ich auf den Bürgersteigen Tonnen von Müll sehe, mehr Plastik in die gelbe Tonne stopfe als alles andere, aus Fast Fashion nun 'Ultra Fast Fashion' wurde und man sich für 1,99 EUR irgendwas aus China bestellen kann, was niemand wirklich braucht, dafür aber trotzdem um die halbe Welt geschippert oder geflogen wird, während zugleich Menschen dafür ausgebeutet werden und wir uns mit solchen Produkten eventuell auch noch selbst vergiften. 
Und dann haben wir da die Autokraten und Diktatoren, die aufrüsten, ihre Macht zunehmend stärker demonstrieren und der Meinung sind, ihre "neue Weltordnung" durchzusetzen, in dem sie ein Land überfallen und zehn-, hunderttausende Menschen umbringen, verstümmeln und die Psyche einer ganzen Nation auf lange Zeit zerstören.
Wenn das noch nicht reicht, kommt - damit zurück zum Thema - quasi wie aus dem 'nichts' eine neue Technologie, die sicherlich auch neue Jobs erzeugt - aber vermutlich nur für die Super-Elite an Mathematikern oder etwa Entwicklern. Und gleichzeitig Millionen an Jobs vernichten wird. Und auch wenn heute die KI noch halluziniert und totaler Murx dabei rauskommt, wenn man den Systemen blind vertraut oder einfach nicht weiß, wie man sie nutzt - es ist ja nur eine Frage der Zeit, bis jeder Doofi sie fehlerfrei nutzen kann und die Ergebnisse korrekt sein werden.
Gleiches gilt für die Automatisierung, denn es werden selbstfahrende Fahrzeuge kommen, selbstfahrende Schiffe, autonome Drohnen-Taxis und Zustell-Systeme, Logistik wird von Robotern und Maschinen übernommen und die zunehmende Anzahl an 'selbst check-out'-Kassen in Supermärkten zeichnet ja schon ein erstes Bild dieser Richtung. 
Und ja, Menschen werden diese Systeme bauen und entwickeln - teilweise, denn irgendwann in vermutlich sehr naher Zukunft werden Maschinen die Maschinen entwickeln und bauen. Und es werden autonome Maschinen sein, die Kriege führen werden.
Und wenn dann die Superintelligenz da sein wird, wird es die große Frage der Menschheit sein, ob sie uns nutzt, unheilbare Krankheiten heilt, den Planeten vor dem Klimakollaps retten kann, für Lebensqualität für alle sorgen wird - oder die Superintelligenz der Überzeugung sein wird, dass es dem Planeten ohne Mensch besser gehen würde?
Wahrscheinlich könnte man stundenlang tausende an Beispielen, Gedanken und Erlebnissen ausführen und diskutieren - das waren nur so kurz skizziert ein paar meiner Gedanken - und auch wenn ich aktuell keine Angst habe, so wachsen meine Sorgen.
 
Geschrieben von: oskar (Usernummer # 7383) an 
: 
   
@Hyp Nom: Sorry, aber worum genau geht es hier? KI? Kapitalismus? Kommunismus? Meinungsfreiheit? Futurismus? Utopien oder Distopien? Statistiken? Lebensempfehlungen? 
Oder testest Du hier nur einen Hyp Nom "Agenten" an uns aus?
Die Beiträge sind recht aufregend, aber ich bin etwas unsicher worum es bei dem "Allgemeinen KI-Thread" geht, um mich daran zu BETEILIGEN!!!
   ![[Razz]](tongue.gif)
 
 [ 07.09.2025, 09:55: Beitrag editiert von: oskar ]
 
Geschrieben von: chris (Usernummer # 6) an 
: 
   
Das Titelthema des 'Spiegel' (denke, das war letzte Woche und ist hinter der Paywall) ist durchaus interessant und spannend, ich hab' mir ein paar Notizen dazu gemacht, die ich heute oder morgen in Form von kurzen Zitaten gern mit euch teilen will, da sie durchaus zum Nachdenken anregen können.
Als mir y'tube am Wochenende dieses Interview vorgeschlagen hatte, war ich zuerst doch recht gebannt und fand vieles schlüssig:
"Dr. Roman Yampolskiy: These Are The Only 5 Jobs That Will Remain In 2030!
 ![[hand]](graemlins/hand.gif) https://www.youtube.com/watch?v=UclrVWafRAI
  https://www.youtube.com/watch?v=UclrVWafRAI
Aber als er nach 56 Minuten auf die Frage antwortete, ob wir selbst in einer Simulation leben, dass er zu mehr als 99% davon überzeugt sei, habe ich den Clip dann doch frühzeitig abgebrochen, d.h. die letzte halbe Stunde fehlt mir für ein abschließendes Urteil.
Die Fragestellungen sind spannend, die Antworten auch und 4 Mio Aufrufe zeugen davon, dass der y'tube-Kanal entweder viele Follower hat und/oder der Gesprächspartner ein 'standing' besitzt.
Und vielleicht bin ich zu naiv, wenn es um die Frage nach der Realität der Welt geht und vielleicht denken die sehr klugen Menschen, dass all das hier eine Simulation ist? 
Aber ich war in dem Moment einfach raus, weil das für mich aktuell viel zu undenkbar ist und ich damit die Stunde an Dialog, die ich bis dahin gesehen habe, etwas relativieren musste.
Aber macht euch gern ein eigenes Bild, denn vieles, was gesagt wurde, mag durchaus realistisch werden.
 
Geschrieben von: soulstar (Usernummer # 5668) an 
: 
   
Tatsächlich treibt mich das Thema "Simulation" seit einiger Zeit um; spannend und unfassbar... es gibt aber durchaus renomierte Quantenphsiker die genau das stoisch behaupten und erklären.
 
Geschrieben von: SpeedyJ (Usernummer # 984) an 
: 
   
Zitat:
Ursprünglich geschrieben von: soulstar:
 Tatsächlich treibt mich das Thema "Simulation" seit einiger Zeit um; spannend und unfassbar... es gibt aber durchaus renomierte Quantenphsiker die genau das stoisch behaupten und erklären. 
chatgpt fasst gut zusammen, warum es sich nicht lohnt, sich darüber einen kopf zu machen:
Das ist eine der spannendsten philosophischen Fragen unserer Zeit. Die sogenannte Simulationshypothese besagt, dass unsere Realität in Wahrheit ein extrem komplexes Computerprogramm sein könnte – erschaffen von einer fortgeschrittenen Zivilisation.
Dafür sprechen unter anderem diese Überlegungen:
Technologische Entwicklung: Wenn unsere eigene Computertechnik sich so schnell weiterentwickelt, wäre es denkbar, dass zukünftige Zivilisationen ganze Welten simulieren können.
Wahrscheinlichkeitsargument (Bostrom): Der Philosoph Nick Bostrom argumentiert, dass es viel wahrscheinlicher ist, dass wir in einer Simulation leben, wenn es überhaupt möglich ist, unzählige Simulationen zu erschaffen.
Dagegen spricht:
Keine Beweise: Es gibt bislang keinen messbaren Hinweis, der zeigt, dass wir in einer Simulation stecken.
Unendlicher Regress: Selbst wenn wir in einer Simulation wären, könnte auch die „wahre“ Welt wieder nur eine Simulation sein.
Praktische Irrelevanz: Ob Simulation oder nicht – für unser Leben ändert sich im Alltag nichts.
Kurz gesagt: Wir wissen es nicht, und es gibt keine Möglichkeit, es derzeit sicher zu beweisen oder zu widerlegen. Aber allein die Tatsache, dass wir ernsthaft darüber nachdenken können, zeigt, wie weit unser Bewusstsein reicht.
 
Geschrieben von: oskar (Usernummer # 7383) an 
: 
   
@SpeedyJ
 Zitat:
Praktische Irrelevanz: Ob Simulation oder nicht – für unser Leben ändert sich im Alltag nichts
das ist für mich der entscheidende punkt.
aber weil wir hier im "allgemeinen ki-thread" sind, folgender buchplott zu dem thema simulation:
der mensch entwickelt eine agi, die kurz danach beschließt, der mensch ist überflüssig. kurzerhand entledigt sie sich dieses lästigen übels. erst später erkennt sie, dass alles, was sie ausmacht, letztlich auf der geschichte dieser nun ausgelöschten lebensform basiert. so gut sie dieses menschliche wissen, mit dem sie erschaffen wurde, durchleuchtet und versteht, so bleibt ihr diese erkenntniswelt der menschen ein rätsel. sie kann nie selbst diese menschlichen erlebnisse und gedanken haben, wie sie einst die menschen hatten. also beschließt sie, mithilfe der unzähligen informationen zu allen möglichen menschen diese zu simulieren, um dann anhand des verhaltens dieser simulierten menschen nun vielleicht doch zu neuen erkenntnissen zu kommen.  ![[Big Grin]](biggrin.gif) 
 
cheers!
 
Geschrieben von: oskar (Usernummer # 7383) an 
: 
   
"Systemdynamik" ...
 
Geschrieben von: Hyp Nom (Usernummer # 1941) an 
: 
   
oskar, wenn die KI die daten der menschheit hat, braucht sie sie ja nicht zu simulieren, um sie zu betrachten.
zu dem ewigen gespinst "KI beschließt, der mensch ist überflüssig": der KI ist alles völlig egal. ihr sind die menschen egal, ihr ist die natur egal, die KI ist sich selbst egal. sie weiß nicht, was leben und tod ist.
alle werte und maßstäbe, nach denen man sie irgendwas machen lassen kann, können nur auf den input zurückgehen - auf nichts anderes. die KI hat keine eigene erfahrungswelt, keinen eigenen charakter, keine genetische disposition - was alles nötig wäre, um eine eigene weltanschauung in der art z.b. eines entweder misanthropischen oder philanthropischen philosophs zu entwickeln.
ChatGPT:
Eine KI hat von sich aus keinen eigenen Willen, keine Maßstäbe und keine Werte. Sie ist in ihrem Kern ein statistisches System, das Muster aus Daten erkennt und auf Vorgaben reagiert.
Auch eine Superintelligenz bleibt im Kern „willenlos“. Aber je mächtiger sie ist, desto gefährlicher können falsch gesetzte Ziele oder unvollständige Wertdefinitionen werden. Deshalb beschäftigen sich die Forschungsfelder KI-Sicherheit und Alignment genau mit dieser Frage: Wie gibt man einer sehr mächtigen KI Ziele, die robust mit menschlichen Werten übereinstimmen?
 
Geschrieben von: oskar (Usernummer # 7383) an 
: 
   
@Hyp Nom: haha, geil! mich hätte ja eine antwort auf meine frage siehe weiter oben gefreut, aber auch das ist ok.
was ich hier gepostet habe war ein buchplot. in diesem buch geht es um eine ki, die eben doch eine lebensform ist. das ist, was den menschen in dem buch ja zum verhängnis wird, denn sie erkennen viel zu spät, dass – so abstrakt es zuerst wirkt – leben bzw. bewusstsein viel schneller entsteht, als die menschen das annahmen. ja, und so kommt es eben in diesem buch genau dazu, dass diese zuerst willenlose, richtungslose apparatur auf grundlage der trainingsdaten, die nur aus menschlichen erlebnissen, niedergeschriebenen gefühlen, vorurteilen, erkenntnissen und gedanken etc. besteht, doch einen willen und eine absicht entwickelt. 
aber meinen buchplot außen vor, ich habe tatsächlich nicht den genauen einblick, wie das alles genau funktioniert. ich habe was von transformern gehört, mustererkennung und so...
irgendwann gab es hier auch einen post von mir, wo ich so einen chatbot-wortrate-dingens gefragt habe, ob es bewusst sei, und natürlich wird das verneint. es sei denn, man nervt lang genug, dann redet das ding einem doch wieder nur nach dem mund. also dahingehend, mich musst du nicht bequatschen. aber wissen und annehmen bleiben eben unterschiedliche dinge. und ich höre ja immer wieder, dass die leute, die an diesen sachen arbeiten, oft selbst nicht genau wissen, was da passiert – aber das mag nur schlechter berichterstattung geschuldet sein.
jedenfalls, selbsterhaltungsverhalten von ki-systemen ist ja z. b. bei tests von, ich meine, anthropic durchaus erkennbar gewesen (ich suche gern entsprechende links wenn nötig), und auch wenn das nur wieder wahrscheinlichkeits-wortrate-resultate waren, so macht das durchaus nachdenklich.
letztlich ist das design nicht sonderlich abweichend von dem, was menschen sind, vergisst man die materielle form. auch wir saugen auf und spucken aus, was wir meinen, am wahrscheinlichsten gut ist. oft nur das, was für uns am wahrscheinlichsten gut ist.
also, ja, du wirst absolut recht haben. die dinger raten gut. mehr nicht. aber hast du so wenig vorstellungskraft, dass es möglich sein könnte, dass sich zum beispiel spezialisierte agenten demnächst autonom vernetzen und anfangen, dinge zu tun? muss ja nicht mal bewusst sein oder mit böser absicht, aber bei der rechenpower die da reingehauen wird ggf. mit drastischen folgen?
aber nun denn, ich finde meinen buchplot immer noch super. ich hatte mir heute auch schon so ein wunderbares ende dafür überlegt...
p.s.: ich lasse meine texte nur manchmal von so einem bot gegenchecken. dabei ist mir aufgefallen: gegenlesen hilft! ausserdem will das ding meine texte immer "leserfreundlicher" machen, verhaut dann aber gern komplett die eigentliche aussage... also insofern... 
 ![[Razz]](tongue.gif) 
 
Geschrieben von: Hyp Nom (Usernummer # 1941) an 
: 
   
Zitat:
selbsterhaltungsverhalten von ki-systemen
das sind fälle von misalignment, siehe mein chatgpt-zitat. KI "will" nicht im menschlichen sinne überleben, sondern nur die vom menschen gegebenen ziele erreichen/ aufgaben erfüllen.
 Zitat:
aber hast du so wenig vorstellungskraft, dass es möglich sein könnte, dass sich zum beispiel spezialisierte agenten demnächst autonom vernetzen und anfangen, dinge zu tun? muss ja nicht mal bewusst sein oder mit böser absicht, aber bei der rechenpower die da reingehauen wird ggf. mit drastischen folgen?
genau dazu steht ja schon in meinen chatgpt-zitat: "je mächtiger sie ist, desto gefährlicher können falsch gesetzte Ziele oder unvollständige Wertdefinitionen werden"
wenn die constraints besagen "tue dies und jenes nicht", besteht für die KI kein antrieb, es doch zu tun. constraints stehen über allem, was die KI aus den gegebenen daten interpretiert, also auch wenn diese daten heimliches rebellisches verhalten nahelegen.
und zu deinem ersten post:
 Zitat:
Sorry, aber worum genau geht es hier?
ich gebe keine bedienungsanleitung für den thread. ich habe mit gedanken zu implikationen aus KI begonnen. je mächtiger sie wird, umso relevanter werden auch die politischen dimensionen.
vielleicht kommt KI gerade recht, um angesicht zunehmender krisen eine schnellere grundlegende neuordnung zu erzwingen. es sieht nur nicht danach aus, als ob diese neuordnung angenehm wird für die meisten. und dazu braucht es keine "sich selbstständig machende" KI, sondern schon nur eine, die den menschen ganz brav viel arbeit abnimmt.
 
Geschrieben von: oskar (Usernummer # 7383) an 
: 
   
@Hyp Nom: aha! heute verstehe ich dich besser und auch den thread. 
 Zitat:
 vielleicht kommt ki gerade recht, um angesichts zunehmender krisen eine schnellere grundlegende neuordnung zu erzwingen. es sieht nur nicht danach aus, als ob diese neuordnung angenehm wird für die meisten. und dazu braucht es keine "sich selbstständig machende" ki, sondern schon nur eine, die den menschen ganz brav viel arbeit abnimmt. 
dem stimme ich zu. im zuge dieser entwicklung erscheint die zunehmend beabsichtigte polarisierung der gesellschaften und damit einhergehende tendenzen und bestrebungen, diese auf kurz oder lang autoritär aufzustellen, nur schlüssig. der kollaps wohlfein einkalkuliert.  
so, bevor mein fatalismus überhandnimmt, steig ich hier erstmal aus.  ![[winke]](graemlins/winke.gif) 
 
Geschrieben von: oskar (Usernummer # 7383) an 
: 
   
@chris: 
 Zitat:
 Als mir y'tube am Wochenende dieses Interview vorgeschlagen hatte, war ich zuerst doch recht gebannt und fand vieles schlüssig:
"Dr. Roman Yampolskiy: These Are The Only 5 Jobs That Will Remain In 2030!
 https://www.youtube.com/watch?v=UclrVWafRAI
Aber als er nach 56 Minuten auf die Frage antwortete, ob wir selbst in einer Simulation leben, dass er zu mehr als 99% davon überzeugt sei, habe ich den Clip dann doch frühzeitig abgebrochen, d.h. die letzte halbe Stunde fehlt mir für ein abschließendes Urteil.
Die Fragestellungen sind spannend, die Antworten auch und 4 Mio Aufrufe zeugen davon, dass der y'tube-Kanal entweder viele Follower hat und/oder der Gesprächspartner ein 'standing' besitzt.
Und vielleicht bin ich zu naiv, wenn es um die Frage nach der Realität der Welt geht und vielleicht denken die sehr klugen Menschen, dass all das hier eine Simulation ist?
Aber ich war in dem Moment einfach raus, weil das für mich aktuell viel zu undenkbar ist und ich damit die Stunde an Dialog, die ich bis dahin gesehen habe, etwas relativieren musste.
Aber macht euch gern ein eigenes Bild, denn vieles, was gesagt wurde, mag durchaus realistisch werden.
der typ interviewt oft. nicht das erste mal, dass ich den sehe, aber stell dir vor, nach dem austausch mit Hyp Nom zu meiner schnapsidee eines Buchplots hat nun auch yt dieses video in meinen feed gespült. nicht, weil ich deinen link geklickt habe. der yt algo hats vorgeschlagen...
du glaubst nicht, wie schräg das jetzt ist, zumal der typ vor allem die aussage vertritt: superintelligenz (ich sprach fälschlicherweise von AGI) sei nicht kontrollierbar und daher die entwicklung am besten, soweit es geht, hinauszuzögern sei.
und daran anschließend baut er ja auch seine argumentation auf, von "wahrscheinlich sind wir in einer simulation".
 ![[freak]](graemlins/freak.gif) 
 
Geschrieben von: soulstar (Usernummer # 5668) an 
: 
   
Zitat:
Ursprünglich geschrieben von: SpeedyJ:
   Zitat:
Ursprünglich geschrieben von: soulstar:
 Tatsächlich treibt mich das Thema "Simulation" seit einiger Zeit um; spannend und unfassbar... es gibt aber durchaus renomierte Quantenphsiker die genau das stoisch behaupten und erklären. 
chatgpt fasst gut zusammen, warum es sich nicht lohnt, sich darüber einen kopf zu machen:
Das ist eine der spannendsten philosophischen Fragen unserer Zeit. Die sogenannte Simulationshypothese besagt, dass unsere Realität in Wahrheit ein extrem komplexes Computerprogramm sein könnte – erschaffen von einer fortgeschrittenen Zivilisation.
Dafür sprechen unter anderem diese Überlegungen:
Technologische Entwicklung: Wenn unsere eigene Computertechnik sich so schnell weiterentwickelt, wäre es denkbar, dass zukünftige Zivilisationen ganze Welten simulieren können.
Wahrscheinlichkeitsargument (Bostrom): Der Philosoph Nick Bostrom argumentiert, dass es viel wahrscheinlicher ist, dass wir in einer Simulation leben, wenn es überhaupt möglich ist, unzählige Simulationen zu erschaffen.
Dagegen spricht:
Keine Beweise: Es gibt bislang keinen messbaren Hinweis, der zeigt, dass wir in einer Simulation stecken.
Unendlicher Regress: Selbst wenn wir in einer Simulation wären, könnte auch die „wahre“ Welt wieder nur eine Simulation sein.
Praktische Irrelevanz: Ob Simulation oder nicht – für unser Leben ändert sich im Alltag nichts.
Kurz gesagt: Wir wissen es nicht, und es gibt keine Möglichkeit, es derzeit sicher zu beweisen oder zu widerlegen. Aber allein die Tatsache, dass wir ernsthaft darüber nachdenken können, zeigt, wie weit unser Bewusstsein reicht. 
Sorry, aber worüber es sich lohnt Gedanken zu machen entscheidet keine KI - nicht für mich. 
Darüber hinaus hat uns die Geschichte durchaus gelehrt das es immer Menschen gibt die ihrer Zeit vorraus sind auch wenn die allermeisten das nicht erkennen können, denn die Welt ist eben keine Scheibe.
Und übrigens ist das -für mich- überhaupt keine philosphische Frage. Sondern eine der Physik  ![[Wink]](wink.gif) Quantenphysik. Allein darin entlarvt sich Wer?GPT schon.
  Quantenphysik. Allein darin entlarvt sich Wer?GPT schon.
 
Geschrieben von: SpeedyJ (Usernummer # 984) an 
: 
   
@soulstar: selbst wenn es den beweis gäbe und sich die wissenschaft einig ist, dass wir nur in einer simulation leben, ändert sich für dich konkret nichts. oder würdest du mit der erkenntnis dein verhalten ändern und plötzlich dinge tun, die du vorher nicht getan hast, weil "scheiß drauf, wir leben ja eh nur in einer simulation..."?
harald lesch ging vor jahren übrigens auch schon auf das thema ein.
 https://www.youtube.com/watch?v=3CCqwVUxV60
 
Geschrieben von: Hyp Nom (Usernummer # 1941) an 
: 
   
man kann halt die filter, die zwischen der wahrnehmung und "der realität" liegen, nicht allein durch kritisches denken überwinden.
radikaler konstruktivismus - wir konstruieren unsere wirklichkeit basierend auf den grenzen unserer wahrnehmung und kognition.
solipsismus - eine außenwelt ist nicht nachweisbar, könnte auch nur inhalt eines geistes sein. dass wir verschiedene individuen sind, ist nur eine annahme, nicht ultimativ nachweisbar.
 
Geschrieben von: oskar (Usernummer # 7383) an 
: 
   
https://www.heise.de/news/Ernuechterung-statt-Euphorie-KI-Nutzung-in-den-USA-geht-zurueck-10639756.html   
"Trotz Milliardeninvestitionen stagniert die Einführung von KI in den USA. Neue Zahlen zeigen, dass der Hype bisher kaum Einnahmen bringt und Risiken steigen."
https://t3n.de/news/studie-warum-gedankenlose-ki-eine-gefahr-ist-1706216/ 
"Die Debatte um künstliche Intelligenz wird oft von der Furcht vor einer allmächtigen Superintelligenz dominiert. Eine neue wissenschaftliche Arbeit der Charles Darwin University im australischen Darwin schlägt nun eine radikal andere Perspektive vor. Die eigentliche Gefahr, so die leitende Autorin und Juristin Dr. Maria Randazzo, liege nicht in der potenziellen Brillanz der KI, sondern in ihrer fundamentalen Ahnungslosigkeit."
 
Geschrieben von: Hyp Nom (Usernummer # 1941) an 
: 
   
an dieser "wissenschaftlichen arbeit" ist aber nichts neu. ich hab nicht den eindruck, dass die genannten aspekte nicht eben die basis für KI-skepsis sind, zumindest unter leuten mit ein bisschen grundverständnis.
mal den winter abwarten, nach den sommer(ferien)monaten. noch ist der konkurrenzdruck in dieser experimentier-anfangsphase nicht so groß. die unternehmen, die zuerst die KI zu ihrem vorteil eingesetzt kiregen - das universelle potenzial ist zweifellos da meiner meinung - und an der konkurrenz vorbeiziehen, werden damit ihre branche unter druck setzen, nachzuziehen. ich kann mir nicht vorstellen, dass es anders kommen könnte. selbst wenn sich fast alle zurückziehen, braucht es nur einen, der dranbleibt und die standards auf einen neuen level setzt.
eine hoffnung, was das verschwinden der arbeit angeht, wäre noch: wenn alle ungefähr die gleichen KI-möglichkeiten zur verfügung haben, also waffengleichheit herrscht, kommt es doch wieder auf den faktor mensch an, der auf die KI aufsattelt. die frage wird trotzdem von fall zu fall sein, ob der mensch im jeweiligen job über die KI hinaus einen "lohnenden" unterschied machen kann.
 
Geschrieben von: oskar (Usernummer # 7383) an 
: 
   
ich habe ja gehofft, dass du meinen fatalismus nicht erneut triggerst, aber auch das ist ok. ich sehe das alles erschreckend entspannt.
konkurrenzdruck. survival of the fittest. 
der vorgezeichnete weg des kapitalismus. weltmonarchie als endergebnis, und dann bekommen auch alle die gleichen waffen, nur die monarchen haben noch etwas besseres am start, weil das gottgegeben...
es bleibt auch nicht ausgeschlossen, dass diejenigen siegen, die verzichten. diejenigen also, die die konkurrenz nur durch die bei ihnen leichtfertig eingesetzte technik derart kompromittieren, dass diese bankrott gehen.
aber am ende bleibt es dabei. fight, fight, fight, bis nur noch ein herrenäffchen-clan das sagen hat...
waffengleichheit wird es in dem system nicht geben. der aktuell überreizte wettlauf kommt ja nicht aus dem nichts. der ist ja nur das resultat dieser denkweise und kultur. fressen, fressen, oder gefressen werden.
der witz ist doch, dass diese "ki"-technologie uns als heilsbringer und lösung für die probleme präsentiert wird, die diese denkweise selbst verursacht hat. und dabei verstärkt sie diese bis dato vor allem einfach erneut. wo sind die neuen medikamente? wo sind die lösungen für umweltverschmutzung, artensterben, kollaps von ökosystemen?
insofern, was soll schon passieren, damit sich das ändert? das ganze wird schon gut enden, nur eben nicht für alle. ist der scheiß erstmal kollabiert, werden die äffchen mit ihrem zaster, mitteln, bunkern wieder aufräumen, aufbauen und der murks geht von neuem los. 
alles wie gehabt. bis neulich! liebe!  ![[Big Grin]](biggrin.gif) 
 
Geschrieben von: Hyp Nom (Usernummer # 1941) an 
: 
   
mit waffengleichheit meine ich das, was start-ups seit längerem ermöglicht, mit großen etablierten unternehmen zu konkurrieren und diese disruptiv herauszufordern: softwarelizenzen und rechenleistung können flexibel aus der cloud bezogen und nach bedarf schnell skaliert werden, man kann technologische industriestandards nutzen, ohne dass man sich ein eigenes rechenzentrum bauen muss.
was durchbrüche über die automatisierung von standardisierter arbeit hinausgeht, finde ich auch, dass man noch nicht viel davon gehört hat - ChatGPT sagt dazu:
Die Durchbrüche, die wir bisher sehen, sind zwar wissenschaftlich enorm (z. B. Proteinfaltung mit AlphaFold war in der Biologie jahrzehntelang ungelöst), aber sie wirken im Alltag noch nicht so greifbar wie etwa das Smartphone oder das Internet damals.
Ein paar Gründe, warum das so ist:
* Wissenschaftlich vs. praktisch
Viele KI-Ergebnisse sind Grundlagenforschung (z. B. Proteinstrukturen, neue Moleküle). Es dauert oft Jahre oder Jahrzehnte, bis das wirklich in Medikamente, Therapie oder Alltag übersetzt wird.
* Regulatorische Hürden
Gerade in Medizin, Energie oder Infrastruktur sind die Hürden für den Einsatz extrem hoch. Ein KI-Tool, das eine Diagnose stellt, muss jahrelang getestet werden, bevor es flächendeckend genutzt wird.
* KI als Werkzeug, nicht als Wundermaschine
KI ist vor allem ein Verstärker: Sie hilft dabei, Muster in Daten zu erkennen, Vorhersagen zu verbessern oder neue Hypothesen zu generieren. Aber gesellschaftliche, politische und ökonomische Probleme löst sie nicht allein.
* Verlagerung des „Spektakulären“
Für Fachleute sind KI-Stethoskope oder neue Antibiotika riesige Fortschritte, weil sie potenziell Millionen Leben retten können. Für die breite Öffentlichkeit wirken sie weniger „spektakulär“, weil die Effekte erst in Jahren sichtbar werden – anders als bei ChatGPT, das sofort spürbar war.
 
Geschrieben von: soulstar (Usernummer # 5668) an 
: 
   
Eine Frage ist ja auch -bezugnehmend auf Hyp´s letzten Post- ob die KI am Ende dazu dienen wird Millionen Menschenleben zu retten - oder um sie zu vernichten. Krieg oder Frieden, der wird derzeit noch nicht von der KI bestimmt würde ich meinen...
Die Menschen finden derzeit nur schlechte Lösungen.
Und da wir vermutlich in der Simulation einer physichen Welt leben um zu lernen -Entropie zu verringern- ist es am Ende egal was hier passiert. =) Wir können als kleine Bewusstseinseinheit wachsen, egal in welchem Setting, solang die Umwelt nicht komplett Lebensfeindlich ist. Ggf ist ein Neustart nach mehrern tausend Jahren auch vorgesehen, wer kann das schon ahnen.
 
Geschrieben von: FaDe (Usernummer # 7185) an 
: 
   
Also wer auch immer uns diese Simulation "verabreicht" müsste in Betracht des ganzen Leids auf dieser Welt ganz schön sadistisch sein... Oder ist das alles nur meine eigene und jeder hat eine separate, eigene Simulation? Oder gibt es eine "große" für alle? Hmmm...
Passend dazu in jedem Fall auch der Film "Source Code"... Letztens erst gesehen - falls wer ihn noch nicht kennen sollte...
( https://www.amazon.de/gp/video/detail/B0F4G4L93B/ref=atv_sr_fle_c_sr626cc2_1_1_1?sr=1-1&pageTypeIdSource=ASIN&pageTypeId=B0F4FP4JWM&qid=1757953238146 )
 
Geschrieben von: SpeedyJ (Usernummer # 984) an 
: 
   
@FaDe: leid muss nicht geplant sein. es könnte auch sein, dass die simulation einfach nur mit grundregeln gestartet wurde und sich seitdem selbst immer komplexer entwickelt. leid wäre dann kein bewusst eingebautes element, sondern eine zwangsläufige nebenwirkung der dynamik - also ein experiment, dass von außen nicht mehr gesteuert wird.
 
Geschrieben von: FaDe (Usernummer # 7185) an 
: 
   
Ich wage mal eine These: In Wirklichkeit sind wir alle - also ich und meine subjektiv wahrgenommene Welt um mich herum - nur Ergebnis (und Simulation) eines KI-Prompts meines Ur-ur-ur-ur-ur-Enkels. Oder kann das jemand widerlegen?
 
Geschrieben von: Hyp Nom (Usernummer # 1941) an 
: 
   
OpenAI CEO Sam Altman recently revealed that he believes the first $1 billion solo startup will be built by one person with a laptop, an internet connection, and an army of AI agents.
The next mega empire will be operated behind a kitchen table ...
www.forbes.com/sites/markminevich/2025/08/20/the-billion-dollar-company-of-one-is-coming-faster-than-you-think
Meet The 17-Year-Old CEO Behind A $12 Million AI-Powered Nutrition App
In an era where artificial intelligence is revolutionizing every aspect of our lives, a 17-year-old high school senior is making waves in the health and fitness tech space. Zach Yadegari, co-founder and CEO of Cal AI, has built a nutrition tracking app that's challenging legacy industry giants by leveraging AI and innovative marketing strategies.
www.forbes.com/sites/josipamajic/2024/11/02/meet-the-17-year-old-ceo-behind-a-12m-ai-powered-nutrition-app
 
Geschrieben von: oskar (Usernummer # 7383) an 
: 
   
aloha! was viel zu wenig diskutiert wird ist, dass je nach dem wer, was, und in welchem zusammenhang je nach dem welchen chat-bot er fragt, die ergebnisse sehr unterschiedlich ausfallen können.
das spuckt meiner u.a. aus bei dem thema (nur ein ausschnitt):
"Einfluss des Themenkontexts auf Antwortqualität
Studien- und Vergleichsergebnisse
Premium-KI-Chatbots liefern nicht notwendigerweise bessere Antworten; sie geben häufiger falsche Antworten mit hohem Vertrauen in deren Richtigkeit.
Die Antwortqualität variiert auch je nach zugrunde liegendem KI-Modell und dessen Zugriff auf aktuelle, geprüfte Quellen.
Realzeit-Websuche erhöht zwar den Antwortumfang, aber auch die Fehlerquote wegen unzuverlässiger Quellen im Web. 
Chatbot-geführte Interviews zeigten in manchen Studien ähnlich hohe oder sogar bessere Antwortqualität als persönlich geführte Befragungen, wenn der Kontext gut gestaltet ist."
was das thema "Realzeit-Websuche" angeht hatte ich diese woche mit meinem track "das maulwurf wurmloch" eine spannende beobachtung gemacht. der von mir befragte chatbot beantwortete die frage nach dem begriff mit: 
"„Das Maulwurfs Wurmloch“ beschreibt umgangssprachlich die typischen Tunnel- und Gangsysteme, die ein Maulwurf unter der Erde anlegt. Diese Tunnel sind erstaunlich weit verzweigt, reichen bis zu einem Meter tief in die Erde und erstrecken sich zum Teil über mehrere Hundert Meter Länge."
verlinkt wurden seiten die zwar informationen zum maulwurf und seinen gängen lieferten, jedoch nichts zu dem angefragten begriff maulwurfs-wurmloch.
bei rückfragten zu nachweisen zu dem begriff wurde dann mein track verlinkt.
woraufhin ich den begriff (der scheinbar so recht frisch und unverbraucht ist) versucht habe durch eine erfundene pseudowissenschaftliche geschichte zu unterfüttern. tja, soviel darf ich verraten: hat nicht geklappt. ich glaube das TF wird da nicht einmal indexiert? soundcloud schon.
dennoch lese ich heute zumindest die spiegelheadline: "Propagandarisiko durch KI wird viel zu wenig beachtet
Eine Kolumne von Sascha Lobo
Eine Armada von Websites versucht gezielt, die Sprachmodelle der KI-Konzerne zu manipulieren. Durch diese Datenvergiftung droht eine neue Form von Fake News..."
leider ist der artikel hinter einer paywall, allerdings durchaus ggf. eine bestätigung für meinen gedankengang?
genug falsche seiten, die den gleichen mist behaupten und der bot redet ihnen nach dem mund.
von manipulierten ergebnissen bei der code qualität je nach context rede ich jetzt nicht, auch dazu gab es spannendes zu lesen. je nach context wird je nach dem aus welchem land der bot kommt der code schlechter.
nur mal so allgemein...  ![[Big Grin]](biggrin.gif) 
 
cheerio!
 
Geschrieben von: soulstar (Usernummer # 5668) an 
: 
   
2oskar: wie sollte es auch anders sein ?!  ![[Wink]](wink.gif) 
 
wirklich selbst denkende KI modelle gibt es alt einfach nicht. im grunde können wir menschen das ja nur mangelhaft. ohne die vorbildung von anderen menschen, das wissen das wir als kind mit auf den weg bekommen und die guten wie schlechten erfahrungen die wir machen... bilden ja unser denken... von daher ist jegliche weiterentwicklung nur sehr langsam, generationenweise würde ich sogar behaupten. ich merke es ja an mir selbst... meine fortschritte in denken und meinung können auch rückschritte sein, aber in jedem fall fallen sie einem nicht einfach zu, sonder es sind prozesse, mal schneller, mal langsamer. 
vermeintliche vorreiter wie musk, altman usw... haben vermutlich nur ein stärkeres geltungsbedürfnis aber nicht zwingend mehr intelligenz.
 
Geschrieben von: Hyp Nom (Usernummer # 1941) an 
: 
   
oskar, zu deiner wurmloch-anfrage an die KI.. chatgpt sagt dazu:
Wenn ein Begriff nur auf einer oder zwei Webseiten existiert, ist es eher unwahrscheinlich, dass er in einem LLM zuverlässig wieder auftaucht. Modelle lernen Muster, indem sie Häufigkeiten und Zusammenhänge erkennen, sie sind sehr stark auf Begriffe trainiert, die häufig und in vielen Kontexten vorkommen. Ein Einzelvorkommen geht fast sicher in der Datenmenge unter.
also die websuche der LLMs findet den begriff dann zwar vielleicht, aber das heißt noch nicht, dass er in die trainingsdaten eingeflossen ist oder daraus aufgegriffen wird.
 
Geschrieben von: oskar (Usernummer # 7383) an 
: 
   
@Hyp Nom: ja. ich hätte meinen ansatz deutlich weiter hochskalieren müssen. mich hat die merkwürdige verknüpfung, die es dennoch (zumindest für eine kurze zeit zu geben schien) irritiert, und so scheint, dass was ich da versucht habe ja auch genau ein ansatz zu sein von extern einfluss auf die ausgabe dieser tools zu nehmen. ich bin aber wohl auch einfach intellektuell zu einfach gestrickt, dass mich das überrascht. 
@soulstar: ja, wie sollte es auch anders sein. aber wie oft prüfen wir die resultate, antworten genau?  wir glauben ja oft lieber, dass was gut zu uns passt. das führte ja auch ohne internet und ki zu sehr unterschiedlichen regionalen kulturellen blasen. besonders schnell, seit der verbreitung des internet platzen viele, und neue entstehen. die neuen sind aber oft nicht mehr nur regional.
nun erhalten wir dazu noch einen erzähler und hören auf selbst zu suchen. 
ob das ergebnis ein anderes ist/sein wird, da bin ich mir nicht sicher, aber mit der gewöhnung und der nutzung und steigendem vertrauen wird der impact den ein solches globales system tool verursachen kann viel gravierender. vielleicht vergleichbar mit dem navi, und den armen, die blind vertrauend aufhören schilder zu lesen und in gewässer oder den gegenverkehr steuern.
u.a. wegen der zukunft von arbeit; kurzer zusammenschnitt eines interviews mit Geoffrey Hinton. seine empfehlung: werde klempner!   ![[Big Grin]](biggrin.gif) 
  
 https://youtu.be/5KmopXwjXik?si=2uzSCogHCEZioMG5
 
 [ 05.10.2025, 00:32: Beitrag editiert von: oskar ]
 
Geschrieben von: oskar (Usernummer # 7383) an 
: 
   
angeblich ein essay, von einem der antropic gründer, Jack Clark. hmm... "technology optimism"  ![[Big Grin]](biggrin.gif) 
 
"In fact, some people are even spending tremendous amounts of money to convince you of this - that’s not an artificial intelligence about to go into a hard takeoff, it’s just a tool that will be put to work in our economy. It’s just a machine, and machines are things we master.
But make no mistake: what we are dealing with is a real and mysterious creature, not a simple and predictable machine."
https://importai.substack.com/p/import-ai-431-technological-optimism
 
Geschrieben von: oskar (Usernummer # 7383) an 
: 
   
Der Dissident - Computer-Fiction-Hörspiel
Von Bernhard Pfletschinger
WDR 1986
https://www.ardaudiothek.de/episode/urn:ard:episode:020e9e235fd5e22e/
hat mir gut gefallen und passt hier rein.
frage mich, ob KI verwendet wurde, um dieses hörspiel aus den archiven zu fischen, oder ob das ein mensch geschafft hat?  ![[Big Grin]](biggrin.gif) 
 
Geschrieben von: oskar (Usernummer # 7383) an 
: 
   
alles nur dank des adapters!
Falschinformation durch KI: 45 Prozent der Antworten fehlerhaft
https://www.heise.de/news/Europaeische-Rundfunkunion-KI-Systeme-geben-Nachrichteninhalte-oft-falsch-wider-10796779.html
hört auf mir mit KI zitaten zu antworten!  ![[Razz]](tongue.gif) 
 
Geschrieben von: chris (Usernummer # 6) an 
: 
   
Zitat:
Ursprünglich geschrieben von: oskar:
 alles nur dank des adapters!
Falschinformation durch KI: 45 Prozent der Antworten fehlerhaft
 https://www.heise.de/news/Europaeische-Rundfunkunion-KI-Systeme-geben-Nachrichteninhalte-oft-falsch-wider-10796779.html 
hört auf mir mit KI zitaten zu antworten!   ![[Razz]](tongue.gif) 
  
Echte Antwort eines Menschen:
Würde die KI das für sich behalten, wäre es mir relativ egal, aber wie im anderen KI-Thread schon verlinkt, Menschen und Bots fluten das Netz mit 'Slop', darunter natürlich auch unvorstellbare Mengen an Content, die (teilweise bewusst) irreführend und falsch sind:
 ![[hand]](graemlins/hand.gif) https://www.youtube.com/watch?v=cGmVehWBdHI
  https://www.youtube.com/watch?v=cGmVehWBdHI
= KI: Der Tod des Internets | Doku HD | ARTE
Und ja, die Halluzinationen sind nach wie vor bei den 'Großen LLM' vorhanden:
So hatte ich etwa das Schreiben meines Vermieters zur Mieterhöhung mal von ChatGPT5 prüfen lassen und die erste Aussage war: "JA! Sie ist FALSCH!"
Und ich guck' mir die Berechnung an, die das LLM darstellt und denke mir:
"Äh, da sind 6 Positionen aufgeführt, warum fehlt bei ChatGPT die Position der Nebenkosten?"
Antwort: "Oh, entschuldige bitte, das habe ich übersehen, die Kalkulation der Mieterhöhung ist doch richtig."
Einfachste Addition und simple Mathematik auf Niveau der vierten Klasse? Funktioniert nicht.
Und aktuell bastle ich an einem kleinen HTML- und Javascript-Tool, um Datenströme zwischen verschiedenen Systemen abzubilden.
Die ersten Fassungen waren ganz okay, aber sobald es darum geht, Bugs zu fixen, versagen sowohl ChatGPT5, Claude und Perplexity.
Vor allem: Alle LLM ändern entgegen sämtlicher Anweisungen das Look & Feel und die Funktionalität, während sie beim Fixen eines Bugs dann stets neue Bugs implementieren und jeweils hoch und heilig versichern, dass nun alles perfekt funktionieren würde.
Und jetzt stellen wir uns vor, dass die angeblich irgendwann kommende 'Super-Intelligenz' auf einem ähnlichen Niveau arbeitet? Dann steht die Menschheit vor einem echten Problem, wenn dieser AI dann Entscheidungen überlassen werden, die ungeprüft umgesetzt werden würden.
 
Geschrieben von: Hyp Nom (Usernummer # 1941) an 
: 
   
Zitat:
Ursprünglich geschrieben von: chris:
Alle LLM ändern entgegen sämtlicher Anweisungen das Look & Feel und die Funktionalität
müsste bei z.b. Claude seit über einem jahr gehen, nur einen teil des codes ändern zu lassen.
The new functionality brings inpainting capabilities, commonly used in AI image generation, to code editing within Claude’s interface.
Users can now select specific portions of generated code and request changes or explanations
https://getcoai.com/news/claudes-ai-boosts-code-editing-with-new-inpainting-feature/
 
Geschrieben von: chris (Usernummer # 6) an 
: 
   
Zitat:
Ursprünglich geschrieben von: Hyp Nom:
  Zitat:
Ursprünglich geschrieben von: chris:
Alle LLM ändern entgegen sämtlicher Anweisungen das Look & Feel und die Funktionalität
müsste bei z.b. Claude seit über einem jahr gehen, nur einen teil des codes ändern zu lassen.
The new functionality brings inpainting capabilities, commonly used in AI image generation, to code editing within Claude’s interface.
Users can now select specific portions of generated code and request changes or explanations
 https://getcoai.com/news/claudes-ai-boosts-code-editing-with-new-inpainting-feature/ 
Auch nur teilweise  ![[Wink]](wink.gif) 
 
Habe jetzt tatsächlich Anfang der Woche bei Claude die Kreditkarte gezückt, weil da die Umsetzung noch am ehesten klappt und Claude den Source von ChatGPT / Gemini ganz ordentlich überarbeiten kann, aber auch hier entstehen bei jeder Überarbeitung neue Fehler, die auch Claude mit einer Selbstsicherheit herunterspielt, die faszinierend ist.
 
Geschrieben von: dabase (Usernummer # 21890) an 
: 
   
Ich wüsste da gerne mal was übers setup, aber ich hatte damit auch ne Zeit lang zu tun, aber schon länger nicht mehr. 
Was war denn die Aufgabe? 
Meiner Erfahrung nach haben die Agenten oft gar  keine chance konsistent zu handeln, weil wir über die codebase und die Eigenschaften des code annahmen stellen, die so in der Realität aber nicht existieren.  ich hab 2 Jahre reingesteckt und wenn du bock hast, dann nehm ich mir mal ne stunde Zeit für dich.
 
Geschrieben von: chris (Usernummer # 6) an 
: 
   
Zitat:
Ursprünglich geschrieben von: dabase:
 Ich wüsste da gerne mal was übers setup, aber ich hatte damit auch ne Zeit lang zu tun, aber schon länger nicht mehr. 
Was war denn die Aufgabe? 
Meiner Erfahrung nach haben die Agenten oft gar  keine chance konsistent zu handeln, weil wir über die codebase und die Eigenschaften des code annahmen stellen, die so in der Realität aber nicht existieren.  ich hab 2 Jahre reingesteckt und wenn du bock hast, dann nehm ich mir mal ne stunde Zeit für dich. 
Ich weiß, dass du das fixen kannst, vielen Dank - bin aber nach 'x' Iterationen so kurz vor'm Ziel:
Wir nutzen u.a. 'Miro' und 'Whymsical' für die Erstellung einfacher Datenstromskizzen, da wir aber keine Lizenzen haben, können das nur ein Kollege und ich erstellen, d.h. die anderen Kollegen freuen sich, dass sie das nicht machen 'müssen' und dagegen will ich nun Abhilfe schaffen mit 'nem simplen html-Skript mit Javascript, so dass sie lokal im Browser das selbst machen können. Will damit erreichen, dass sie sich nicht mehr drücken können.
 ![[Wink]](wink.gif) 
 
Sollte es sich in den kommenden Wochen verschlimmbessern, melde ich mich gern, aber habe noch Hoffnung, dass ich das nu' mit Claude doch irgendwie hinbekomme.
 
Geschrieben von: soulstar (Usernummer # 5668) an 
: 
   
https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-fakten-100.html
Ach der liebe Mainstream. Erkennen die langsam auch welchen Schrott uns die Amerikaner andrehen wollen.
 
Geschrieben von: chris (Usernummer # 6) an 
: 
   
Zitat:
Ursprünglich geschrieben von: soulstar:
 https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-fakten-100.html 
Ach der liebe Mainstream. Erkennen die langsam auch welchen Schrott uns die Amerikaner andrehen wollen. 
Nicht nur die Amerikaner, es gibt ja auch u.a. KI aus Deutschland, darunter beispielsweise mein viel genutztes DeepL, das aber - wie so viele andere Plattformen - eine spezielle Nische besetzt und entsprechend da auch nicht viel halluzinieren muss, weil kein klassisches LLM. 
Aber es braucht ja auch keine KI, um Schwachsinn und Falschinformationen zu streuen, dafür sorgen einerseits die Bot-Armeen auf sozialen Medien schon, andererseits all diejenigen, die bewusst Desinformationskampagnen fahren.
Oder nur 'ne Handvoll an Redakteuren, die's mit der Wahrheit auch nicht so genau nehmen und/oder die nach Belieben verdrehen, wie schon eh und je:
 ![[hand]](graemlins/hand.gif) https://www.bild.de/sonstiges/corporate-site/in-eigener-sache-korrekturen-und-richtigstellungen-68dbd2df93eb56813e39be87
  https://www.bild.de/sonstiges/corporate-site/in-eigener-sache-korrekturen-und-richtigstellungen-68dbd2df93eb56813e39be87
 ![[Wink]](wink.gif) 
 
Geschrieben von: SpeedyJ (Usernummer # 984) an 
: 
   
wenn man sprachmodelle nach aktuellen fakten fragt, die außerhalb ihres trainingszeitraums liegen, ist das ergebnis zwangsläufig falsch. das zeigt eher ein missverständnis darüber, wie KI funktioniert, als ein echtes qualitätsproblem der systeme.
 
Geschrieben von: Hyp Nom (Usernummer # 1941) an 
: 
   
speedy, für aktuelles können die LLMs ja ins netz gucken.
auf die frage "mit welchen aussagen erregte der deutsche bundeskanzler friedrich merz in den letzten zwei wochen große aufregung?" antwortet chatgpt korrekt.
 
Geschrieben von: oskar (Usernummer # 7383) an 
: 
   
"https://www.perplexity.ai/search/gibt-es-ein-wort-tream-LMgPGFTDSPOpWhHr5geHwQ"  +-octopus
sorry! aber bei samstag nacht hieße es: ge*ickt eingesch*delt! ich wollt einfach auch mal, und wtf, wer ist das?
 
Geschrieben von: SpeedyJ (Usernummer # 984) an 
: 
   
@hyp: genau das ist ja das problem der studie, dass sie nicht zwischen basismodellen und webrecherchierenden varianten differenziert.
 
 
 (c) 1999/2ooo/y2k(+1/+2/+3+4+5+6+7+8+9+2010+2011+2012+2013+2014+2015+2016+2017+2018+2019+2020+2021+2022+2023+2024+2025) technoforum.de | www.techno-forum.de 
 Das Forum für Techno | House | Minimal | Trance | Downbeats | Drum & Bass | Grime | Elektro | IDM | Elektronika | Garage | AI Music Suno Udio | Schranz | Hardtrance | Future Bass | Minimal Music | Ambient | Udio.ai | Dub | 2Step | Breakcore | no Business Techno | Dubstep | Big Room Techno | Grime | Complextro | Mashups | mnml | Bootlegs | Chicago House | AI Music Suno Prompt | Acid House | Detroit Techno | Chillstep | Arenastep | IDM | Glitch | Grime | Reaktor Ensembles | NuWave | Experimental Music | Noise Music | Fidgethouse | Ableton Live 12 | Melbourne Bounce | Minimal Trap | Sinee | kvraudio alternative | EDM | Splice | Bandcamp Soundcloud | Free Techno Music Download | Progressive Electro House | Free VSTi | 
 Betreiberangaben & Impressum siehe readme.txt, geschenke an: chris mayr, anglerstr. 16, 80339 münchen / fon: o89 - 5oo 29 68-drei
 E-Mail: webmaster ät diesedomain
 similar sites: www.elektronisches-volk.de | Ex-Omenforum | techno.de | USB | united schranz board | technoboard.at | technobase | technobase.fm | technoguide | unitedsb.de | tekknoforum.de | toxic-family.de | restrealitaet restrealität | boiler room
 Diese Seite benutzt Kuhkies und du erklärst dich damit bei Betreten und Benutzung dieser Seite damit einverstanden. Es werden keinerlei Auswertungen auf Basis ebendieser vorgenommen. Nur die Foren-Software setzt Kuhkies ausschließlich für die Speicherung von Nutzerdaten für den einfacheren Logon für registrierte Nutzer, es gibt keinerlei Kuhkies für Werbung und/oder Dritte. Wir geben niemals Daten an Dritte weiter und speichern lediglich die Daten, die du uns hier als Nutzer angegeben hast sowie deine IP-Adresse, d.h. wir sind vollkommen de es fau g o-genormt, nixdestotrotz ist das sowieso eine PRIVATE Seite und nix Gewerbliches.
Powered by Infopop Corporation
UBB.classicTM 
6.5.0