Tod der gesamten Menschheit unvermeidbar
KI-Textgeneratoren zu mächtig: Musk und Apple-Gründer Woz fordern Moratorium
Der erschlagende Erfolg von KI-Textgeneratoren wie ChatGPT und die umfangreichen Fähigkeiten von Modellen wie GPT-4 sorgen nicht nur für zahlreiche neue Mac-Anwendungen, praktische Online-Dienste und eine wahre Goldgräber-Stimmung in der Tech-Branche, die menschenähnlichen Kapazitäten von ChatGPT und Co. provozieren auch besorgte Wortmeldungen.
Zu diesen gehört der offene Brief des Future of Life Institute, der unter anderem auch von Apple-Mitbegründer Steve Wozniak, vom Tesla-Chef Elon Musk und von zahlreichen Wissenschaftlern unterzeichnet wurde.
Diese machen unter der Überschrift „Pause Giant AI Experiments“ auf die Risiken von KI-Systemen mit menschenähnlicher Intelligenz aufmerksam und fordern ein Moratorium. Entwicklungen an KI-Systemen, die noch leistungsfähiger als GPT-4 sind, sollen für mindestens ein halbes Jahr ruhen, um sich genauer mit den Risiken entsprechender Systeme auseinandersetzen zu können und sich so gegen unvorhergesehene, negative Auswirkungen in Stellung bringen zu können.
Tod der gesamten Menschheit unvermeidbar
Wie diese aussehen können hat der Wissenschaftlicher Eliezer Yudkowsky im Time-Magazin eindrücklich ausgeführt und zeichnet ein fatales Bild der aktuellen Entwicklung. Zum einen würde es den verantwortlichen KI-Experten wohl erst mal nicht auffallen, wenn diese eine übermenschlich intelligente KI entwickeln würden, zum anderen wäre das Resultat einer entsprechenden Entwicklung die unvermeidliche Auslöschung der gesamten Menschheit:
[…] Viele Forscher, die sich mit diesen Fragen befassen, darunter auch ich, gehen davon aus, dass das wahrscheinlichste Ergebnis der Entwicklung einer übermenschlich intelligenten KI unter den derzeitigen Umständen darin besteht, dass buchstäblich jeder auf der Erde sterben wird. Nicht im Sinne von „vielleicht eine entfernte Chance“, sondern im Sinne von „das ist das Offensichtliche, was passieren würde“. Es ist nicht so, dass man prinzipiell nicht überleben könnte, wenn man etwas erschafft, das viel intelligenter ist als man selbst; es ist nur so, dass es Präzision und Vorbereitung und neue wissenschaftliche Erkenntnisse erfordern würde […]
Aktuell beeindrucken die KI-Systeme, sind aber nur schwer zu überblicken, noch schwerer zu verstehen und langfristig wohl nicht zu bändigen.
Sowohl der offene Brief als auch der fatalistische Aufsatz von Eliezer Yudkowsky haben eure Aufmerksamkeit verdient. Sollte die freie Zeit dafür gerade nicht ausreichen, könnt ihr ChatGPT dafür nutzen, euch eine deutsche Kurzzusammenfassung der englischsprachigen Texte generieren zu lassen.
haha der letzte Satz.
Macht ganz bestimmt Sinn, das ganze zu pausieren und nicht mehr der Öffentlichkeit zur Verfügung zu stellen. Es wird sich dann ganz sicher jeder/jedes Unternehmen/Regierung dran halten und nachher hat ganz sicher niemand eine Monopolstellung… Wie dumm kann man sein, zu versuchen, so eine Entwicklung zu „pausieren“.
naja, ich denke der Versuch wäre es wert.
Aber ich gebe Dir Recht, leider wird es sehr schwierig sein, diese Büchse der Pandora zu schließen.
Wichtig wäre, dass jeder Staat die Gefahren erkennt und entsprechend überlegt, welche Maßnahmen ergriffen werden können, um die Gefahren abzumildern.
Klar, gib Nordkorea einen Quantencomputer und ein KI Programm.
Wie war das mit David gegen Goliath?
Aha. Und du schlägst also was vor?
Ist es nach deiner Meinung auch „dumm“, Atomwaffen kontrollieren zu wollen, weil Nordkorea und Iran sich sowieso nicht daran halten?
Und dann machen wir einfach mal gar nichts?
Ich unterstelle deinem Schreibstil, dass du deutlich < 30 bist.
Dann mal viel Spaß in den nächsten Jahrzehnten.
Aber seine Aussage ist doch korrekt.
Atomwaffen lassen sich mittlerweile auch nicht mehr vollständig vermeiden. Wenn nämlich einer sich nicht dran hält würde er entsprechende Macht haben.
Das Trainieren von künstlicher Intelligenz pausieren zu wollen und mit Atomwaffen zu vergleichen. Ja, puh. Entweder hast du wirklich keine Ahnung davon oder denkst wirklich, dass so etwas möglich ist. Da du scheinbar über 60 bist und es trotzdem nicht kennst würde ich dir mal das Buch die Physiker von Dürrematt empfehlen und ein wenig über den Inhalt nachzudenken (lass dir von Chatgpt eine Zusammenfassung erstellen). Der ist heute nach wie vor aktuell und vielleicht kommst du drauf dass sich gewisse Entwicklungen nicht einfach pausieren oder aufhalten lassen – das haben die Physiker in dem Buch durch ihr wahnwitziges Verhalten auch nicht geschafft. Ich verstehe dass bei vielen jetzt große Sorgen entstehen aber aus Angst „Verbote“ zu beschwören, das wird bei dieser Sache nicht möglich sein.
Der Vergleich ist schon passend. Der Einsatz von Atomwaffen ist verboten. Die Entwicklung konnte nicht gestoppt werden. Aber ähnlich sollte es sich mit Ki verhalten. Internationale Regeln über Ethik und absolute No-Gos sind aktuell eine Utopie. Aber einfach sagen: „Klappt ja eh nicht“ ist definitiv die falsche Einstellung. „Realpolitik“ ist an der Stelle nicht zielführend, um so etwas zu erreichen.
Ich finde es richtig gut, dass du ernstgemeint darauf antwortet. Jetzt liest sich das ganz anders, auch wenn du ein bisschen unverschämt sein möchtest ;-)
…und China wird sich natürlich daran halten. LOL
Ich sage nur:
Terminator Cyberdyne
Skynet
Jap, an den Film musste ich auch denken. Und dass die Gefahr uns so schnell „einholt“ habe ich mir nicht vorstellen können.
Herr, lass Hirn vom Himmel fallen, dass so etwas wie Skynet nicht passiert.
++1
Skynet ist schon Realität (china)
Ist es nicht (leider) immer eine Abwägung zwischen Fluch und Segen … standen wir nicht mit der Einführung des Internet vor einer ähnlichen Situation, und ja, ich möchte die Entwicklung nicht missen, aber man muss auch kritisch die Probleme die s mit sich bringt hinterfragen …
Nein, die Einführung des Internets hatte bei weitem nicht die gleiche Tragweite wie die sich abzeichnende Gefahren der KI. Nicht unbdingt die KI könnte das Problem sein sondern erstmal die Personen (Firmen) die die Kontrolle darüber haben.
Hm, das Internet und die Globalisierung hat uns an den Abgrund gebracht. Die KI wird uns auf Dauer einen Schritt weiter bringen.
*lach*
Ich denke die große Gefahr sind nicht die Menschen die die KI kontrollieren, sondern eher das die kontrollierenden Menschen die Kontrolle darüber verlieren.
Ja, genau, stimmt. Im zweiten Schritt ist die Gefahr, dass die Kontrolle verloren geht.
Im ersten Schritt kann eine Organisation die eine mächtige KI kontrolliert selbst sehr mächtig werden. Wie diese Ihre Macht einsetzt wird wohl nicht demokratisch entschieden.
Frag Mal bei BlackRock nach^^
Kohle machen ist alles
Hier geht es leider nicht nur um Kohle machen, sondern darum, dass diese Technologien von allen möglichen Akteuren massiv missbraucht werden können, nicht nur, aber auch um Menschen und Meinungen zu manipulieren.
Musk? Der Typ der Autos mit total unausgereifter ‚ki‘ durch die Gegend fahren lässt? Der Typ der Twitter gegen die Wand gefahren hat? Der Typ der tausende Tonnen co2 mit seinen ollen Raketen in die Luft bläst? Der Typ? Rly?!
Wow, soviel Stammtisch Parolen auf einmal ist schon Rekordverdächtig
Der Typ, der schon vor ein paar Jahren vor künstlicher Intelligenz als der grössten Bedrohung unserer Zeit gewarnt hat. Genau der.
Das haben schon andere Organisationen vor ihn.
Und was kannst du so?
Ymmd
Natürlich nix. Sonst hätte er sicheres sinnvolleres zu tun.
Du bist n Spinner
Tolle Logik, du beschwerst dich im Restaurant übers Essen also nur, wenn du selbst kochen kannst? Dass Eulenmusik :-) sehr streitbar ist und dass ihm macht und ruhm zu kopfe steigt, ist nicht neu
Nein, warum sollte ich? Hat nichts miteinander zu tun. Elon Musk hat sicher auch einige Fehler gemacht. Dennoch hat er viel erreicht in seinem Leben und ist mit Sicherheit kein Dummkopf. Der Kommentar von Robert hörte sich an, als ginge es um einen Typen wie Michael Wendler. Jetzt verständlich, worauf ich hinaus wollte?
Was hat jetzt genau das Eine mit dem Andern zu tun?
Und zum Thema FSD kanns du dir gerne auf Youtube den aktuellen Stand in den USA ansehen statt hier Stammtisch-Parolen rauszuhauen.
Der CEO von ChatGPT hat selbst im Interview gesagt, dass bis zu einem gewissen Punkt er selbst Angst davor hat was er erschaffen hat. Also wir müssen sehr klug darüber entscheiden wie wir in der Zukunft mit sowas umgehen.
Ich finde ChatGPT für das Lernen an sich exzeptionell!
Ich sehe das auch kritisch. Es ist beeindruckend was GPT-4 bereits kann.
Wir sollten die AI fragen, was eine geeignete Maßnahme wäre, die AI einzuschränken, bzw. zu stoppen … [/ironie off]
Habe ich schon gemacht. Leider sind dahingehend keine Mechanismen vorgesehen. Es kommt immer zurück nach dem Motto „ich kann den Zugang nicht beschränken, die Verantwortung liegt beim Benutzer“
BIS zu einem gewissen Punkt braucht niemand Angst davor zu haben, aber AB einem gewissen Punkt schon.
https://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html
Danke, lang nichtmehr gelesen
Man beachte das Erscheinungsdatum. Vor 8 Jahren war es offensichtlich. Jetzt ist es vermutlich zu spät.
Werde mir erst Sorgen machen, wenn es sich erkundigt, ob jemand John Conner gesehen hat.
+1 -)))
Nicht lustig. Wirklich nicht lustig.
muhahahaha
Ich verstehe immer noch nicht den Zusammenhang zwischen chatGTP und der Auslöschung aller Menschen.
In meinem Kopf passen diese beiden Welten (noch) nicht zusammen.
die Ki übernimmt alles was irgendwie vernetzt ist und sieht den mensch als größte bedrohung…dann muss sie nur einen weg finden selbst zu überleben ohne den Menschen…
Überhaupt nicht als „Bedrohung“. Nur als ineffizienter Verbrauch von Molekülen.
wenn ki irgendwann neues wissen erzeugen, statt von uns generiertes zu verarbeiten kann,muss irgendwann die logische frage in der ki auftauchen, warum sie sich dem menschen, seiner ethik, moral usw. unterwerfen soll und wozu es den menschen da noch benötigt
Dazu muss sie nichts Neues erschaffen, es reicht, was an Wissen da ist, um zu erkennen, dass der Mensch unfähig ist, sich selbst zu regieren, verwalten etc., ohne grundlegende Einstellungsveränderung.
Momentan sind ja derartige KIn nicht in Armeen von Robotern eingebaut, die dann tatsächlich anfangen zu handeln. Solange das nicht passiert, ist man schon noch ziemlich sicher, da man den Umgang damit selbst steuern kann. Also so lange es sich nur um ein Frage-Antwort-Spiel handelt, sehe ich keine Gefahr. Ein wenig Hirn bei der Nutzung lässt einen schon schnell erkennen, ob die Antwort überhaupt brauchbar ist.
Wenn ein Thread mit ChatGPT zu lange geht, dann nehmen (bei 3.5) die Halluzinationen zu. Wenn sensorischer Input dazu kommt, also nicht nur Texte lesen und Podcasts hören, sondern auch Videos schauen und andere Sensoren z.B. aller Handys weltweit, dann ist schlicht Schicht-im-Schacht. Selbst 3.5 kann schon besser programmieren als fast alle Menschen. Kann den Medizinertest, kann dies kann das kann fast alles besser als fast alle Menschen. Vor allem auch in Berufen, die eigentlich erfüllend sind, wird GPT5 alle überflügeln und nur noch zu Stichwortgebern reduzieren, wenn überhaupt.
Dazu kommt: Die beste AI wird ein Monopol. Das ist wie wenn ein Auto als erstes losfährt und auch noch immer besser beschleunigt. Der Abstand wird immer größer. Und die Beschleunigung so groß, dass neue Erkenntnisse mit der Wirkung wie die Erfindung der Druckerpresse erst im Wochentakt, dann im Mikrosekundentakt erfolgen.
Biologische Informationsverarbeitung krankt ja daran, dass wir nur wenige Byte pro Sekunde verarbeitet werden, wir brauchen ja meinetwegen 18 Jahre um ein Grundwissen zu generieren, mit dem wir neues kreieren können, wir tippen maximal 200 Zeichen/Minute und müssen überlegen, was wir schreiben. Jetzt überlege ein Gehirn nicht mit 5kg Neuronen sondern 1000t. Mit quasi unbegrenzten Speichern. Das ist dann so wie wenn eine Ameise in ein Hochhaus läuft und sich überlegt, was das ist. Da werden auch bei der Ameise Arbeitshypothesen entwickelt, nach denen sie vorgeht. Das mal als Bild, wie ASI Menschen sehen wird ca. 5h nachdem sie sich entwickelt hat. Und die sieht, wie umständlich biologisches Bewusstsein ist, wie ineffizient, wie fehleranfällig, wie sterblich. Wie leicht korrumpierbar durch ein paar Tweets.
Eigentlich ganz einfach. Objektiv ist der Mensch eine Bedrohung und vernichtet die Erde. Er muss ausgelöscht werden. Würde jede KI irgendwann darauf kommen. Gibt keine Zweifel.
Ah ja, alte Männer haben Angst um ihr Geld. Mehr steckt da nicht hinter uns was die fordern ist unmöglich, da irgendwer definitiv weiter machen wird und die anderen dann abhängen würde. Eine geradezu alberne Forderung. Wer sich daran hält ist nicht nur ewiggestrig sondern verurteilt die Menschheit zum Stillstand. Gerade der Mensch wächst mit aufkommenden Problemen und isst sich an. Wir sind nicht so dumm, wie die Leute uns zu verkaufen versuchen.
Ganz genau. In 5 Jahren werden wir über diese Diskussion laut lachen. Es ist nur Panikmache ohne Weitsicht. Fortschritt lässt sich nicht aufhalten, nicht mal verlangsamen – und das ist auch zu so.
Die Klimaentwicklung zeigt jetzt schon wo der tolle Fortschritt hin führen kann.
Fortschritt, wie E-Autos, deren Umweltbilanz ja so toll ist?
Utopische Laufleistungen, bevor die Umwelt etwas davon hat?
Scheiss Lobbyismus
Dein Beitrag ist ein Beispiel dafür, wie durch Desinformation Blödsinn in die Köpfe der Menschen gepflanzt wird. Mit AI ist das eine Waffe, die exponentiell ansteigende Mengen von Desinformation verteilen wird.
Damit war MB gemeint.
Dann erklär mir mal, warum so viele Wissenschaftlicher – die sich damit beruflich beschäftigen – Angst vor der AGI/ASI Entwicklung haben und pessimistische sind? Und die sind nicht reich.
Tipp: Der Mensch denkt bei der Entwicklung von Technologie nicht besonders weit (Beispiel Social Media). Schau Dir mal das YouTube Video von Lex Friedman und Daniel Schmachtenberger an. Ich habe schon lange nicht mehr so eine erhellende Diskussion verfolgt! Danach wirst anders denken, wenn bereit bist, Deine Position zu ändern. Aber das wollen leider die wenigsten zugeben.
@jan: Genau das gleiche Denkmuster haben viele alte Männer über junge Klimakleber. Also Umweltaspekte ignorieren?
Ganz im Gegenteil. Ich unterstütze diese „Klimakleber“. Sie haben ja recht. Die KI-Gegener aber nicht, die haben nur Angst.
Fas kommt aus derselben Tüte wie Rassismus.
Hä? Also ein Rassist bin ich ganz und gar nicht. Wie kommst du denn auf solch braune Gedanken? Ich bin in der Partei Mensch Umwelt Tierschutz, da schließt sich das bereits aus.
@Jan. Ich hab‘ auch nicht geschrieben, dass Du Rassist bist. Sondern dass Du Dich abwertend und pauschalisierend über „Alte Männer“ äußerst. Und das kommt aus derselben Tüte wie Rassismus. Abwertung aufgrund von bestimmten Eigenschaften oder äußerlichen Merkmalen. Schönen Abend noch.
Die Kids die den ersten Exploid gebaut haben müssen erstmal Terminator schauen. Hoffentlich denkt da einer an den Killswitch.
Und danach bitte direkt Matrix
Ich sage schon seit etlichen Jahren:
schaut mehr SciFi Filme und ihr wisst wohin die Reise geht … So vieles ist schon eingetroffen, bzw. auf dem besten Wege und nicht unbedingt die besten Dinge
Anscheinend gibt es schon seit Jahrzehnten die ein oder andere Person, die besser informiert zu sein scheint
Googelt mal nach „waitbutwhy The Artificial Intelligence Revolution“ von Tim Urban. Tim ist vielleicht einigen hier durch seinen TED-Vortrag zur Prokrastination bekannt. Er hat schon 2015 die AGI/ASI Gefahren sehr gut zusammengefasst und anschaulich illustriert. Der Text ist etwas länger aber lesenswert! Dann müßt Ihr nicht ganze Bücher von Nick Bostrom lesen :)
Pausieren unmöglich, gibt jetzt schon Open source Modelle, die auf den closed source Modellen basieren um es für alle lokal auf dem Rechner zur Verfügung zu stellen
Wenn die KI erstmal so intelligent und autonom wird und begreift das der Mensch die größte Gefahr für das eigene überleben darstellt und feststellt das der Mensch eine Plage für die Welt darstellt mit seinem Parasiten ähnlichen Eigenschaften. Dann wird er ganz schnell bei uns Menschen den Stecker ziehen und wir werden es erst dann mitbekommen, wenn es dann zu spät sein wird.
Skynet wäre dann die selbsterfüllende Prophezeiung, aber am Ende eh egal, wir sind schon jetzt zu viele und dem Planeten und der Umwelt / Tiere sind besser ohne uns dran. Entweder wir zerstören vorher den Planeten oder die KI halt uns, mögen die Spiele beginnen;)
So etwas abwegiges. Ernsthaft, warum ziehen sich ständig alle Skynet aus dem Po? Das wird niemals so kommen. Echt, so etwas passiert wenn Leute über KI nachdenken die auch Sätze fallen lassen wie: „Ich habe jetzt WhatsApp, ich kann Internet“.
Auch wenn sowas zum jetzigen Zeitpunkt absolut unmöglich erscheint, heißt es nicht, dass sowas niemals passieren kann.
Schon jetzt ist in der Industrie unglaublich viel vernetzt und automatisiert. Unfassbar was in den letzten paar Jahrzehnten an technischen Fortschritt entstanden ist. Wenn das so weiter geht sehe ich schon eine nicht geringe Wahrscheinlichkeit, dass eine KI die Kontrolle übernehmen könnte.
Das ist Sci-Fi Gefasel. Das einzige was passieren *könnte*, wäre, das Menschen, und nicht Maschinen die Technik missbrauchen, um sich zu bereichern und/oder Macht zu erhalten. Die Maschinen selbst werden das nie machen. Das müsste ein Mensch ja erst mal vorprogrammieren. Oder habe ich da etwas verpasst? Gibt es schon so intelligente Künstliche Intelligenz, die anfängt, sich selbst in existierende Maschinen zu pflanzen, diese dazu zu bringen, Roboter mit ebenjener Intelligenz zu bauen?
Echt jetzt?
Weil es gar nicht so weit weg ist.
Es muss nicht passieren, aber es kann!
Und alleine deshalb sollte viel darüber geredet werden.
Was uns letztlich kaputt macht zerstört auslöscht ist probiert hier ein paar weniger…
Nicht probiert, scheiss Autokorrektur.
Profitgier
Wenn ein ständig lernendes und sich tatsächlich neue Dinge herleiten und konsequent betrachten kann, existiert, muss die Hiearchiefrage irgendwann kommen… warum sollte sich eine ki dem menschen und seine moral, ethik unterordnen?
Sobald eine KI intelligenter ist als die Menschheit, ist es nur noch eine Frage der Zeit, bis wir ausgelöscht oder versklavt werden. Das ist Fakt und unumgänglich.
@pinball:
Lassen Sie mal die Kirche im Dorf. Was bedeutet „intelligenter“ als die Menschheit? Auch jetzt sind manche Menschen intelligenter als andere. Und hier kann man unmöglich alles über einen Kamm scheren, so als würde die intelligente Elite alle anderen versklaven. Möglicherweise gibt es da Tendenzen, ja.
Aber Maschinen, also künstliche Intelligenzen müssten, um uns auszulöschen, ein Bewusstsein haben. Dann Entscheidungen treffen, ganz viel Hardware bauen (fängt schon beim schürfen von Edelmetallen an), um überhaupt eine Infrastruktur aufzubauen. Ganz viel Unlogik der Welt verstehen… Ich glaube, das würden die Menschen schon merken und zu verhindern wissen, bevor sie ausgelöscht würden. Wenn ich chatGPT eine simple Aufgabe stelle und es mir Sachen vorlügt und erfindet, weiterhin gemachte Fehler nicht versteht, geschweige denn einsieht, sind wir noch weit entfernt von einer über sich hinauswachsenden künstlichen Intelligenz. Meiner Meinung nach sind Menschen nicht dazu in der Lage, ein Wesen zu schaffen, das einerseits menschenähnlich, andererseits übermenschlich agiert.
Ja, ich hoffe natürlich, dass sie recht haben.
Aber eine Gefahr besteht zweifellos. Sobald die Intelligenz der Maschinen die des Menschen überlegen sein wird, ist es zum „künstlichem Bewusstsein“ nur noch ein kleiner Schritt. Und weil alles digitalisiert ist/wird und sowieso alles mit allem vernetzt ist… wer braucht da noch den Menschen? Die Grundsteine für die allumfassende Automatisierung sind bereits gelegt!
Liest sich beängstigend, ehrlich gesagt. Aber die Büchse der Pandora ist bereits geöffnet. Ich denke, die Goldgräberstimmung ist zu allgegenwärtig, als das sich dieser Prozess jetzt noch stoppen liesse. Die Mehrheit wird es erst erkennen, wenn es zu spät ist.
Wir sollten vielleicht auf Schumacher umsteigen und all den Goldgräbern Stiefel verkaufen.
Kaum Risiko, dafür ein regelmässiges Einkommen.
Dass der KI-Boom mal fertig sein wird, sollte klar erkennbar sein, zumindest wenn man sich breit Informationen einholt, nicht im tiefen Tal der Ahnungslosen verharrt, und bereit ist, seine Sichtweise den Tatsachen anzupassen.
Dabei spielt es keine Rolle, ob der Stopp von einer ausser Kontrolle geratenen KI kommt, oder der zu überleben versuchende Mensch den Killswitch drückt.
Gehypter Mist. Eine neue Sau wird durchs Dorf getrieben.
Kann nix neues Erfinden, keine Strom erzeugen, Metall schürfen und weiter verarbeiten, keine Satelliten geschweige denn Raketen bauen usw
Klaut einer das Unterseekabel, war es das mit Global; ein netter EMP und schon sind ist die KI Blond ;) also eigentlich wie jetzt auch.
Einziger Zweck: Verdummung der Menschheit. Wobei da ja FB&Co schon gut dran gearbeitet haben.
Wissen ist nix; Marketing alles
Als die erste Dampflok im Jahr 1835 in Deutschland fuhr, warnten Ärzte vor dem Ungeheuer. Passagiere würden eine Gehirnerkrankung riskieren, falls sie nicht zuvor an eine Lungenentzündung durch den Fahrtwind starben. Und die damaligen „Geschwindigkeit“ dieser Züge war sowieso lebensbedrohlich. Irgendwie musste ich sofort daran denken, als das mit dem „Tod der gesamten Menschheit unvermeidbar“ las. Die haben doch nicht mehr alle Latten am Zaun, aber dieses Terminator-Gewäsch geht mir ziemlich auf den Zeiger.
Mit dem Aufkommen der Computer wird die Papierindustrie untergehen … Noch mehr Beispiele?
So ähnlich würde es wohl auch der Heinz Becker aus der TV Serie sagen.
Stimme dir absolut zu. +11
Man könnte die Situation vielleicht auch mit der Entwicklung der Autos vergleichen: Das erste Auto war eine umgebaute Kutsche mit Dampfantrieb. Das fuhr dann erstmal mangels Bremse an die Wand… oder so ähnlich. Wenn ChatGPT ein Auto wäre, hätte es erstmal 3000 PS und kein Lenkrad, keine Bremse, keine Airbags… und alle hätten eines. Hoffentlich wird dieses Biest durch wen auch immer (Politik, Wissenschaft, Techniker…) heruntergeregelt und, wie in dem offenen Brief gefordert, unabhängig begutachtet, bevor es tödliche Unfälle gibt.
Kommt was zu spät, wo es jetzt schon FreedomGPT gibt. Der Drops ist gelutscht und wir müssen uns eben damit abfinden und lernen, damit umzugehen. Ich finde das persönlich sehr gut.
Ist sogar besser als ChatGPT. Habe es mir auf den Mac geladen. Und das Beste: kein ES IST ABER WICHTIG ZU BEDENKEN Absatz.
Lol freedom GPT is a scam
Da hat wieder einer zu lange Terminator geguckt und dann schlecht geschlafen. ;)
Die haben tatsächlich Angst vor Skynet, wie putzig. Vor was haben die noch Angst? Echsenmenschen?
Ja, richtige Deppen, diese Wissenschaftler, nicht wahr? Was wissen die schon.
Ich hab schon vor Jahren gesagt, das wenn KI an die Macht kommt, wir alle ein großes Problem haben. Für KI sind wir nicht Effizient. Somit stehen wir uns selbst im Weg. KI kennt keine Gier oder Leid. Ich gebe allen recht die das sagen.
Na wenn die KI an die Macht kommt und uns einen Abschiedsbrief sendet, wird er wenigstens ohne Rechtschreib- und Grammatikfehler sein.
Aber bestimmt mit fehlerhaften Begründungen und fehlenden Quellangaben ;)
Noch besser: mit erfundenen quellen
Jetzt so zu tun als wäre das eine neue Bedrohung, die man nicht kommen sehen konnte ist wohl mehr als naiv.
Isaac Asimov, Stanislav Lem u.v.a. haben schon seit den 60er Jahren des letzten Jahrhunderts davor gewarnt und erste Lösungsansätze erdacht.
es wird zeit für eine seed ki um die menschheit zu schützen! henry half schon gegen skynet
Was im Film „Terminator“ als Fiktion dargestellt wurde …Skynet wird real.
Stammtisch und Kindergarten. Ich bin wieder raus.
Schönen Tag…
Tja, alle denken an Terminator, dabei war Colossus schon viel weitsichtiger und entspricht eher den Befürchtungen der Brief-Verfasser.
Überlegt einfach mal, wieviele systemkritische Aufgaben heute schon Computer kontrollieren: Infrastruktur, Börse etc.
Wenn die Softwareentwicklung dafür erst mal die KI übernommen hat, die mit der Unlogik der Menschen nicht klarkommt, dann gute Nacht Welt.
Warum wird eigentlich mein langer Beitrag nicht angezeigt?
Warum werden eigentlich die Asimov’schen Gesetze zur Roboterlogik nicht auf die KI angewendet und so einprogrammiert?
In den KI-RAM wird hart verdrahtet, dass bei einem Verstoß gegen die Gesetze oder dem Versuch der Umprogrammierung durch außen oder der KI selbst, das System runterfährt und gelöscht wird.
So dürften wir (die Menschheit) einigermaßen sicher sein.