ifun.de — Apple News seit 2001. 39 479 Artikel

Neues PDF zum Download verfügbar

BSI-Report: Chancen und Risiken von KI-Modellen

Artikel auf Mastodon teilen.
14 Kommentare 14

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat kürzlich seine Informationen zu generativen KI-Modellen, speziell zu großen Sprachmodellen (LLMs), aktualisiert.

Die noch vergleichsweise junge Technologie, die auch bei ChatGPT zum Einsatz kommt, ermöglicht es, Inhalte zu erzeugen, die normalerweise menschliche Kreativität und ein individuelles Verständnis unterschiedlichster Themenfelder voraussetzen.

Die LLM-Modelle lernen aus bestehenden Datenmustern und können daraufhin neue Texte, Bilder, Musik und Videos erstellen.

LLMs weisen auch Gefahren auf

Große Sprachmodelle können beispielsweise zum Übersetzen von Textinhalten, zur Generierung gänzlich neuer Texte und zur Klassifizierung von Texten zum Einsatz kommen. Wer ChatGPT schon mal ausprobiert hat, der weiß, wie umfangreich die Möglichkeiten hier ausfallen. Allerdings glänzen LLMs nicht nur in zahlreichen Anwendungsbereichen, sondern weisen auch spezifische IT-Sicherheitsrisiken auf und haben das Potenzial, bereits vorhandene Gefahren weiter zu verstärken.

Bsi Bericht Pdf

Hier setzt das Bundesamt für Sicherheit in der Informationstechnik mit seinem neuen PDF-Bericht an, der einen Überblick über die Chancen und Risiken generativer KI-Modelle gibt.

In der 36 Seiten starken Publikation werden auch Maßnahmen vorgeschlagen, um den potenziellen Gefahren zu begegnen. Die Informationen des BSI richten sich dabei vor allem an Unternehmen und Behörden, die entweder schon dabei sind, entsprechende Modelle in ihren Arbeitsalltag zu integrieren oder dies perspektivisch angehen wollen.

Das PDF mit dem Titel „Generative KI-Modelle – Chancen und Risiken für Industrie und Behörden“ soll fortlaufend ergänzt werden, um den neuesten Stand der Technik und die sich daraus ergebenden Risiken und Möglichkeiten abzubilden.

Neu in der jetzt verfügbaren Version 1.1 des PDFs:

  • Das Dokument wurde aus Gründen der Übersichtlichkeit, der besseren Nachvollziehbarkeit und zur Erleichterung der zukünftig angestrebten Erweiterung umstrukturiert.
  • Die Gegenmaßnahmen zur Begegnung der Risiken im Kontext von LLMs wurden in ein einziges Kapitel geschoben, da einige der Gegenmaßnahmen mehreren Risiken entgegenwirken und somit eine Mehrfachnennung vermieden wird. Durch eine Kreuzreferenztabelle wird aufgezeigt, welche Gegenmaßnahme welchem Risiko entgegenwirkt.
  • Die Informationen zu LLMs wurden anhand aktueller Publikationen umfassend aktualisiert und ergänzt.
  • Es wurden Grafiken eingefügt, um eine Zuordnung zwischen Risiken beziehungsweise Gegenmaßnahmen und dem Zeitpunkt, zu dem sie auftreten können beziehungsweise ergriffen werden müssen, herzustellen.

15. Apr 2024 um 13:37 Uhr von Nicolas Fehler gefunden?


    Zum Absenden des Formulars muss Google reCAPTCHA geladen werden.
    Google reCAPTCHA Datenschutzerklärung

    Google reCAPTCHA laden

    14 Kommentare bisher. Dieser Unterhaltung fehlt Deine Stimme.
  • 36 Seiten sind mir zu lang. Ich lasse mir das von ChatGPT zusammenfassen.

    • Berichte bitte, wie objektiv das Ergebnis ist.

      Antworten moderated
    • Die Zusammenfassung ist mit zu lang. Lasse es mir von Bard kürzen auf einen Satz.

    • Hier die drei Kernaussagen von erzeugt mit Chat GPT4:

      Der Artikel über generative KI-Modelle umfasst folgende drei Kernaussagen:

      1. **Vielseitigkeit und Potenzial**: Generative KI-Modelle können eine Vielzahl von Aufgaben ausführen, die Kreativität und menschliches Verständnis erfordern, wie das Erzeugen von Texten, Bildern und Musik. Ihre Fähigkeit, aus vorhandenen Daten zu lernen und neue Inhalte zu generieren, bietet erhebliche Chancen für die Digitalisierung [oai_citation:1,Generative_KI-Modelle.pdf]

      2. **Sicherheitsrisiken und Gegenmaßnahmen**: Trotz ihrer Vorteile bringen generative KI-Modelle neue IT-Sicherheitsrisiken mit sich. Unternehmen und Behörden sollten individuelle Risikoanalysen durchführen und existierende Sicherheitsmaßnahmen entsprechend anpassen, um diesen Risiken entgegenzuwirken [oai_citation:2,Generative_KI-Modelle.pdf]

      3. **Erforderliche Sensibilisierung und Tests**: Nutzende sollen umfassend über die Chancen und Risiken von generativen KI-Modellen aufgeklärt werden. Vor der Einführung sollten Modelle und darauf basierende Anwendungen ausgiebig getestet werden, um Sicherheit zu gewährleisten [oai_citation:3,Generative_KI-Modelle.pdf]

  • Mir fehlt in der Debatte ein für uns alle sehr wichtiger Punkt. Die Modelle müssen wieder zur unbedingten Neutralität zurückkehren und dort reguliert verbleiben. Aktuell wird inhaltlich und politisch zu viel interpretiert und entschieden was richtig und was falsch ist. Die Modelle sollten alle Inhalte neutral ausgeben und die Schlüsse daraus den Nutzern zu überlassen.

  • … und plötzlich gibt das Programm seinen Text in Fraktur aus…

  • Ich finde erschreckend, wie wenig sich anscheinend die Schulen mit dem Thema auseinandersetzen. Wir hatten gerade unsere Nichte (17) und ihren Freund (19) bei uns zu Besuch, die beide schon diverse Hausaufgaben von ChatGPT hatten erstellen lassen und diese ohne sie vorher selber mal zu lesen abgegeben haben. Außerdem wollten sie mir partout nicht glauben, dass es sich NICHT um eine Suchmaschine handelt und alle großen Modelle regelmässig heftig halluzinieren. Wie kann man das nicht mitbekommen haben?!?

  • Wenn KI nun in den Unternehmen eingesetzt wird, es aber klar ist, dass sich KI bis jetzt auch mal irren kann oder sogar „vorsätzlich“ Fehler macht bzw. Sachverhalte erfindet, dann müssen doch in jedem Unternehmen Ganze Abteilung gegründet werden, die die Ergebnisse der KI sowohl auf sachliche Richtigkeit überprüfen als auch auf das Einhalten gesetzlicher Vorgaben. Und das heißt dann ja auch, dass die Leute, die die KI überprüfen und kontrollieren mindestens so viel wissen müssen, wie die KI auch weiß. Ob das tatsächlich zu Personaleinsparungen führt, kann ich mir gar nicht vorstellen. Angesichts des Umfangs von speziellem und allgemeinen Fachwissen, welches man als kontrollierender Mensch da haben muss, ist es eigentlich unvorstellbar, dass das nur ein Mensch allein haben kann. Vor allem auch, weil dieser Mensch dieses Wissen ja auch jederzeit parat haben muss. Ohne großartig nachschlagen zu müssen. Der muss quasi mehr wissen als die KI. Oder begehe ich hier einen Denkfehler?

    Antworten moderated
  • Redet mit. Seid nett zueinander!

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    ifun.de ist das dienstälteste europäische Onlineportal rund um Apples Lifestyle-Produkte.
    Wir informieren täglich über Aktuelles und Interessantes aus der Welt rund um iPad, iPod, Mac und sonstige Dinge, die uns gefallen.
    Insgesamt haben wir 39479 Artikel in den vergangenen 8461 Tagen veröffentlicht. Und es werden täglich mehr.
    ifun.de — Love it or leave it   ·   Copyright © 2024 aketo GmbH   ·   Impressum   ·   Cookie Einstellungen   ·   Datenschutz   ·   Safari-Push aketo GmbH Powered by SysEleven