• Creator
    Topic
  • #19938

    Erich Pekar
    Teilnehmer

    https://derstandard.at/2000086077125/Killerroboter-auf-dem-Vormarsch-Diplomaten-ringen-um-Kontrolle

    Smarte Waffen, das hört sich clever an. Aber dahinter stecken Waffen, die selbst Ziele auswählen und feuern. Verhandler ringen in Genf um Verbot

    Maschinen, die in den Krieg geschickt werden und selbst Ziele wählen und töten – Fortschritt oder Horrorvorstellung?
    Was wie ein Science-Fiction-Film klingt, ist längst in der Entwicklung. “Tödliche autonome Waffen” sind gemeint, auch Killerroboter genannt. Das können schießende Roboter sein, tödliche Drohnen, unbemannte U-Boote.
    Sie werden im Kampfeinsatz nicht von Menschen dirigiert, sondern entscheiden autonom, was ein legitimes Ziel ist und feuern tödliche Salven ab.

    “Waffen können nicht zwischen Freund und Feind unterscheiden und gehören auf den völkerrechtlichen Prüfstand”, sagt Thomas Küchenmeister von der deutschen Organisation Facing Finance, Mitglied der internationalen Kampagne gegen Killerroboter (“Campaign to Stop Killer Robots”). Eine Entscheidung, Menschenleben auszulöschen, dürfe niemals einer Maschine überlassen werden.

    Computer lernen anhand von eingefütterten Daten, wie ein Ziel aussieht, wie es sich bewegt, wann es angegriffen werden soll und zünden, ohne, dass ein Mensch an der Entscheidung noch beteiligt ist.

    Es besteht kaum Zweifel, dass die USA, Russland, China, Israel, Südkorea und Großbritannien an solchen Systemen arbeiten. Sie existierten schon, sagt Neil Davison vom Internationalen Komitee vom Roten Kreuz (IKRK). Es wacht über die Einhaltung des humanitären Völkerrechts, die weltweit anerkannten Genfer Konventionen, und ist besorgt über die Entwicklung. “Angriffe sind streng auf militärische Ziele zu beschränken”, heißt es in den Genfer Konventionen etwa. Können Maschinen das entscheiden? “Menschen müssen genügend Kontrolle behalten, um legale Entscheidungen zu treffen”, sagt Davison.

    Wer kann für Verbrechen mit Waffen, die kein Mensch mehr kontrolliert, zur Verantwortung gezogen werden?

    Mehr als 2.000 Wissenschafter, die mit künstlicher Intelligenz arbeiten, haben solche Waffen verurteilt. “Es gibt eine moralische Komponente”, schrieben sie in einem Appell. “Wir dürfen Maschinen keine Entscheidung über Leben und Tod überlassen, für die andere – oder niemand – strafbar gemacht werden.”

    Die zentrale Frage bei autonomen Waffensystemen –

    “Wer kann für Verbrechen mit Waffen, die kein Mensch mehr kontrolliert, zur Verantwortung gezogen werden?”

    ist ganz ähnlich der Fragestellung bei autonomen Fahrzeugen : “Wer haftet für Unfälle durch autonome Fahrzeuge ?”  –

    Dazu gehören auch solch “ethische Fragen” wie z.B. welche Gruppe von Fußgängern ein autonomes Fahrzeug niederfahren darf, wenn Personenschaden als Folge eines “unausweichlichen” Unfalles angeblich unvermeidbar sein sollte.

    In beiden Fällen muss meiner Meinung nach der Betreiber der autonomen Waffenssysteme (z.B. die Kommandanten der Truppen, die Killeroboter einsetzen)  bzw. die Besitzer (Privatperson oder Fahrdienstleister) der autonomen Fahrzeuge, und die Händler und Hersteller dieser Waffensysteme bzw. autonomen Fahrzeuge “zur ungeteilten Hand” –  also jeder für den jeweiligen Gesamtschaden bzw. Gesamtfolgen – haften.

    In Zeiten, wo noch Menschen an den Auslösern/Drückern der Waffensysteme gesessen sind, konnten sich Hersteller bisher aus ihrer Verantwortung stehlen, indem sie behauptet haben, dass sie reine “Verteidigungsysteme” geliefert hätten und es nicht in ihrer Vereantwortung gelegen wäre, mit “Vertedigungswaffen” auch Angriffskriege zu führen.
    Spätstens seit der Entwicklung autonomer Systeme (mit der besonderen Betonung der Vorteile des Einsatzes künstlicher Intelligenz – gerade auch durch die Entwickler/Hersteller autonomer Systeme) sollten eigentlich die Hersteller sich nicht mehr der Verantwortung (und der Haftung) für die Folgen der Aktionen ihrer autonomen Systeme entledigen können.

    Unethisch erscheint mir an der derzeitigen Diskussion um die Haftung für den Einsatz autonomer Systeme jedenfalls die Erforderniss der Diskussion über die Haftung selbst zu ein : Dass angeblich die Hersteller/Händler/Betreiber autonomer Systeme keine Verantwortung für die Funktion/das Verhalten ihrer autonomen Systemme treffen könnte.

    Diese Haftung der Hersteller/Händler/Betreiber scheint mir jedenfalls außer Diskussion zu stehen.
    Und wir sollten uns hüten, am Beispiel autonom fahrender Straßenfahrzeuge andere Haftungskonstrukte (etwa durch eine “gewisse” eigene Rechtspersöpnlichkeit autonomer Systeme) zuzulassen, da diese sonst allzu leicht als Vorlage fur Haftungsregelungen (bzw. Ablehnung jeder Verantwortng für unzulässiges – und vielleicht massenvernichtendes – Verhalten) von autonomen Waffensystemen dienen könnte.

    Jede Aktion eines autonomen Systems sollte also rechtlich so gewertet werden, wie wenn sie vom Betreiber/Händler/Hersteller (als physische oder juristische Personen) selbst gesetzt worden wäre, denn autonome Systeme handeln ja in jedem Fall als Vertreter bzw. im Auftrag dieser Personen.
    Und autonome Systeme werden von den Waffensystemherstellern gerade mit dem fehlenden Gewissen beworben; Sie könnten daher Kampf- bzw. Tötungsaufträge wesentlich “effektiver” als menschliche – von allerlei Skrupel geplagte – Soldaten/Kämpfer durchführen.
    Trotz aller künstlichen Intelligenz und intelligenter (vielleicht auch selbstlernender) Algorithmen, verfügen autonome Systeme über kleinerlei freie Entscheidung bzw. Moral  – sie können sich immer nur im Rahmen ihrer Algorithmen und ermittelter Wahrscheinlichkeitswerte für vielleicht “zielführende” Aktionen bewegen. Und diese Algorithmen – auch wenn sie sich selbst modifizieren können – werden durch die jeweiligen Hersteller vorgegeben.
    Wenn sich Hersteller dann – zufolge der Möglichkeit zur Selbstmodifikation von Algorithmen – auf unvorhersehbare Aktionen ausreden, für die sie sicher nicht die Verantwortung übernehmen könnten, sollte das als Eingeständnis für unsicheres (da nicht vorhersehbares) Verhalten autonomer Systeme gewertet werden und solche Algorithmen bzw. die entsprechneden autonomen Syteme – z.B. für den Straßenverkehr – gar nicht zugelassen werden.

Replies
  • Erich Pekar
    Teilnehmer
    Post count: 683
    #20000 |

    US-Militär investiert zwei Mrd. Dollar in Künstliche Intelligenz

    https://derstandard.at/2000086952026/US-Militaer-investiert-zwei-Mrd-Dollar-in-Kuenstliche-Intelligenz

    Neue Generation soll “menschenähnlich” kommunizieren können

    Die Wissenschaftsbehörde des US-Verteidigungsministeriums hat Investitionen in Höhe von zwei Milliarden Dollar (1,73 Milliarden Euro) für die Entwicklung einer neuen Generation Künstlicher Intelligenz angekündigt. Ziel seien Maschinen mit “menschenähnlichen Kommunikations- und Denkfähigkeiten”, sagte der Leiter der Defense Advanced Research Projects Agency (Darpa), Steven Walker, am Freitag vor Medienvertretern.

    Darpas Forschung wird vollständig vom Pentagon finanziert und konzentriert sich auf Technologien, die bei Kampfhandlungen eingesetzt werden können – wie etwa Drohnen.

    Um Kriege noch effektiver, billiger und “sauberer” führen zu können.
    Wie “sauber” Kriege heute schon geführt werden, verfolgen wir ja täglich in den Meldungen.

    An der Effekivität  hapert’s  halt noch etwas – es gibt noch viel zu viel Überlebende und daher auch Flüchtlinge.

     

     

     

  • Erich Pekar
    Teilnehmer
    Post count: 683
    #21006 |

    Warum wir uns vor Killerrobotern nicht fürchten müssen
    https://derstandard.at/2000095594142/Warum-wir-uns-vor-Killerrobotern-nicht-fuerchten-muessen

    Sehr wohl müssen wir aber nach Lösungen suchen, wie in Zukunft Rechenzentren gekühlt und Strom dafür erzeugt werden soll


    Übernahme durch AI, selbst agierende Killerroboter, selbstentscheidende medizinische Systeme, die im Stande sind Leben auszulöschen.
    Es können alle beruhigt sein – so weit wird es wahrscheinlich nicht kommen, denn bevor wir Killerroboter entwickeln, wird uns wahrscheinlich der Strom ausgehen.

    In der Geschichte der Informationsverarbeitung hatten wir mehrere Wendepunkte, zum Beispiel die Erfindung des Desktop-Computers oder die Erfindung des Smartphones. Alle diese Wendepunkte haben eines gemeinsam, nämlich den enormen Anstieg des Energieverbrauchs.

    Alleine Google verbraucht im Jahr so viel Strom wie ungefähr die gesamte Stadt Graz. Derzeit gibt es weltweit circa eine halbe Million Rechenzentren, die insgesamt so viel Strom im Jahr verbrauchen wie fast 30 Atomkraftwerke erzeugen können. Tendenz steigend.

    Wir können nicht unendlich viel grünen Strom erzeugen, denn das ist durch geografische und natürliche Ressourcen vorgegeben und limitiert.

    In naher Zukunft wird die gesamte IT-Industrie einer der größten Stromverbraucher sein. Die Gefahr ist daher sehr groß, zu raschen Lösungen zu greifen, wie zum Beispiel zum Bau von neuen Atomkraftwerken, wenn plötzlich der Energieverbrauch in der IT enorm ansteigt. Die andere Gefahr ist es, zu radikalen Maßnahmen zu greifen und den Zugang zur IT zu reduzieren beziehungsweise zu limitieren, mit teilweise verheerenden sozialen Auswirkungen.

    Wenn vier selbstfahrende Autos in Wien auf einer Kreuzung ohne Ampel autonom und selbstregulierend die Kreuzung übersetzen müssen, dann kann der Server, der die Daten verarbeitet, nicht in Salzburg sein. Die Entscheidungen von selbstfahrenden Autos müssen in Bruchteilen von Sekunden geschehen. Liegt der Server in Salzburg, dann ist die Latenz (Antwortzeit) einfach zu groß. Daran wird sich in naher Zukunft nicht viel ändern, weder durch 5G, 6G oder andere Technologien – hier spielt die Physik einfach nicht mit. Damit die vier Autos samt Insassen unbeschadet davonkommen, muss die Datenverarbeitung in der unmittelbaren Umgebung geschehen.

    Eine Edge-Infrastruktur auf der Autobahn, in der Stadt und in anderen urbanen Gegenden aufzubauen ist sehr teuer, ineffizient und selten mit grünem Strom zu lösen.

    Derzeit bauen viele Firmen sogenannte “high-latitude” Rechenzentren jenseits des sechzigsten Breitengrads, denn da können die Server natürlich gekühlt werden und die Kühlung macht oft fast 40 Prozent des gesamten Stromverbrauchs eines Rechenzentrums aus.

    Es ist sehr unwahrscheinlich, dass ein selbstfahrendes Auto in mittlerer Zukunft mit einem Quantencomputer ausgestattet werden kann. Es ist auch sehr unwahrscheinlich, dass ein Quantencomputer mitten auf der Autobahn für die Echtzeitauswertung vom Kamerabildern eingesetzt werden kann.

    Der zweite Ansatz ist die Speicherung von Strom über Zeit und Raum, was derzeit mit konventioneller Technologie nicht möglich ist. Mit Wasserstoffkraftwerken kann man genau das erreichen.

    Erschreckend, welche Ungereimtheiten und kritiklose Übernahme von Hersteller-Behauptungen sogar von Wissenschaftlern technischer Fachbereiche da verbreitet werden; Von Politikern oder Managern der Technologieunternehmen wäre man solch unreflektierten Optimismus ja gewöhnt : Die einen können nicht anders – weil sie es selbst nicht besser wissen, die anderen dürfen nicht anders – wenn sie ihre Managerposten behalten wollen.

    Selbst als Pessimist ist doch wohl eher “Optimismus” angesagt, da sich Militärs den Einsatz von Killerrobotern wohl nicht durch – ohnehin nur für Zivilisten beschränkend wirkenden –  Mangel an elektrischer Energie “verleiden” lassen werden. Für Killerroboter wird sicher immer genug elektrische Energie requiriert werden können.
    Allerdings stellt sich gerade auch für Killerroboter die Frage nach der Speicherung  (bzw. Mitführung) der erforderlichen Energie, um ihre Missionen erfolgreich ausführen zu können und sie auch wieder unbeschädigt zur jeweiligen Basis zurückkehren zu lassen.
    Für militärische Anwendungen würde erst die “ideale Superbatterie” den Durchbruch von Killerobotern – ihren regelmäßigen (Boden-) Einsatz in realen Kampfgebieten – ermöglichen. Dass es eines gar nicht zu fernen Tages diese Superbatterien (bzw. Superakkus) für militärischen Einsatz auch geben wird, scheint tatsächlich nur mehr eine Frage der Zeit und weniger ein Frage der technischen Machbarkeit zu sein.
    Zu glauben, dass wir uns wegen fehlender elektrischer Energie für deren Antrieb nicht vor Killerobotern zu fürchten brauchen, scheint mir daher eine mehr als verharmlosende/naive Begründung zu sein. Letzlich könnten heute schon im realen Kampfeinsätzen ferngesteuert fliegende Drohnen auch zu fliegenden autonomen Killerobotern ausgebaut werden.

    Der Energieverbrauch ist im Bereich des IT-Einsatzes das geringste Problem, da auch die Hersteller selbst großes Interesse an weiterer Reduzierung des Energieverbrauches haben, da sowohl die weitere Miniaturisierung von Bauelementen und kompletten Geräten durch die mit steigendem Energieverbrauch steigende Wärmeentwicklung zufolge der beschränkten Möglichkeiten zur Wärmeabfuhr beschränkt wird, als auch der Betrieb dieser Anlagen – auch durch die dafür erforderlichen immer größeren Entwärmungsanlagen – mit steigender Leistung immer teurer wird.
    Neben “der IT” gibt’s ganz spezielle Verbraucher (bzw. “IT-Anwendungen”, wie z.B. Krypto-Währungen, höchstauflosende Videostreams über Internet, …  ) die ganz erheblich zur Steigerung des Stromverbrauches beitragen und deren Nutzen für die Gesellschaft ernsthaft hinterfragt werden sollten.
    Es geht daher nicht um die Entscheidung, wie viele neue Atomkraftwerke gebaut werden müssen, um alle  – vielleicht auch “nutzlose” bzw. “sinnlose” – IT-Installationen bzw. Anwendungen mit elektrische Energie versorgen zu können, um dann nach wenigen Jahren der weiteren Steigerung des Energieverbrauches wieder vor dem gleichen Energieproblem zu stehen, sondern es geht z.B. um die Frage ob autonom fahrende Fahrzeuge  auf öffentlichen Straßen auch nur ein einziges unserer Verkehrspropbleme tatsächlich lösen können. Wenn diese Frage mit “nein” beantwortet werden müsste – und Vieles deutet darauf hin – dann würde sich damit auch die Frage nach noch leistungsfähigeren (und noch mehr Energie verbrauchenden) Rechnern in den Fahrzeugen und am Straßenrand quasi “von selbst” erledigen. Auch ein wichtiges Argument für die Einführung der neuen (und auch mehr Energie verbrauchenden) 5G-Mobilfunktechnologie würde dann wegfallen.

    Wir müssen akzeptieren, dass wir im “Raumschiff” Erde nur beschränkte Ressourcen zur Verfügung haben und mit diesen sehr sparsam umgehen sollten – auch wenn die Sonneneinstrahlung ein  mehrfaches unseres derzeitigen Energiebedarfes liefert.
    Über selbstfahrende Autos braucht hier nicht weiter diskutiert werden – sie stellen (im Zukunft) einen Teilbereich der Elektromobilität dar. Den meisten Staaten Europas ( und vermutlich auch der Welt) wird es nicht gelingen, den gesamten derzeitigen Straßenverkehr allein mit elektrischer Energie im bisher gewohnten Umfang aufrecht zu erhalten. Und der Straßenverkehr stellt in nahezu jedem Land nur ungefähr 1/3 des Gesamtenergieverbrauches (derzeit fast 100 % aus fossilen Energieträgern) dar, der aus Klimaschutzgründen überall innerhalb der nächsten 30 Jahre auf Energie aus erneuerbaren Quellen (= elektrische Energie) umgestellt (“dekarbonisert”) werden sollte.
    Der Anteil “der IT” am Gesamtenergieverbrauch ist bereits jetzt in den einzelnen Verbrauchskategorien der Gesamtenergiestatistik berücksichtigt – sofern die Energie über öffentliche Stromversorgungsnetze bzw. über fossile Energieträger bezogen wird – also in den Gesamt-Energiestatistiken (jedes Staates der Erde) erfasst wurde.
    Der Energieverbrauchsanteil der IT würde daher nur einen vergleichsweise kleinen Anteil z.B. der Verbrauchskategorien “Verkehr”, “Industrie/Landwirtschaft” und “Gebäude” ausmachen.

You must be logged in to reply to this topic.