Replies
  • Erich Pekar
    Teilnehmer
    Post count: 683
    #20093 |

    Künstliche Intelligenz soll Schwarzfahrer überführen

    https://derstandard.at/2000087754965/Kuenstliche-Intelligenz-soll-Schwarzfahrer-ueberfuehren

    System bereits im Testeinsatz – analysiert Verhaltensmuster und alarmiert Kontrolleur

    Wer in Wien mit der U-Bahn unterwegs ist, hat es relativ gut. Man kauft ein Ticket, entwertet dieses gegebenenfalls und begibt sich zum Bahnsteig. In vielen anderen Städten ist dieser Teil des Nahverkehrs allerdings strikter geregelt. In Stockholm, Athen und anderen Metropolen gibt es Einlasssysteme Mit Drehkreuzen oder Türen. Nur wer ein gültiges Ticket gegen einen Sensor drückt, kommt auch durch.
    Doch auch diese Form der Kontrolle ist anfällig für Betrug – sei es durch Überklettern der Schranken oder das Durchschmuggeln dicht hinter einem Mitmenschen mit Fahrschein. Das Unternehmen Awaait will dafür eine Lösung gefunden haben. Es entwickelt eine Künstliche Intelligenz, die Schwarzfahrer erkennen soll, berichtet Golem.
    Es handelt sich um eine Kombination aus Kamera und Software. Diese analysiert das Verhalten der Menschen an den Einlässen anhand ihrer Bewegungen und soll selbständig dazulernen können.

    Eine dauerhafte Aufzeichnung erfolgt nicht, auch Verdachtsaufnahmen sollen nach kurzer Zeit gelöscht werden.

    Trainiert wird der Algorithmus mit Videos der Station und von Leuten, die im Auftrag des Öffi-Betriebs die Sperren auf verschiedene Weise überwinden.

    Von “selbstständig dazulernen können” kann wohl keine Rede sein, wenn zum Trainieren des Alogorithmus erst eine “Theatergruppe” engagiert werden muss, die verschiedene Schwarzfahrer in einer Gruppe von Fahrgästen nach Drehbuch darstellen und den Kameras des KI-Systems  vorspielen muss.
    Eine mechanische Sperre/Vereinzelungsanlage (https://de.wikipedia.org/wiki/Vereinzelungsanlage)  kann wohl nicht auf sehr verschiedene Arten überwunden werden – es bleibt tatsächlich nur Überklettern oder “Mitgehen” mit einem Besitzer eines gültigen Tickets.
    Wenn es tatsächlich jemanden geben sollte, der diese Sperren ohne gültiges Ticket überwinden könnte, dann hätte auch die in das System integrierte KI keine Chance, aus diesem Fehler zu lernen, weil ein solcher Fall ohne manuelle Ticketkontrolle jeden Fahrgastes überhaupt nicht auffallen würde und daher auch kein erweitertes Trainingsprogramm für das ergänzende Training der KI erstellt werden könnte.

    Ob die Kosten für die Überwachung der Sperre durch KI , die die unbefugte Inanspruchnahme von Transportleistung allein – ohne herkömmliche physische Identifizierung und Verfolgung von Schwarzfahrern durch Sicherheitspersonal –  auch nicht verhindern kann, wohl gerechtfertigt sind, wenn die Anzahl der zusätzlich entdeckten Schwarzfahrer vielleicht eher “verschwindend” wäre ?

    Nicht alles, was mit KI “gemacht” werden könnte, ist auch sinnvoll.

  • Erich Pekar
    Teilnehmer
    Post count: 683
    #20108 |

    KI-Assistenten brauchen Empathie!

    https://derstandard.at/2000087849212/KI-Assistenten-brauchen-Empathie

    In Zukunft werden wir intensiver mit intelligenten Assistenzsystemen zusammenarbeiten.
    Der dominante Ansatz des maschinellen Lernens in der KI-Forschung ist dafür jedoch unzureichend.
    Ein Plädoyer für verstehende und verständliche KI-Systeme

    Systeme der künstliche Intelligenz (KI) sind genau das, was ihr Name behauptet: Sie sind intelligent, also fähig, Probleme zu lösen, die unserer Meinung nach kompliziert sind, und sie sind durch Menschen erzeugt, also künstlich. Und tatsächlich sind KI-Systeme alles andere als natürlich. Denn der Anspruch, mittels Computer menschliches Denken nachzubilden, ist längst nicht mehr Teil der KI-Forschung, wenn er denn überhaupt jemals ernst genommen worden ist. In KI-Systemen geht es vielmehr darum, komplizierte Probleme in der Welt möglichst automatisiert zu lösen.

    Das ist kein Forschungshindernis – Hauptsache, es funktioniert –, wäre eine typische Antwort unter Technikern. In den meisten Fällen stimmt das auch. Solange wir KI-Systeme als Werkzeuge verwenden, oder genauer gesagt als Erweiterung der Infrastruktur unserer Informationsverarbeitung, reicht eine solch oberflächliche Sichtweise. Ich muss ja auch nicht nachvollziehen, wie meine Waschmaschine oder Bohrmaschine funktioniert, Hauptsache, der Servicetechniker versteht ihre Funktionsweise, falls sie defekt ist.

    Leider ist in aktuellen KI-Systemen, die maschinelles Lernen verwenden – und das tun die meisten –, häufig nicht einmal das gewährleistet. Denn nicht der Mensch programmiert die Regeln des Funktionierens von KI-Systemen, sondern das System gibt sich die Regeln selbst vor – basierend auf Daten, die ihm zur Verfügung gestellt werden. Für Menschen stellen sich solche Systeme als Blackbox dar.

    Es wäre daher  – wegen dieser Nicht-Vorhersehbarkeit der Ergebnisse – Künstliche Intelligenz in sicherheitsrelevanten Systemen wie z.B. autonom fahrenden Fahrzeugen, oder autonomen Waffensystemen (“Killer-Roboter”) – nach bisheriger Auffassung von sicheren technischen Systeme – absolut unzulässig.

    Wenn sich jetzt jemand vor Gericht wegen katastrophalen Versagens einer technischen Einrichtung zu verantworten hätte, dem würde auf die Frage – ob allenfalls eine Fehlfunktion mit Schadensauswirkung vielleicht bewusst in Kauf genommen wurde – bei positiver Antwort (“das konnten/wollten wir nicht auschließen, weil uns vielleicht die Kosten für erweiterte/zusätzliche Sicherheitsmaßnahmen zu hoch erschienen sind”) höchstwahrscheinlich zumindest einen Verurteilung zufolge “gefährlicher Fahrlässigkeit” drohen.
    Wen ich aber  nicht weiß (bzw. wissen kann), wie sich ein KI-System zu jedem Zeitpunkt verhält, dann nehme ich unter Umständen (je nach Ensatzbereich) auch  gefährliche Reaktionen solcher – und damit auch Schäden, Verletzungen, Tote durch solche – Systeme in Kauf.
    Im Unterschied zu anderen technischen Sytemen, durch die vielleicht auch Tote verursacht werden können, kann ein KI-System nicht analysiert und verbessert werden, um solche gefährlichen System-Zustände zu verhindern, da sich KI-Syteme – in ihren selbstlernenden Algorithem bzw. daraus abgeleiteten – möglicherweise gefährlichen Reaktionen – ständig nicht vorhersehbar ändern und daher  nicht analysierbar sind.
    Und vollends gefährlich wird es, wenn der Einsatz von KI-Systemen – mit nicht stets vorhersehbaren Reaktionen – zum “Stand der Technik” erklärt werden würde – weil z.B. damit bestimmte Aufgaben besonders kostengünstig und “effizent” gelöst werden könnten und andere Realisierungsverfahren (ohne unvorhersehbare Ergebnisse) viel teurer sein würden.
    Mit gleicher Argumentation könnte dann auch die Tragfähigkeit (Sicherheit) von Stahlseilen oder die Wandstärke von Druckbehältern reduziert werden, weil vielleicht damit auch gespart und viel “effektiver” – mit weniger Material- und vielleicht auch Energie-Aufwand – produziert werden könnte und Unfälle in diesem Zusammenhang (ähnlich wie unvohersehbare, vielleicht gefährliche, Reaktionen bei KI-Systemen ) ohnehin “fast nie” auftreten würden.
    Wenn sie dann aber doch auftreten … – dann möchte ich dort nicht anwesend sein.

    Das erinnert mich irgendwie an die damalige Diskussion über die Wahrscheinlichkeit des Eintretens eines Supergaus bei Atomkraftwerken oder des Auftretens vormals hundertjähriger Hochwässer.
    Supergaus (ja, in Mehrzahl)  hat unser Planet trotz ihrer ehedem errechneten – nahezu verschwindenden –  Eintrittswahrscheinlichkeit ( und der daraus abgeleiteten “praktischen Undenkbarkeit”) mittlerweile schon zahlreiche und sogar auch schon mehrere gleichzeitig erlebt. Und ehemals “hundertjährige Hochwässer” treten mittlerweile schon regelmäßig im Abstand von weniger als  5 Jahren auf.

    • Diese Antwort wurde geändert vor 4 Monate, 3 Wochen von  Erich Pekar.
    • Diese Antwort wurde geändert vor 4 Monate, 3 Wochen von  Erich Pekar.
  • Erich Pekar
    Teilnehmer
    Post count: 683
    #20117 |

    Krankheitserkennung durch Künstliche Intelligenz

    https://derstandard.at/2000088122287-626/Krankheitserkennung-durch-Kuenstliche-Intelligenz

    In Wien wird an Systemen gearbeitet, die die bildgebende Diagnostik mithilfe ausgeklügelter AI-Algorithmen unterstützen

    Diagnostiziert ein Arzt anhand eines Röntgenbildes eine Tuberkuloseerkrankung, achtet er auf viele, oft sehr subtile Kleinigkeiten: Verdichtungen oder Transparenzminderungen in gewissen Bereichen der Lunge oder Flecken, die auf spezielle Einlagerungen hindeuten.
    Bringt man nun einer künstlichen Intelligenz bei, die Krankheit auf Basis derselben Datenquelle zu erkennen, wird das System anhand einer großen Anzahl bereits befundeter Röntgenbilder trainiert. Dabei entwickelt das neuronale Netzwerk ganz eigene Kriterien, um die Krankheit zu erkennen. Wichtig ist aber auch hier, dass oft mehrere Merkmale darauf hindeuten, um den Patienten als wahrscheinlichen Tuberkulosefall einzustufen.
    “Das neuronale Netzwerk muss so trainiert werden, dass eine kritische Kombination von Merkmalen zur Basis der Entscheidung wird, damit auch Grenzfälle sicher erkannt werden”, sagt Katja Bühler. Die Leiterin für Biomedical Image Informatics am Wiener Zentrum für Virtual Reality und Visualisierung (VRVis) beschäftigt sich mit der Analyse medizinischer Aufnahmen durch Artificial Intelligence (AI).

    Künstliche Intelligenzen leisten Erstaunliches. Entwickler erreichen mit den Systemen hohe Trefferquoten, ohne den Weg dieser Erkenntnis im Detail nachvollziehen zu können.

    Im Bereich medizinischer Assistenzsysteme wiegen Fehler, auf die AI-Systeme anfällig sind, umso schwerer. Wenn, wie vor einiger Zeit bekannt wurde, Googles Foto-App dunkelhäutige Menschen nicht als solche erkennt, weiße hingegen schon, ist dieser sogenannte Bias des Systems peinlich für das Unternehmen.
    Treten solche Probleme im medizinischen Bereich auf, stehen Menschenleben auf dem Spiel.

    “Man kann sie mit menschlichen Sehprozessen vergleichen: Einerseits werden Details erfasst, andererseits ist Kontext für das Erkennen von Objekten wichtig.” Wenn nun die Auswahl der Trainingsdaten nicht ausbalanciert ist, bekommt auch das Ergebnis eine Schlagseite.

    “Mittlerweile gibt es Bestrebungen, eine eigene allgemeingültige Zertifizierung für AI-Systeme in der Medizin zu etablieren, erklärt Bühler. “Doch diese Diskussion steht erst am Anfang.”

    Zertifizierung von AI-Systemen  wird in Zukunft wohl  überall dort erforderlich sein, wo solche Systeme möglicherweise Sach- oder Personenschäden ( z.B. gerade auch im Verkehrsbereich  – wie z.B. mit autonomen Fahrzeugen ) versursachen könnten.
    Und wenn keine anderen Haftungsregeln ( z.B.  Haftung der Hersteller, der Händler, der Eigentümer , der Betreiber/Fahrer)  greifen,  werden diese  Zertifizierungsstellen  wohl auch zumindest einen Teil der Haftung für Fehlfunktionen der von ihnen zertifizierten Systeme übernehmen müssen.

     

     

  • Erich Pekar
    Teilnehmer
    Post count: 683
    #20127 |

    Warum Anleger auf künstliche Intelligenz wetten

    https://derstandard.at/2000088326428/Anleger-wetten-auf-die-kuenstliche-Intelligenz

    Viele Menschen haben Bedenken gegenüber lernfähigen Robotern, Anleger versprechen sich allerdings hohe Renditen

    Ob Apples Sprachassistentin Siri, selbstständig fahrende Uber-Taxis oder gezielte Klamottenvorschläge beim Online-Modehändler Zalando – lernende und vernetzte IT-Systeme sind aus dem täglichen Leben nicht mehr wegzudenken. Die künstliche Intelligenz ist nach Meinung von Experten ein billionenschwerer Wachstumsmarkt für Firmen. Anleger versprechen sich hohe Renditen von dem Trend – die Nachfrage nach speziell darauf ausgerichteten Investmentfonds und Zertifikate ist hoch.
    “Was institutionelle Investoren oder Family Offices angeht, stellen wir ein recht starkes Interesse an Künstlicher Intelligenz als Investmentthema fest”, sagt Vermögensberater Thomas Metzger vom Bankhaus Bauer.

    Firmen bringt die künstliche Intelligenz (KI) nach Ansicht von Fachleuten enormes Wachstumspotenzial. Nicht nur verspricht sie sinkende Kosten – es entstehen auch völlig neue Geschäftsfelder.

    “- sinkende Kosten – ” :  – für Hersteller/Betreiber,
    aber erhöhtes Risiko für Benutzer/Betroffene von KI-Systemen –
    auch wegen “nicht vorhersehbarer” Reaktionen in gefährlichen Situationen von sich selbst verändernden/selbstlernenden Systemen.

    Und – daraus abgeleitet – gleich “ungeklärte” Haftungsfragen bei allen Systemen (wie z.B. autonom fahrenden Fahrzeugen) mit Künstlicher Intelligenz ?
    Haftungsfragen in Zusammenhang mit (auch komplexen) technischen Geräten und Anlagen werden schon seit dem Beginn des Industriezeitalters (und  z.B. den ersten damals auch “unerwartet, unvorhersehbar” explodierten Dampfkesseln) diskutiert und nach Einführunge entsprechender gesetzlicher Schutzbestimmungen (z.B. Dampfkesselverordnung https://www.ris.bka.gv.at/GeltendeFassung.wxe?Abfrage=Bundesnormen&Gesetzesnummer=10011616&FassungVom=1994-12-31, Dampfkesselbetriebsgesetz https://www.ris.bka.gv.at/GeltendeFassung.wxe?Abfrage=Bundesnormen&Gesetzesnummer=10012138 ) zur Vermeidung von Unfällen und Festlegung von Verantwortlichen zur Prüfung der Einhaltung dieser Schutzbestimmungen vor Gericht – mit Beachtung veschiedener Grade der Verletzung von Verantwortlichkeiten von “leicht fahrlässig” bis “schwer schuldhaft, alle Regeln missachtend” –  ausjudiziert.
    In gesetzlichen Schutzbestimmungen wird oft auch festgelegt in welchen gefährlichen (z.B. explosiven)   Umgebungen, welche (nachweislich geprüfte bzw. zertifizierte) Geräte (z.B. ohne Funkenflug, mit gasdichtem Gehäuse u.ä.) eingesetzt werden dürfen.
    Genauso wird im Kraftfahrgesetz (https://www.ris.bka.gv.at/GeltendeFassung.wxe?Abfrage=Bundesnormen&Gesetzesnummer=10011384) festgelegt, welche Ausrüstung und Eigenschaften Fahrzeuge aufweisen müssen, um für den öffentlichen Straßenverkehr zugelassen (bzw.”typengenehmigt” ) zu werden. Jede technische Änderung eines Fahrzeuges, die auf die Verkehrssicherheit Auswirkungen haben könnte, muss neuerlich der Behörde zur Genehmigung gemeldet werden.
    So ist im Kraftfahrgesetz, dort im

    §6 zu finden : “Kraftfahrzeuge, außer den im Abs. 2 angeführten, müssen mindestens zwei Bremsanlagen aufweisen, von denen jede aus einer Betätigungseinrichtung, einer Übertragungseinrichtung und den auf Räder wirkenden Bremsen besteht…Die Bremsanlagen müssen so beschaffen und eingebaut sein, daß mit ihnen bei betriebsüblicher Beanspruchung und ordnungsgemäßer Wartung trotz Erschütterung, Alterung, Abnützung und Korrosion die vorgeschriebene Wirksamkeit erreicht wird.”

    und im §8 “.. Die Lenkvorrichtung muß, auch wenn die Lenkhilfe ausfällt, verläßlich wirken und das sichere Lenken ermöglichen. ..”

    Wenn nun – selbst ohne Einsatz von KI –  ein fehlerhaftes Softwareupdate genügen könnte, um z.B. die Wirksamkeit der Bremsen nahezu aufzuheben,  müsste jedes Softewarupdate der österreichischen Verkehrsbehörde zur Änderung der Typengenehmnigung vorgelegt werden und technisch ausgeschlossen werden, dass z.B.  vielleicht gar während der Fahrt des Fahrzeuges – nach erfolgter Änderung der Typgenehmeigung – neuerlich Änderungen der bereits geprüften Fahreigenschaften des Fahrzeuges (wie z.B. Wirksamkeit der Bremsen ) erfolgen.

    Wenn nun das nicht vohersehbare – unter Umständen auch katastrophale Verhalten von KI-Systemen – nicht nur ( wie ehemals bei den Dampfkesseln) auf ungenügende Prüf- bzw. Analysemethoden für KI-Algorithmen zurückzuführen sein sollte, dann wäre es Aufgabe der Gesetzgebung und unserer Behörden jene Anwendungsgebiete für KI festzulegen, in den KI-Systeme gar nicht oder nur unter bestimmten Auflagen (zur Verhinderung katastrophaler Ergebnisse mit Sach- oder Personenschäden) eingesetzt werden dürfen.

    Denn Kosteneinsparung bei Herstellern/Betreibern zu Lasten von “in Kauf genommenen” (bzw. zu erwartenden)  Sach- und Personenschäden bei Endverbrauchern bzw. Benutzern von KI-Systemen könnte vor Gerichten dann wohl nur als “schwer fahrlässiges” bzw. “schuldhaftes” Verhalten der Hersteller, Händler bzw. Verkäufer eingestuft werden.

    Und wir hätten dann nach dem “Diesel-Gate” ein “KI-Gate”,
    weil Fahrzeughersteller höhere Sicherheit im Straßenverkehr bzw. ihrer Fahrzeuge versprochen haben und diese durch KI-Systeme in den Fahrzeugen und “am Straßenrand” erreichen wollten – obwohl alle (?) Fachleute derzeit davon ausgehen, dass die Reaktion von KI-Systemen derzeit nicht vorhersehbar sind – und daher auch die sichere Fahrweise von mit KI gesteuerten autonomen Fahrzeugen (unter allen Wetter- und Verkehrsbedingungen) derzeit (noch) gar nicht sichergestellt und geprüft werden kann.

    • Diese Antwort wurde geändert vor 4 Monate, 3 Wochen von  Erich Pekar.
  • Erich Pekar
    Teilnehmer
    Post count: 683
    #20591 |

    Wer die künstliche Intelligenz beherrscht, wird die Welt beherrschen
    https://derstandard.at/2000092113532/Ueber-das-digitalisierte-WettruestenWer-die-kuenstliche-Intelligenz-beherrscht-wird-die


    Das Pentagon, Washington, D.C. – der Anfang der 1940er-Jahre erbaute, fünfeckige Koloss am Ufer des Potomac, steht für den alten, den analogen Krieg. Heute allerdings denkt ein guter Teil der 28.000 Menschen, die hier im US-Verteidigungsministerium arbeiten, über “the future of warfare” nach. Die Digitalisierung hat das Kriegshandwerk nicht nur erreicht, sie revolutioniert es gegenwärtig. Und zwar so nachhaltig, wie an der Wende vom 16. zum 17. Jahrhundert die Umstellung von Hieb- und Stichwaffen auf Schusswaffen.
    Das Pentagon, Washington, D.C. – der Anfang der 1940er-Jahre erbaute, fünfeckige Koloss am Ufer des Potomac, steht für den alten, den analogen Krieg. Heute allerdings denkt ein guter Teil der 28.000 Menschen, die hier im US-Verteidigungsministerium arbeiten, über “the future of warfare” nach. Die Digitalisierung hat das Kriegshandwerk nicht nur erreicht, sie revolutioniert es gegenwärtig. Und zwar so nachhaltig, wie an der Wende vom 16. zum 17. Jahrhundert die Umstellung von Hieb- und Stichwaffen auf Schusswaffen.
    Die Schlachtfelder der Zukunft werden vom Internet der Dinge und fahrerlosen Vehikeln geprägt sein, sagt Schneider, diese seien teilautonom, werden aber doch noch von menschlicher Hand gesteuert.
    Solche im Prinzip wie Drohnen funktionierende Systeme (“das war technisch am einfachsten lösbar”) werde es auch zu Lande, im und unter Wasser geben (siehe Wissen unten).

    Bob Work, Vize-Verteidigungsminister unter Obama und Trump, sagte der “FT” unlängst: “Das Spiel lautet: unsere KI gegen deren KI.” will heißen: Die Menschen töten nicht mehr selbst, sie lassen töten – von künstlicher Intelligenz.

    Hinter all diesen Systemen stehen enorme Datenmengen, die gesichert, gemanagt und gebraucht werden müssen. Die US-Militärs wollen ihre Teilstreitkräfte in naher Zukunft über eine Cloud mit dem schönen Namen “Jedi” (Joint Enterprise Defense Infrastructure) verbinden, Oracle, Microsoft, IBM und Amazon rittern bereits um den zehn Milliarden Dollar schweren Auftrag. Google zog sich Bloomberg zufolge zuletzt aus dem Rennen zurück. In Europa plant Thales militärische Cloud-Lösungen.

    Im Pentagon arbeitet zudem ein “Team für algorithmische Kriegsführung”, das mit Googles Deep-Learning-Programm Tensor-Flow künstliche neuronale Netze für Waffen baut, die diesen das Erkennen und Qualifizieren von Objekten beibringen sollen.
    Weil sich firmenintern massiver Widerstand gegen dieses “Project Maven” regte, musste Alphabet-Chef Sundar Pichai im Mai aus der Kooperation aussteigen.
    Widerstand kommt auch von Wissenschaftern und Unternehmern: Schon vor drei Jahren riefen etwa der im März verstorbene Stephen Hawking und Tesla-Chef Elon Musk zu einem Verbot dieser Waffen auf, die unweigerlich in den digitalisierten dritten Weltkrieg führen würden. Die NGO Campaign to Stop Killer Robots versucht das Problembewusstsein zu erhöhen, eine UN-Arbeitsgruppe hat erst diese Woche wieder in Genf getagt, um einen rechtlichen Rahmen und bestenfalls ein Verbot für Lethal Autonomous Weapon Systems zu finden.

    Buchtipp: “Legal Killing” und Menschlichkeit

    Das Thema ist in der Öffentlichkeit noch kaum bekannt, die Literatur darüber entsprechend bescheiden. Umso wichtiger ist der ebenso breite wie tiefe Einblick, den Markus Reisner (Jurist, Historiker und Oberstleutnant des Bundesheeres)  in “Robotic Wars” in den digitalisierten Krieg bietet.

    Dass hier Entwicklungen aus dem zivilen Bereich nun auch im militärischen Bereich zum Einsatz kommen sollen, dürfte aber einen krasse Fehleinschätzung sein :
    Denn wenn autonome fahrende Fahrzeuge “eine Entwicklung  des zivilen Bereiches” wären, dann müssten diese ja auf unseren Straßen – ganz ohne “Kollateralschäden” – auch bereits erfolgreich eingesetzt werden können. Und wenn modernste Kommunikationstechnologien wie z.B. die in dem Startlöchern stehende 5G Mobilfunktechnologie – auch eine Entwicklung des zivilen Bereiches sein sollte, dann müsste man für diese  Technologie nicht erst mühsam die “Killer”- Use-Cases (abseits des Streaming von Content der Unterhaltungs-Inbdustrie) suchen müssen, die die hohen Investitionen für das Ausrollen dieser Technologie auch rechtfertigen könnten.

    Wenn aber diese Entwicklungen primär für die Lösung “militärischer Probleme” erforderlich waren, dann ist es nur logisch, wenn die Entwickler/Hersteller nun versuchen, ihre Entwicklungskosten rasch wieder hereinzubringen und optimierte Gewinne auch über zivile Anwendungsbereiche zu erreichen.
    Ein Effekt dieser “Diversifizierung” militäricher Entwicklungen in den zivilen Bereich drückt sich dann durch fehlende oder scheinbare Problemstellungen aus, die dann durch Anpassung militärischer Technologien gelöst werden sollen.
    So ist derzeit  auch noch überhaupt nicht erwiesen, dass autonome Fahrzeuge im Mischverkehr – außer durch wesentliche Reduktion der gefahrenenen Geschwindigkeiten – überhaupt jemals zu höherer Verkehrsicherheit beitragen werden. Dass geingere Geschwindigkeiten im Straßenverkehr zu mehr Sicherheit im Mischverkehr (mit z.B. Fahrradfahrern und Fußgängern jedes Alters)  führt, ist längst erwiesen. Langsamere Fahrgeschwindigkeiten im Straßenverkehr sind aber viel leichter und kostengünstiger ohne autonome Fahrzeuge erreichbar.
    Dass autonom fahrende Fahrzeuge ohne sonstige begleitende Maßnahmen Verkehrs- oder Energieprobleme gar nicht lösen helfen können, wird mittlerweile sogar von den Befürwortern autonom fahrender Fahrzeuge eingräumt.

  • Erich Pekar
    Teilnehmer
    Post count: 683
    #20709 |

    Durchbruch auf dem Weg zur universellen Lernmaschine

    https://derstandard.at/2000093296601/Durchbruch-auf-dem-Weg-zur-universellen-Lernmaschine

    Die DeepMind-Software AlphaZero trainiert sich selbst in drei Brettspielen zum Meister. Ein 26-jähriger Österreicher ist an der Programmierung beteiligt


    Im vergangenen Jahr berichtete das Team von DeepMind im Fachblatt “Nature” über einen weiteren Durchbruch: Die Weiterentwicklung AlphaGo Zero erlernte das Brettspiel Go ohne menschliche Referenzpartien, sondern trainierte sich selbst zu einer Spielstärke, die auch das Vorgängerprogramm AlphaGo locker besiegte. Dem Team um David Silver gehört auch der 26-jährige österreichische Informatiker Julian Schrittwieser an, der bereits im Rahmen seines Bachelor-Studiums an der TU Wien im Jahr 2013 bei Google eingestiegen ist.
    Während AlphaGo noch Millionen von Zügen von menschlichen Top-Spielern über Monate hinweg analysieren musste, um sein hohes Spielniveau zu erreichen, war das DeepMind-Team mit AlphaGo Zero einen anderen Weg gegangen: Es entwickelte ein System, das Go ohne Anschauungsmaterial von der Pike auf in Hunderttausenden Spielen gegen sich selbst trainiert und auf sich alleine gestellt weiterentwickelt. Lediglich die Regeln des Spiels waren der Software vorher bekannt.
    Nun haben die Informatiker ihren Ansatz unter dem Namen AlphaZero abermals verbessert, wie sie – diesmal im Fachblatt “Science” – berichten: “Wir haben den Algorithmus so generalisiert, dass eine Software mehrere Spiele lernen kann”, erklärt Schrittwieser im Gespräch mit dem STANDARD: AlphaZero erreichte auch im Schach, Shogi – einer japanischen Variante des Spiels – und Go innerhalb weniger Stunden ein derart hohes Niveau, dass es andere hoch entwickelte KI-Programme besiegte.

    In eine ähnliche Richtung geht auch die Einschätzung von Julian Schrittwieser, dem die Mitarbeit bei DeepMind ein ausführliches Porträt im Magazin “Forbes” als eine der 30 interessantesten Persönlichkeiten Europas unter 30 Jahren in der Rubrik “Technologie” eintrug. Der junge KI-Forscher streicht noch einmal heraus, dass die neue Verallgemeinerung dieses Planungsalgorithmus nicht “spielerischer” Selbstzweck ist, sondern tatsächlich praktische Anwendungen haben soll: “Wir schauen, welche echten Probleme mit diesen Algorithmen zu lösen sind.”

    Heißt das, dass womöglich auch die Forscher selbst der KI-Revolution zum Opfer fallen werden? Nein, ist Schrittwieser überzeugt, aber mit den neuen Algorithmen werden sie mächtigere “Werkzeuge” haben – “ganz ähnlich, wie das vor 50 Jahren die Taschenrechner waren”.

  • Erich Pekar
    Teilnehmer
    Post count: 683
    #20951 |

    Was Maschinen dürfen sollen
    https://derstandard.at/2000085354057/Was-Maschinen-duerfen-sollen

    Weil künstliche Intelligenzen immer intelligenter werden, stellt sich die Frage: Was sind ihre Rechte und Pflichten?

    Autonom agierende Militärroboter sind ein eindrucksvolles Beispiel dafür, zu wie viel Einfluss und verantwortungsvollen Aufgaben es Maschinen aktuell bereits gebracht haben. Sie können dafür eingesetzt werden, selbstständig Feinde ausfindig zu machen, anzugreifen und zu töten. Das Akronym für diese “lethal autonomous weapons systems” lautet ausgerechnet LAWS (Gesetze).
    Doch wer definiert die Gesetze, die Rechte und Pflichten von autonomen Maschinen? Werden diese ausreichend reguliert? Anders gefragt: Unter welchen Umständen dürfen künstliche Intelligenzen Autos lenken, Industrieprodukte fertigen oder töten?

    Sobald künstliche Intelligenzen ethische Entscheidungen zu treffen haben, können sie sich potenziell in ethischen Dilemmata wiederfinden. Umso entscheidender ist es, wie das Regelwerk zustande kommt, nach dem künstliche Intelligenzen Entscheidungen treffen.

    Einerseits gibt es Bestrebungen, auf den Selbstlerneffekt künstlicher Intelligenz zu setzen. Lernfähige Algorithmen suchen in Datensätzen nach Mustern, um die künstliche Intelligenz in einer bestimmten Situation zum ethischen Handeln anzuleiten.Der Vorteil dabei ist, dass die Programmierer nicht sämtliche mögliche Entscheidungssituationen vorweg bedenken müssen, sondern die künstliche Intelligenz von Fall zu Fall sich selbst die Gesetze schafft, nach denen sie handelt. Der offensichtliche Nachteil dabei:
    Für Menschen sind die maschinengeschaffenen Regeln nicht mehr einsehbar und entziehen sich daher weitgehend ihrer Kontrolle.
    Genau an diesem Punkt hakt der konkurrierende Ansatz ein. Dabei statten Programmierer die künstliche Intelligenz mit einem fertigen Regelwerk aus, das für jede Situation eine Entscheidung vorgibt. Das hat zwar den Vorteil, dass die Verantwortung für die maschinellen Taten vollständig in der Hand des Menschen liegt. Andererseits ist es ein beinahe unmögliches Unterfangen, sämtliche Situationen, in die eine künstliche Intelligenz geraten kann, vorwegzunehmen, um entsprechende Regeln dafür zu programmieren.

    Langfristig könnte die verträglichste Art, um Maschinen mit Moral auszustatten, darin liegen, diese beiden Ansätze zu kombinieren: Dabei könnten zunächst bestimmte Prinzipien formuliert werden, nach denen sich Menschen genauso wie Maschinen zu halten haben. Prainsack nennt Menschenwürde, Solidarität, Gerechtigkeit und Fairness als Beispiele. Ausgehend davon könnten selbstlernende Algorithmen greifen, sodass künstliche Intelligenzen unter Berücksichtigung dieser Prinzipien autonom und anlassbezogen ihre Entscheidungen treffen.

    Erstrebenswert sei es dennoch, möglichst viele Menschen in die Diskussionen darüber mit einzubeziehen, nach welchen Leitlinien Maschinen agieren sollten. Momentan würde das nur firmenintern oder in Expertenkreisen besprochen werden.

    Ein Programm mit dem unmissverständlichen Namen “Death Algorithm” entscheidet bei selbstfahrenden Autos darüber, wie sich diese in Situationen, in denen Todesopfer unvermeidbar sind, zu verhalten haben. Zum Beispiel: Ein selbstfahrendes Fahrzeug mit einem erwachsenen Insassen bewegt sich durchs Ortsgebiet, plötzlich läuft ein Kind vor dem Auto über die Straße. Rechts auf dem Gehsteig befindet sich eine alte Frau mit Rollator. Soll das Auto nun das Kind überfahren oder die alte Frau, indem es auf den Gehsteig ausweicht, oder einen Crash verursachen, indem es sich auf die Gegenfahrbahn begibt?
    Für jede dieser Optionen lassen sich ethisch legitimierbare Argumente finden. Doch wer wird den Todesalgorithmus letztlich vorgeben? Automobilhersteller, Gesetzgeber, die Vereinten Nationen? Lässt sich verhindern, dass Todesalgorithmen am Schwarzmarkt erhältlich sind, die immer den eigenen Passagier schützen?
    Autonome Fahrzeuge sind Testobjekte dafür, wie wir in großem Stil künstliche Intelligenz in entscheidenden Rollen in unsere Gesellschaft integrieren werden.

    Andererseits ist das Argument der Entsensibilisierung zu bedenken: “Wenn die Maschine wie ein Mensch reagiert – schreit, blutet, weint –, aber wir sagen: ‘Es ist doch nur eine Maschine’, was macht das mit uns Menschen?”, fragt Prainsack.

    Wir verlassen offensichtlich mit rasender Geschwindigkeit das Zeitalter der Aufklärung und treten scheinbar in eine neue Periode der Esoterik und des Glaubens an “Zauberer”, “Hexen” und “Dämonen” ein – nicht nur zufolge entsprechender – offensichtlich erfolgreicher – Fensehserien bzw. Videos.

    Wir betreiben immer mehr technische Systeme und Anlagen, deren Funktionen und Auswirkungen von immer mehr Personen – auch von wirtschaftlichen/politischen Entscheidungsträgern – nicht verstanden werden. Zufolge dieses fehlenden Verständnisses ist aber bisher noch eher selten jemand auf die Idee gekommen, z.B. moderne Passagierflugzeuge als “Künstliche Intelligenz” – vielleicht sogar noch mit einer “gewissen Art eigener Rechtspersönlichkeit”  – anzusehen.
    Auch die Funktion von Atomkraftanlagen bzw. deren tatsächlicher und möglicher Auswirkungen – werden trotz aller bisher registrierten Unfälle (auch in der Größenordnung von gleich mehreren – sogar gleichzeitig aufgetretenen – Super-GAUs) von den wenigsten Bürgern und politisch/wirtschaftlich Verantwortlichen “verstanden”. Im Falle der Atomkraft war es – zumindest in Deutschland – aber gar nicht notwendig, die möglichen Folgen dieser Technologie in einern “esotherische Wolke” ( ähnlich der Konstruktion des Begriffes “künstliche Intelligenz” ) zu verstecken. Dort gelang es den Betreibern/Eigentümern der AKWs, das bis dahin private Risiko dieser Technologie – z.B wegen “völlig unerwarteten und unabschätzbaren Verhaltens” und daraus vielleicht resultierenden unabschätzbaren zukünftigen Schadenersatzforderungen (z.B. bei Unfällen in den immer noch nicht funktionsfähigen/vorhandenenen Endlagerstätten für hoch-radioaktive Abfälle) der öffenlichen Hand zu “verkaufen”.
    In ähnlicher Lage befindet sich nun die Kraftfahrzeugindustrie – nicht nur in Europa.
    Durch möglicherweise sogar recht bald vollkommen autonom fahrende Fahrzeuge auf öffentlichen Straßen, werden sich geänderte Verantwortungsketten bei Haftungsfragen nach Unfällen ergeben. Wegen des dann nicht mehr vorhandenen Fahrers in verunfallten autonom fahrenden Fahrzeugen (und der damit bis dahin recht gerne und rasch akzeptierten Alleinschuld des jeweiligen Fahrers zufolge “Unaufmerksamkeit”, “unangepasster Fahrweise”, “menschlichem Versagens”) würden recht schnell bei Händlern und Herstellern solcher Fahrzeuge Schadenesatzforderungen schlagend werden können. Um einen Ersatz für diese nun vielleicht bald wegfallende Verantwortungs- (und Haftungs-) Ebene zu finden, wird daher nun eifrig der Begriff der “künstlichen Intelligenz” ausgestaltet.
    Unter autonom fahrenden, mit “künstlicher Intelligenz” ausgestatteten, Fahrzeugen soll daher möglichst bald niemand “nur mehr” Maschinen mit hochkomplexen adaptiven Algorithmen verstehen. Mit eigenen philosophischen Konstrukten soll der Öffentlichkeit nun suggeriert werden, wegen des zu erwartenden tatsächlich unvorhersehbaren Verhaltens (das also sehr wohl in seiner “Unvorhersehbarkeit” damit wieder vorhersehbar ist) solchen Maschinen bzw. Fahrzeugen eine “gewisse Art von Rechtspersönlichkeit” juristisch zuerkennen zu müssen, nur um Hersteller, Händler und vielleicht auch Betreiber von Fahrzeugflotten (also potente Kunden der Hersteller) nicht zu rasch in den Fokus der Diskussion um die Übernahme von Haftung geraten zu lassen und nicht durch mögliche Schadenersatzforderungen deren wirtschaftlichen Erfolg zu schmälern.
    Die Diskussion um den “Death Algorithm” für vollständig autonom fahrende Fahrzeugen zeigt ja schon, die vollkommen einseitige Sicht auf mögliche Unfallszenarien :
    Wenn die vollautonome Steuerung eines Fahrzeuges tasächlich noch genug Zeit haben haben sollte, sich zwischen einem von 2 unvermeidbaren tödlichen Unfallausgängen zu entscheiden, dann hätte es vermutlich auch noch genug Zeit, stehen bleiben zu können: Denn bei einer Geschwindigkeit von 50 km/h werden in 100 ms ca 1,4 m Wegstrecke zurückgelegt, der Bremsweg beträgt 25 Meter bzw. ca. 12,5 Meter bei Vollbremsung ( bei 30 km/h  9 Meter bzw. 4,5 Meter – alles bei guten Straßenverhältnissen). Ein Fahrzeug, das einen solchen “Death Algorithm” anwenden muss, wäre daher höchstwahrscheinlich in der konkreten Gefahrensituation für die vermutlich schlechten Straßenverhältnisse – die ein sicheres Bremsen offenbar nicht mehr zulassen  – viel zu schnell unterwegs. Eine solche  Fahrgeschwindigkeit eines Fahrschülers würde in ähnlicher Gefahrensituation bei der praktischen Führerscheinprüfung dazu führen, dass dieser Führerscheinkandidat die Fahrprüfung wiederholen müsste. Gerade in Regionen mit oftmals schlechten Straßenverhältnissen und dann vielleicht auch noch zu schnell fahrenden vollautonomen Faharzeugen besteht die “ethische Frage” daher wohl eher darin, ob solche  Fahrzeuge vielleicht erst dann für (vollautonome) Testfahrten auf öffentlichen Straßen zugelassen werden sollten, wenn sie auch alle schlechten Straßenverhältnisse durch geeignetet Wahl einer sicheren niedrigeren maximalen Fahrgeschwindigkeit bewältigen können. Praxisberichte zeigen aber, dass bei Schlechtwetter nahezu alle vollautonomen Navigationsmethoden derzeit versagen.
    In Zusammenhang mit der Diskussion um künstliche Intelligenz (bzw.um Verhalten von Fahrzeugen/Maschinen die sich “verhalten”, als ob diese Maschinen tatsächlich intelligent wären) ist vor allem “bedenklich”, dass offenbar auch Philosophen nicht auf die Idee kommen, dass im Falle des “Death Algorithm” die ethische Frage weniger darin besteht, das Fahrzeug durch die “künstliche Intelligenz” nach links oder rechts lenken zu lassen, um weniger Tote zu verursachen  bzw. die Fahrzeuginsassen vor Schäden zu schützen, sondern viel mehr die Frage zu stellen ist, wieso das Fahrzeug an dieser Stelle der Straße überhaupt so schnell unterwegs war, dass es nicht mehr rechtzeitig vor dem offenbar als unvermeidbar angenommenen Unfall anhalten konnte.
    Hat das Fahrzeug den schlechten Straßenzustand nicht erkannt, haben die Sensoren die Umgebung (mit den Fußgängergruppen) nicht rechtzeitig erkannt, haben die Sensoren wegen mangelnderm Sichtbereichen/zu schlechten Lichtverhältnissen/Verunreinigung nicht ausreichend Informationen an die Steuerung (bzw. die Instanz der künstlichen Intelligenz ) schicken können ? Hätte das Fahrzeug zufolge der Nichtbeherrschung solcher Verkehrs-/Sichtbedingungen überhaupt schon auf öffentlichen Straßen im Mischverkehr auch mit Fußgängern fahren dürfen ?
    Da sind also primär gar nicht Fragen in Zusammenhang mit der Realisierung von “ethischen Grundsätzen” (z.B. möglichst wenig Menschenleben zu zerstören) in den Algorithmen der künstlichen Intelligenz selbst, sondern viel mehr Interessensabwägungen (wirtschaftlicher Erfolg der Hersteller, den politischen Entscheidungsträgern versprochene Arbeitsplätze in den Werken der Fahrzeughersteller, versprochene/erwartetet höhere Verkehrssicherheit durch den Entfall des “Unsicherheitsfaktors” Mensch am Lenkrad) zum Zeitpunkt der Zulassung von Testfahrten  bzw. Fahrzeugen mit autonomen Fahrfunktionen im Mischverkehr auf öffentlichen Straßen.

    In Zusammenhang mit Militär-Robotern (“Killer-Drohnen” u.ä.)  wird die Frage nach Ethik erst gar nicht gestellt bzw. das vollständige Fehlen von moralischen Skrupeln /Beschränkungen (z.B. zum Schutz der Zivilbevölkerung) bei autonom ausführbaren Kampfaufträgen wird von den Herstellern solcher Killer-Roboter ja gerade als besonderer Vorteil  und Verkaufsargument angepriesen : Befehlsverweigerung oder Sabotage in den eigenen Reihen gibt es unter Killer-Robotern nicht. Ethische Fragen sind aber sehr wohl Politikern, Herstellern und Mitarbeitern/Soldaten zu stellen, die solche Projekte befürworten, daran arbeiten bzw. Killeroboter zum Einsatz bringen und technisch betreuen.
    Ethische und moralische Fragen sind daher primär den Befürwortern/Anwendern solcher Technik zu stellen, künstliche Intelligenz kennt keine moralischen/ethischen Paradigmen.
    In Maschinen/Fahrzeugen ist keine Ethik/Moral einbaubar und dort entwickelt sie sich auch nicht “von selbst”.
    Wir alle gemeinsam sind dafür verantwortlich , wie wir mit Technik umgehen bzw. welchen Einsatz von Technik wir akzeptieren.
    Und Intelligenz – auch künstliche – ist keine Ausprägungsform irgendwelcher moralischer oder ethischer Grundsätze.

    dazu noch einige Meinungen aus dem Forum im derstandard.at :

    Zirkulare Bezüge sind eine Warnung
    Man kann die Wurst entweder besitzen oder essen. Beides zugleich geht nicht.
    Der Mensch versteht sich selbst nicht vollständig, daher kann er gegenüber einer Maschine nicht definieren, was ein Mensch ist. Diese Fehlerquelle alleine ist bereits ein Showstopper.
    Parallel dazu scheitert der Versuch, ein menschenähnliches System zu erschaffen.
    Ich rate von dieser Idee vollkommen ab. Roboter sollen möglichst wenige menschenähnliche Eigenschaften haben!

    Schon das Delegieren wird immer mehr zum Fehler, je umfassender es ist.
    Man soll menschliche Dinge an andere Menschen delegieren. Etwas wie Ehe, Altenpflege, Rechtsprechung.
    Wenn sich der Mensch ersetzen will, ist das irgendwie der Versuch, den maximalen Darwin-Award zu gewinnen.

    oder

    “Autonom agierende Militärroboter sind ein eindrucksvolles Beispiel dafür..”
    Ich kenne keinen autonom agierenden Militärroboter, sondern nur von Menschen geführte halbautonome oder vollstabilisierte Geräte. “Uran-E” wurde zwar in Syrien getestet, hat aber noch seine Schwächen und geht daher nicht in den Dienstbetrieb.

    Das einzig wirklich autonome System, das unter temporärem Vorbehalt des Menschen steht ist allerdings kein Roboter sondern das System Perimetr, de facto eine Weltvernichtungsmaschine. Die ist aber seit Anfang der Neunziger in Betrieb und vor der fürchtet sich seltsamerweise keine Gruppe. Vermutlich weil das niemand kennt.

    Vor kurzem – und zwar wegen der Neustationierung der Mittelstreckenraketen – wurde erneut davor gewarnt. Perimetr wurde modernisiert und reagiert recht empfindlich auf Raketenstarts

    oder

    Es geht um die Haftung
    Es geht nicht darum, was Maschinen tun dürfen sollen, sondern wer haftet für das, was Maschinen tun. (für den möglichen Schaden…..) Der Programmierer, der Hersteller, der Konsument?

    oder

    So wie viele unter uns jetzt schon nicht verstehen dass “Strom nicht aus der Steckdose” kommt, werden noch mehr nicht verstehen, dass die Intelligenz der Roboter von einigen maechtigen, zentralen Institutionen kontrolliert werden wird und gegen Individuelle menschliche Interessen gerichtet sein wird. Das waer dann das Ende der Aufklaerung.

    oder

    Naja, wenn die erste Maschine anfängt zu fragen “Warum bin ich hier?” wird es Zeit ganz schnell zu laufen. 😉

    und als Antwort auf diesen Gedanken :

    Und während Sie laufen spendier ich dem Programmierer an Kaffee für den gelungenen Scherz 😉

    • Diese Antwort wurde geändert vor 1 Monat, 3 Wochen von  Erich Pekar.

You must be logged in to reply to this topic.