Replies
  • Erich Pekar
    Teilnehmer
    Post count: 653
    #20093 |

    Künstliche Intelligenz soll Schwarzfahrer überführen

    https://derstandard.at/2000087754965/Kuenstliche-Intelligenz-soll-Schwarzfahrer-ueberfuehren

    System bereits im Testeinsatz – analysiert Verhaltensmuster und alarmiert Kontrolleur

    Wer in Wien mit der U-Bahn unterwegs ist, hat es relativ gut. Man kauft ein Ticket, entwertet dieses gegebenenfalls und begibt sich zum Bahnsteig. In vielen anderen Städten ist dieser Teil des Nahverkehrs allerdings strikter geregelt. In Stockholm, Athen und anderen Metropolen gibt es Einlasssysteme Mit Drehkreuzen oder Türen. Nur wer ein gültiges Ticket gegen einen Sensor drückt, kommt auch durch.
    Doch auch diese Form der Kontrolle ist anfällig für Betrug – sei es durch Überklettern der Schranken oder das Durchschmuggeln dicht hinter einem Mitmenschen mit Fahrschein. Das Unternehmen Awaait will dafür eine Lösung gefunden haben. Es entwickelt eine Künstliche Intelligenz, die Schwarzfahrer erkennen soll, berichtet Golem.
    Es handelt sich um eine Kombination aus Kamera und Software. Diese analysiert das Verhalten der Menschen an den Einlässen anhand ihrer Bewegungen und soll selbständig dazulernen können.

    Eine dauerhafte Aufzeichnung erfolgt nicht, auch Verdachtsaufnahmen sollen nach kurzer Zeit gelöscht werden.

    Trainiert wird der Algorithmus mit Videos der Station und von Leuten, die im Auftrag des Öffi-Betriebs die Sperren auf verschiedene Weise überwinden.

    Von “selbstständig dazulernen können” kann wohl keine Rede sein, wenn zum Trainieren des Alogorithmus erst eine “Theatergruppe” engagiert werden muss, die verschiedene Schwarzfahrer in einer Gruppe von Fahrgästen nach Drehbuch darstellen und den Kameras des KI-Systems  vorspielen muss.
    Eine mechanische Sperre/Vereinzelungsanlage (https://de.wikipedia.org/wiki/Vereinzelungsanlage)  kann wohl nicht auf sehr verschiedene Arten überwunden werden – es bleibt tatsächlich nur Überklettern oder “Mitgehen” mit einem Besitzer eines gültigen Tickets.
    Wenn es tatsächlich jemanden geben sollte, der diese Sperren ohne gültiges Ticket überwinden könnte, dann hätte auch die in das System integrierte KI keine Chance, aus diesem Fehler zu lernen, weil ein solcher Fall ohne manuelle Ticketkontrolle jeden Fahrgastes überhaupt nicht auffallen würde und daher auch kein erweitertes Trainingsprogramm für das ergänzende Training der KI erstellt werden könnte.

    Ob die Kosten für die Überwachung der Sperre durch KI , die die unbefugte Inanspruchnahme von Transportleistung allein – ohne herkömmliche physische Identifizierung und Verfolgung von Schwarzfahrern durch Sicherheitspersonal –  auch nicht verhindern kann, wohl gerechtfertigt sind, wenn die Anzahl der zusätzlich entdeckten Schwarzfahrer vielleicht eher “verschwindend” wäre ?

    Nicht alles, was mit KI “gemacht” werden könnte, ist auch sinnvoll.

  • Erich Pekar
    Teilnehmer
    Post count: 653
    #20108 |

    KI-Assistenten brauchen Empathie!

    https://derstandard.at/2000087849212/KI-Assistenten-brauchen-Empathie

    In Zukunft werden wir intensiver mit intelligenten Assistenzsystemen zusammenarbeiten.
    Der dominante Ansatz des maschinellen Lernens in der KI-Forschung ist dafür jedoch unzureichend.
    Ein Plädoyer für verstehende und verständliche KI-Systeme

    Systeme der künstliche Intelligenz (KI) sind genau das, was ihr Name behauptet: Sie sind intelligent, also fähig, Probleme zu lösen, die unserer Meinung nach kompliziert sind, und sie sind durch Menschen erzeugt, also künstlich. Und tatsächlich sind KI-Systeme alles andere als natürlich. Denn der Anspruch, mittels Computer menschliches Denken nachzubilden, ist längst nicht mehr Teil der KI-Forschung, wenn er denn überhaupt jemals ernst genommen worden ist. In KI-Systemen geht es vielmehr darum, komplizierte Probleme in der Welt möglichst automatisiert zu lösen.

    Das ist kein Forschungshindernis – Hauptsache, es funktioniert –, wäre eine typische Antwort unter Technikern. In den meisten Fällen stimmt das auch. Solange wir KI-Systeme als Werkzeuge verwenden, oder genauer gesagt als Erweiterung der Infrastruktur unserer Informationsverarbeitung, reicht eine solch oberflächliche Sichtweise. Ich muss ja auch nicht nachvollziehen, wie meine Waschmaschine oder Bohrmaschine funktioniert, Hauptsache, der Servicetechniker versteht ihre Funktionsweise, falls sie defekt ist.

    Leider ist in aktuellen KI-Systemen, die maschinelles Lernen verwenden – und das tun die meisten –, häufig nicht einmal das gewährleistet. Denn nicht der Mensch programmiert die Regeln des Funktionierens von KI-Systemen, sondern das System gibt sich die Regeln selbst vor – basierend auf Daten, die ihm zur Verfügung gestellt werden. Für Menschen stellen sich solche Systeme als Blackbox dar.

    Es wäre daher  – wegen dieser Nicht-Vorhersehbarkeit der Ergebnisse – Künstliche Intelligenz in sicherheitsrelevanten Systemen wie z.B. autonom fahrenden Fahrzeugen, oder autonomen Waffensystemen (“Killer-Roboter”) – nach bisheriger Auffassung von sicheren technischen Systeme – absolut unzulässig.

    Wenn sich jetzt jemand vor Gericht wegen katastrophalen Versagens einer technischen Einrichtung zu verantworten hätte, dem würde auf die Frage – ob allenfalls eine Fehlfunktion mit Schadensauswirkung vielleicht bewusst in Kauf genommen wurde – bei positiver Antwort (“das konnten/wollten wir nicht auschließen, weil uns vielleicht die Kosten für erweiterte/zusätzliche Sicherheitsmaßnahmen zu hoch erschienen sind”) höchstwahrscheinlich zumindest einen Verurteilung zufolge “gefährlicher Fahrlässigkeit” drohen.
    Wen ich aber  nicht weiß (bzw. wissen kann), wie sich ein KI-System zu jedem Zeitpunkt verhält, dann nehme ich unter Umständen (je nach Ensatzbereich) auch  gefährliche Reaktionen solcher – und damit auch Schäden, Verletzungen, Tote durch solche – Systeme in Kauf.
    Im Unterschied zu anderen technischen Sytemen, durch die vielleicht auch Tote verursacht werden können, kann ein KI-System nicht analysiert und verbessert werden, um solche gefährlichen System-Zustände zu verhindern, da sich KI-Syteme – in ihren selbstlernenden Algorithem bzw. daraus abgeleiteten – möglicherweise gefährlichen Reaktionen – ständig nicht vorhersehbar ändern und daher  nicht analysierbar sind.
    Und vollends gefährlich wird es, wenn der Einsatz von KI-Systemen – mit nicht stets vorhersehbaren Reaktionen – zum “Stand der Technik” erklärt werden würde – weil z.B. damit bestimmte Aufgaben besonders kostengünstig und “effizent” gelöst werden könnten und andere Realisierungsverfahren (ohne unvorhersehbare Ergebnisse) viel teurer sein würden.
    Mit gleicher Argumentation könnte dann auch die Tragfähigkeit (Sicherheit) von Stahlseilen oder die Wandstärke von Druckbehältern reduziert werden, weil vielleicht damit auch gespart und viel “effektiver” – mit weniger Material- und vielleicht auch Energie-Aufwand – produziert werden könnte und Unfälle in diesem Zusammenhang (ähnlich wie unvohersehbare, vielleicht gefährliche, Reaktionen bei KI-Systemen ) ohnehin “fast nie” auftreten würden.
    Wenn sie dann aber doch auftreten … – dann möchte ich dort nicht anwesend sein.

    Das erinnert mich irgendwie an die damalige Diskussion über die Wahrscheinlichkeit des Eintretens eines Supergaus bei Atomkraftwerken oder des Auftretens vormals hundertjähriger Hochwässer.
    Supergaus (ja, in Mehrzahl)  hat unser Planet trotz ihrer ehedem errechneten – nahezu verschwindenden –  Eintrittswahrscheinlichkeit ( und der daraus abgeleiteten “praktischen Undenkbarkeit”) mittlerweile schon zahlreiche und sogar auch schon mehrere gleichzeitig erlebt. Und ehemals “hundertjährige Hochwässer” treten mittlerweile schon regelmäßig im Abstand von weniger als  5 Jahren auf.

    • Diese Antwort wurde geändert vor 2 Monate, 2 Wochen von  Erich Pekar.
    • Diese Antwort wurde geändert vor 2 Monate, 2 Wochen von  Erich Pekar.
  • Erich Pekar
    Teilnehmer
    Post count: 653
    #20117 |

    Krankheitserkennung durch Künstliche Intelligenz

    https://derstandard.at/2000088122287-626/Krankheitserkennung-durch-Kuenstliche-Intelligenz

    In Wien wird an Systemen gearbeitet, die die bildgebende Diagnostik mithilfe ausgeklügelter AI-Algorithmen unterstützen

    Diagnostiziert ein Arzt anhand eines Röntgenbildes eine Tuberkuloseerkrankung, achtet er auf viele, oft sehr subtile Kleinigkeiten: Verdichtungen oder Transparenzminderungen in gewissen Bereichen der Lunge oder Flecken, die auf spezielle Einlagerungen hindeuten.
    Bringt man nun einer künstlichen Intelligenz bei, die Krankheit auf Basis derselben Datenquelle zu erkennen, wird das System anhand einer großen Anzahl bereits befundeter Röntgenbilder trainiert. Dabei entwickelt das neuronale Netzwerk ganz eigene Kriterien, um die Krankheit zu erkennen. Wichtig ist aber auch hier, dass oft mehrere Merkmale darauf hindeuten, um den Patienten als wahrscheinlichen Tuberkulosefall einzustufen.
    “Das neuronale Netzwerk muss so trainiert werden, dass eine kritische Kombination von Merkmalen zur Basis der Entscheidung wird, damit auch Grenzfälle sicher erkannt werden”, sagt Katja Bühler. Die Leiterin für Biomedical Image Informatics am Wiener Zentrum für Virtual Reality und Visualisierung (VRVis) beschäftigt sich mit der Analyse medizinischer Aufnahmen durch Artificial Intelligence (AI).

    Künstliche Intelligenzen leisten Erstaunliches. Entwickler erreichen mit den Systemen hohe Trefferquoten, ohne den Weg dieser Erkenntnis im Detail nachvollziehen zu können.

    Im Bereich medizinischer Assistenzsysteme wiegen Fehler, auf die AI-Systeme anfällig sind, umso schwerer. Wenn, wie vor einiger Zeit bekannt wurde, Googles Foto-App dunkelhäutige Menschen nicht als solche erkennt, weiße hingegen schon, ist dieser sogenannte Bias des Systems peinlich für das Unternehmen.
    Treten solche Probleme im medizinischen Bereich auf, stehen Menschenleben auf dem Spiel.

    “Man kann sie mit menschlichen Sehprozessen vergleichen: Einerseits werden Details erfasst, andererseits ist Kontext für das Erkennen von Objekten wichtig.” Wenn nun die Auswahl der Trainingsdaten nicht ausbalanciert ist, bekommt auch das Ergebnis eine Schlagseite.

    “Mittlerweile gibt es Bestrebungen, eine eigene allgemeingültige Zertifizierung für AI-Systeme in der Medizin zu etablieren, erklärt Bühler. “Doch diese Diskussion steht erst am Anfang.”

    Zertifizierung von AI-Systemen  wird in Zukunft wohl  überall dort erforderlich sein, wo solche Systeme möglicherweise Sach- oder Personenschäden ( z.B. gerade auch im Verkehrsbereich  – wie z.B. mit autonomen Fahrzeugen ) versursachen könnten.
    Und wenn keine anderen Haftungsregeln ( z.B.  Haftung der Hersteller, der Händler, der Eigentümer , der Betreiber/Fahrer)  greifen,  werden diese  Zertifizierungsstellen  wohl auch zumindest einen Teil der Haftung für Fehlfunktionen der von ihnen zertifizierten Systeme übernehmen müssen.

     

     

  • Erich Pekar
    Teilnehmer
    Post count: 653
    #20127 |

    Warum Anleger auf künstliche Intelligenz wetten

    https://derstandard.at/2000088326428/Anleger-wetten-auf-die-kuenstliche-Intelligenz

    Viele Menschen haben Bedenken gegenüber lernfähigen Robotern, Anleger versprechen sich allerdings hohe Renditen

    Ob Apples Sprachassistentin Siri, selbstständig fahrende Uber-Taxis oder gezielte Klamottenvorschläge beim Online-Modehändler Zalando – lernende und vernetzte IT-Systeme sind aus dem täglichen Leben nicht mehr wegzudenken. Die künstliche Intelligenz ist nach Meinung von Experten ein billionenschwerer Wachstumsmarkt für Firmen. Anleger versprechen sich hohe Renditen von dem Trend – die Nachfrage nach speziell darauf ausgerichteten Investmentfonds und Zertifikate ist hoch.
    “Was institutionelle Investoren oder Family Offices angeht, stellen wir ein recht starkes Interesse an Künstlicher Intelligenz als Investmentthema fest”, sagt Vermögensberater Thomas Metzger vom Bankhaus Bauer.

    Firmen bringt die künstliche Intelligenz (KI) nach Ansicht von Fachleuten enormes Wachstumspotenzial. Nicht nur verspricht sie sinkende Kosten – es entstehen auch völlig neue Geschäftsfelder.

    “- sinkende Kosten – ” :  – für Hersteller/Betreiber,
    aber erhöhtes Risiko für Benutzer/Betroffene von KI-Systemen –
    auch wegen “nicht vorhersehbarer” Reaktionen in gefährlichen Situationen von sich selbst verändernden/selbstlernenden Systemen.

    Und – daraus abgeleitet – gleich “ungeklärte” Haftungsfragen bei allen Systemen (wie z.B. autonom fahrenden Fahrzeugen) mit Künstlicher Intelligenz ?
    Haftungsfragen in Zusammenhang mit (auch komplexen) technischen Geräten und Anlagen werden schon seit dem Beginn des Industriezeitalters (und  z.B. den ersten damals auch “unerwartet, unvorhersehbar” explodierten Dampfkesseln) diskutiert und nach Einführunge entsprechender gesetzlicher Schutzbestimmungen (z.B. Dampfkesselverordnung https://www.ris.bka.gv.at/GeltendeFassung.wxe?Abfrage=Bundesnormen&Gesetzesnummer=10011616&FassungVom=1994-12-31, Dampfkesselbetriebsgesetz https://www.ris.bka.gv.at/GeltendeFassung.wxe?Abfrage=Bundesnormen&Gesetzesnummer=10012138 ) zur Vermeidung von Unfällen und Festlegung von Verantwortlichen zur Prüfung der Einhaltung dieser Schutzbestimmungen vor Gericht – mit Beachtung veschiedener Grade der Verletzung von Verantwortlichkeiten von “leicht fahrlässig” bis “schwer schuldhaft, alle Regeln missachtend” –  ausjudiziert.
    In gesetzlichen Schutzbestimmungen wird oft auch festgelegt in welchen gefährlichen (z.B. explosiven)   Umgebungen, welche (nachweislich geprüfte bzw. zertifizierte) Geräte (z.B. ohne Funkenflug, mit gasdichtem Gehäuse u.ä.) eingesetzt werden dürfen.
    Genauso wird im Kraftfahrgesetz (https://www.ris.bka.gv.at/GeltendeFassung.wxe?Abfrage=Bundesnormen&Gesetzesnummer=10011384) festgelegt, welche Ausrüstung und Eigenschaften Fahrzeuge aufweisen müssen, um für den öffentlichen Straßenverkehr zugelassen (bzw.”typengenehmigt” ) zu werden. Jede technische Änderung eines Fahrzeuges, die auf die Verkehrssicherheit Auswirkungen haben könnte, muss neuerlich der Behörde zur Genehmigung gemeldet werden.
    So ist im Kraftfahrgesetz, dort im

    §6 zu finden : “Kraftfahrzeuge, außer den im Abs. 2 angeführten, müssen mindestens zwei Bremsanlagen aufweisen, von denen jede aus einer Betätigungseinrichtung, einer Übertragungseinrichtung und den auf Räder wirkenden Bremsen besteht…Die Bremsanlagen müssen so beschaffen und eingebaut sein, daß mit ihnen bei betriebsüblicher Beanspruchung und ordnungsgemäßer Wartung trotz Erschütterung, Alterung, Abnützung und Korrosion die vorgeschriebene Wirksamkeit erreicht wird.”

    und im §8 “.. Die Lenkvorrichtung muß, auch wenn die Lenkhilfe ausfällt, verläßlich wirken und das sichere Lenken ermöglichen. ..”

    Wenn nun – selbst ohne Einsatz von KI –  ein fehlerhaftes Softwareupdate genügen könnte, um z.B. die Wirksamkeit der Bremsen nahezu aufzuheben,  müsste jedes Softewarupdate der österreichischen Verkehrsbehörde zur Änderung der Typengenehmnigung vorgelegt werden und technisch ausgeschlossen werden, dass z.B.  vielleicht gar während der Fahrt des Fahrzeuges – nach erfolgter Änderung der Typgenehmeigung – neuerlich Änderungen der bereits geprüften Fahreigenschaften des Fahrzeuges (wie z.B. Wirksamkeit der Bremsen ) erfolgen.

    Wenn nun das nicht vohersehbare – unter Umständen auch katastrophale Verhalten von KI-Systemen – nicht nur ( wie ehemals bei den Dampfkesseln) auf ungenügende Prüf- bzw. Analysemethoden für KI-Algorithmen zurückzuführen sein sollte, dann wäre es Aufgabe der Gesetzgebung und unserer Behörden jene Anwendungsgebiete für KI festzulegen, in den KI-Systeme gar nicht oder nur unter bestimmten Auflagen (zur Verhinderung katastrophaler Ergebnisse mit Sach- oder Personenschäden) eingesetzt werden dürfen.

    Denn Kosteneinsparung bei Herstellern/Betreibern zu Lasten von “in Kauf genommenen” (bzw. zu erwartenden)  Sach- und Personenschäden bei Endverbrauchern bzw. Benutzern von KI-Systemen könnte vor Gerichten dann wohl nur als “schwer fahrlässiges” bzw. “schuldhaftes” Verhalten der Hersteller, Händler bzw. Verkäufer eingestuft werden.

    Und wir hätten dann nach dem “Diesel-Gate” ein “KI-Gate”,
    weil Fahrzeughersteller höhere Sicherheit im Straßenverkehr bzw. ihrer Fahrzeuge versprochen haben und diese durch KI-Systeme in den Fahrzeugen und “am Straßenrand” erreichen wollten – obwohl alle (?) Fachleute derzeit davon ausgehen, dass die Reaktion von KI-Systemen derzeit nicht vorhersehbar sind – und daher auch die sichere Fahrweise von mit KI gesteuerten autonomen Fahrzeugen (unter allen Wetter- und Verkehrsbedingungen) derzeit (noch) gar nicht sichergestellt und geprüft werden kann.

    • Diese Antwort wurde geändert vor 2 Monate, 1 Woche von  Erich Pekar.
  • Erich Pekar
    Teilnehmer
    Post count: 653
    #20591 |

    Wer die künstliche Intelligenz beherrscht, wird die Welt beherrschen
    https://derstandard.at/2000092113532/Ueber-das-digitalisierte-WettruestenWer-die-kuenstliche-Intelligenz-beherrscht-wird-die


    Das Pentagon, Washington, D.C. – der Anfang der 1940er-Jahre erbaute, fünfeckige Koloss am Ufer des Potomac, steht für den alten, den analogen Krieg. Heute allerdings denkt ein guter Teil der 28.000 Menschen, die hier im US-Verteidigungsministerium arbeiten, über “the future of warfare” nach. Die Digitalisierung hat das Kriegshandwerk nicht nur erreicht, sie revolutioniert es gegenwärtig. Und zwar so nachhaltig, wie an der Wende vom 16. zum 17. Jahrhundert die Umstellung von Hieb- und Stichwaffen auf Schusswaffen.
    Das Pentagon, Washington, D.C. – der Anfang der 1940er-Jahre erbaute, fünfeckige Koloss am Ufer des Potomac, steht für den alten, den analogen Krieg. Heute allerdings denkt ein guter Teil der 28.000 Menschen, die hier im US-Verteidigungsministerium arbeiten, über “the future of warfare” nach. Die Digitalisierung hat das Kriegshandwerk nicht nur erreicht, sie revolutioniert es gegenwärtig. Und zwar so nachhaltig, wie an der Wende vom 16. zum 17. Jahrhundert die Umstellung von Hieb- und Stichwaffen auf Schusswaffen.
    Die Schlachtfelder der Zukunft werden vom Internet der Dinge und fahrerlosen Vehikeln geprägt sein, sagt Schneider, diese seien teilautonom, werden aber doch noch von menschlicher Hand gesteuert.
    Solche im Prinzip wie Drohnen funktionierende Systeme (“das war technisch am einfachsten lösbar”) werde es auch zu Lande, im und unter Wasser geben (siehe Wissen unten).

    Bob Work, Vize-Verteidigungsminister unter Obama und Trump, sagte der “FT” unlängst: “Das Spiel lautet: unsere KI gegen deren KI.” will heißen: Die Menschen töten nicht mehr selbst, sie lassen töten – von künstlicher Intelligenz.

    Hinter all diesen Systemen stehen enorme Datenmengen, die gesichert, gemanagt und gebraucht werden müssen. Die US-Militärs wollen ihre Teilstreitkräfte in naher Zukunft über eine Cloud mit dem schönen Namen “Jedi” (Joint Enterprise Defense Infrastructure) verbinden, Oracle, Microsoft, IBM und Amazon rittern bereits um den zehn Milliarden Dollar schweren Auftrag. Google zog sich Bloomberg zufolge zuletzt aus dem Rennen zurück. In Europa plant Thales militärische Cloud-Lösungen.

    Im Pentagon arbeitet zudem ein “Team für algorithmische Kriegsführung”, das mit Googles Deep-Learning-Programm Tensor-Flow künstliche neuronale Netze für Waffen baut, die diesen das Erkennen und Qualifizieren von Objekten beibringen sollen.
    Weil sich firmenintern massiver Widerstand gegen dieses “Project Maven” regte, musste Alphabet-Chef Sundar Pichai im Mai aus der Kooperation aussteigen.
    Widerstand kommt auch von Wissenschaftern und Unternehmern: Schon vor drei Jahren riefen etwa der im März verstorbene Stephen Hawking und Tesla-Chef Elon Musk zu einem Verbot dieser Waffen auf, die unweigerlich in den digitalisierten dritten Weltkrieg führen würden. Die NGO Campaign to Stop Killer Robots versucht das Problembewusstsein zu erhöhen, eine UN-Arbeitsgruppe hat erst diese Woche wieder in Genf getagt, um einen rechtlichen Rahmen und bestenfalls ein Verbot für Lethal Autonomous Weapon Systems zu finden.

    Buchtipp: “Legal Killing” und Menschlichkeit

    Das Thema ist in der Öffentlichkeit noch kaum bekannt, die Literatur darüber entsprechend bescheiden. Umso wichtiger ist der ebenso breite wie tiefe Einblick, den Markus Reisner (Jurist, Historiker und Oberstleutnant des Bundesheeres)  in “Robotic Wars” in den digitalisierten Krieg bietet.

    Dass hier Entwicklungen aus dem zivilen Bereich nun auch im militärischen Bereich zum Einsatz kommen sollen, dürfte aber einen krasse Fehleinschätzung sein :
    Denn wenn autonome fahrende Fahrzeuge “eine Entwicklung  des zivilen Bereiches” wären, dann müssten diese ja auf unseren Straßen – ganz ohne “Kollateralschäden” – auch bereits erfolgreich eingesetzt werden können. Und wenn modernste Kommunikationstechnologien wie z.B. die in dem Startlöchern stehende 5G Mobilfunktechnologie – auch eine Entwicklung des zivilen Bereiches sein sollte, dann müsste man für diese  Technologie nicht erst mühsam die “Killer”- Use-Cases (abseits des Streaming von Content der Unterhaltungs-Inbdustrie) suchen müssen, die die hohen Investitionen für das Ausrollen dieser Technologie auch rechtfertigen könnten.

    Wenn aber diese Entwicklungen primär für die Lösung “militärischer Probleme” erforderlich waren, dann ist es nur logisch, wenn die Entwickler/Hersteller nun versuchen, ihre Entwicklungskosten rasch wieder hereinzubringen und optimierte Gewinne auch über zivile Anwendungsbereiche zu erreichen.
    Ein Effekt dieser “Diversifizierung” militäricher Entwicklungen in den zivilen Bereich drückt sich dann durch fehlende oder scheinbare Problemstellungen aus, die dann durch Anpassung militärischer Technologien gelöst werden sollen.
    So ist derzeit  auch noch überhaupt nicht erwiesen, dass autonome Fahrzeuge im Mischverkehr – außer durch wesentliche Reduktion der gefahrenenen Geschwindigkeiten – überhaupt jemals zu höherer Verkehrsicherheit beitragen werden. Dass geingere Geschwindigkeiten im Straßenverkehr zu mehr Sicherheit im Mischverkehr (mit z.B. Fahrradfahrern und Fußgängern jedes Alters)  führt, ist längst erwiesen. Langsamere Fahrgeschwindigkeiten im Straßenverkehr sind aber viel leichter und kostengünstiger ohne autonome Fahrzeuge erreichbar.
    Dass autonom fahrende Fahrzeuge ohne sonstige begleitende Maßnahmen Verkehrs- oder Energieprobleme gar nicht lösen helfen können, wird mittlerweile sogar von den Befürwortern autonom fahrender Fahrzeuge eingräumt.

  • Erich Pekar
    Teilnehmer
    Post count: 653
    #20709 |

    Durchbruch auf dem Weg zur universellen Lernmaschine

    https://derstandard.at/2000093296601/Durchbruch-auf-dem-Weg-zur-universellen-Lernmaschine

    Die DeepMind-Software AlphaZero trainiert sich selbst in drei Brettspielen zum Meister. Ein 26-jähriger Österreicher ist an der Programmierung beteiligt


    Im vergangenen Jahr berichtete das Team von DeepMind im Fachblatt “Nature” über einen weiteren Durchbruch: Die Weiterentwicklung AlphaGo Zero erlernte das Brettspiel Go ohne menschliche Referenzpartien, sondern trainierte sich selbst zu einer Spielstärke, die auch das Vorgängerprogramm AlphaGo locker besiegte. Dem Team um David Silver gehört auch der 26-jährige österreichische Informatiker Julian Schrittwieser an, der bereits im Rahmen seines Bachelor-Studiums an der TU Wien im Jahr 2013 bei Google eingestiegen ist.
    Während AlphaGo noch Millionen von Zügen von menschlichen Top-Spielern über Monate hinweg analysieren musste, um sein hohes Spielniveau zu erreichen, war das DeepMind-Team mit AlphaGo Zero einen anderen Weg gegangen: Es entwickelte ein System, das Go ohne Anschauungsmaterial von der Pike auf in Hunderttausenden Spielen gegen sich selbst trainiert und auf sich alleine gestellt weiterentwickelt. Lediglich die Regeln des Spiels waren der Software vorher bekannt.
    Nun haben die Informatiker ihren Ansatz unter dem Namen AlphaZero abermals verbessert, wie sie – diesmal im Fachblatt “Science” – berichten: “Wir haben den Algorithmus so generalisiert, dass eine Software mehrere Spiele lernen kann”, erklärt Schrittwieser im Gespräch mit dem STANDARD: AlphaZero erreichte auch im Schach, Shogi – einer japanischen Variante des Spiels – und Go innerhalb weniger Stunden ein derart hohes Niveau, dass es andere hoch entwickelte KI-Programme besiegte.

    In eine ähnliche Richtung geht auch die Einschätzung von Julian Schrittwieser, dem die Mitarbeit bei DeepMind ein ausführliches Porträt im Magazin “Forbes” als eine der 30 interessantesten Persönlichkeiten Europas unter 30 Jahren in der Rubrik “Technologie” eintrug. Der junge KI-Forscher streicht noch einmal heraus, dass die neue Verallgemeinerung dieses Planungsalgorithmus nicht “spielerischer” Selbstzweck ist, sondern tatsächlich praktische Anwendungen haben soll: “Wir schauen, welche echten Probleme mit diesen Algorithmen zu lösen sind.”

    Heißt das, dass womöglich auch die Forscher selbst der KI-Revolution zum Opfer fallen werden? Nein, ist Schrittwieser überzeugt, aber mit den neuen Algorithmen werden sie mächtigere “Werkzeuge” haben – “ganz ähnlich, wie das vor 50 Jahren die Taschenrechner waren”.

You must be logged in to reply to this topic.