TuT 2022#

Dieser Abschnitt: zur Info der Studierenden vorläufig noch die Dokumentation des WS 2022

2022-10-10#

Übungs am Do: Wir haben exemplarisch diskutiert das Thema “130 auf Autobahnen” - aber nicht wegen des Inhalts, sondern um Argumentationen zu strukturieren.

2022-10-17#

Teil 1: Fallbeispiel: x_cmb.md

Auftag:

  • Vorteile, Nachteile allgemein?

  • Argumenieren Sie aus einer spezifischen Position heraus:

    • LKW

    • Kleinwagen mit max-Tempo 110

    • schneller Sportwagen

  • Ersetze die Tempi 80, 110, 140 durch 80, 120, 160 (oder 80, 130, 180): Was ändert sich an der Argumentation?

  • Welche Werte, welche Normen können zur Bewertung herangezogen werden?

Nachtrag 2022-12-22: Interessante phsilosophische Diskussion über autonomes Fahren auf ARTE: Square Idee. https://www.arte.tv/de/videos/100953-006-A/square-idee/:

Wir können automome Autos als einen Versuch betrachten, uns von der Norwendigkeit dieser Art von Kooperation zu befreien; als einen Versuch, soziales Vertrauen durch maschinell erzeugte Sicherheit zu ersetzen. (22:26)

2022-10-24 The Moral Machine#

Intro JB:

Hintergund-Text:

In der Übung dann: Diagramm zum Nida-Rümelin-Text erarbeiten. Dieser Text ist dann endlich auch klausurrelevant.

2022-10-31#

Nida-Rümelin-Text intensiver lesen, erarbeiten … insbesondere erschließen alle Argumentations-Bestandteile, die zu haben mit (a) SUV-Autos, sowie (b) Motorradfahrer mit und ohne Helm

2022-11-07#

Text:

Ergebnissicherung zu Kai Cornelius: http://jbusse.de/dsci-101/d_Papp2022.html

Übung Do 2022-11-10

Genaues Lesen des Textes von Kai Cornelius: Welche Fragen könnte man dazu in der Klausur stellen?

2022-11-14#

Einführung in COMPAS

Übung Do 2022-11-17: Fragen an Cornelius:

  • Welche 3 Risikoarten unterscheidet Cormelius?

  • Welche Nachteile haben technologische Impossibility Structures? Welche Alternative gibt es dazu?

  • Wer ist der primäre Verantwortliche bei KI-Compliance bei detection durch intelligent surveillance?

  • Ein Programmierfehler hat zur Verletzung eines Menschen geführt. Welche Position hat Cornelius dazu in Bezug auf die Übernahmefahrlässigkeit?

  • human in the loop / on the loop / in command: Bewertung durch Cornelius? Welche Variante empfliehlt Cornelius, und wer ist in dieser Variante verantwortlich bei einen KI-Fehler?

  • Sind KI-Systeme sanktionierbar? Welche Parallelen empfiehlt Cormelius zu ziehen?

  • die 3 Funktionen von Stafe, Strafzwecke?

2022-11-21#

Thema: COMPAS

Aus https://www.bertelsmann-stiftung.de/de/publikationen/publikation/did/wenn-maschinen-menschen-bewerten:

  • Einleitend Kap 2.1 Falsifizierbarkeit sicherstellen: Rückfallprognosen vor Gericht

  • ergänzend Kap 2.2 Sachgerechte Anwendung sichern: Individuelle Kriminalitätsprognosen

Detaillierte Diskussion von “Fairness” anhand von COMPAS:

Fallbeispiel#

Stadt, 2 Gymnasien, an beiden kann man Mathe-Leistungskurs belegen. Aber Unterschied:

  • Leibnitz-Gymnasium, nat.-wiss.: Englisch, Schwerpunkte Chemie, Physik; Informatik-AG, Sternwarte

  • Goethe-Gymnasium, altsprachlich: Englisch, Latein, Griechisch; Theater-AG, Orchester

Aufnahmeprüfung Elite-Studiengang Data Sciene.

  • Beobachtung: Es werden faktisch deutlich mehr Schüler aus dem Leibnitz- als aus dem Goethe-Gymnasium aufgenommen.

  • Bedenklich: Eltern schicken Mädchen eher auf das Goethe-, Jungs eher auf das Leibnitz-Gymnasium.

  • Vorschlag der Aufnahme-Kommission: “Wir nehmen gleich viele Mädchen wie Jungen auf!”

Beurteilung in Bezug auf Fairnes?

Auftrag:

Vertiefung: https://en.wikipedia.org/wiki/Fairness_(machine_learning)

Übung 2022-11-24#

Experiment: Wenigstens einige wenige Argumentations-Moleküle des Textes “2.1 Falsizifierbarkeit sicherstellen” in der Wissensrepräsentation “Fünfsatz” festhalten.

Ergebissicherung der Vorgruppe (von JB gefiltert):

2022-11-28#

Thema: Fairnes … am Bsp. COMPAS und Fallbeispiel vergangene Woche

Quelle: http://jbusse.de/dsci-101/e_fairness.html

  • Intro JB

  • Markdown der Seite in einen Yopad kopieren: https://yopad.eu p etki-fairness-1day

  • dann Beispiele und eigene Definitionen eintragen

Übung 2022-12-01#

Thema heute: Details zum Text von Tim Räz zu COMPAS.

  • ggf. nochmal Fairnes

  • jedenfalls auch Transparenz

2022-12-05#

Text:

Übung 2022-12-08#

Bewertung eines konkreten Falles auf Grundlage des Textes von Katharina Zweig, hier Kap.6 “Wo Fehler passieren könen” (S.21-28).

Konkreter Fall: Zielgruppenspezifische Werbung. Wir werben damit, dass wir genderneutral sind, und insbesondere nicht das Gender erheben. Wir erheben von den Usern lediglich Attribute wie insbesondere Alter, Körpergröße, Schuhgröße. Aber genau am Gender sind wir natürlich besonders interessiert. Also erschließen wir das Gender aus den anderen Attributen. Das ist die Machine Learning Aufgabe im WS 2022:

  • Vorhersage des abhängigen Attributs Gender aufgrund von Alter, Körpergröße, Schuhgröße.

Einführung JB:

Grupenarbeit, dann Diskussion:

  • Wie bewerten wir unsere Erhebungen in Bezug auf die Aspekte von K.Zweig, S.21-28?

  • Unser mit Mängeln behaftetes Modell werde - leider - eingesetzt. Was könnte man tun, um ein Modell-Versagen zu erkennen?

2022-12-12#

Vorletzter Montag in 2022.

Thema heute:

  • Überblick gewinnen, was wir von Okt bis heute gemacht haben.

  • Welche Zusammenhänge sehen wir?

  • Welche wichtigen Themen bleiben bisher unbearbeitet?

Auftrag und Arbeitsweise:

  • Erstellen sie in Einzel- oder Gruppenarbeit eine strukturierte Übersicht über die Inhalte des Semesters.

Am Do kommenden Montag vergleichen wir dann unsere Zusammenfassungen, erkennen Lücken und Widersprüche, finden Orte für Ergänzungen.

J. Busse empfiehlt eine Mindmap, z.B. mit dem Programm https://docs.freeplane.org/.

2022-12-15: Übung fällt aus wegen Weihnachtsfeier.

2022-12-19#

Anfertigung einer gemeinsamen Mindmap

Neuer Text. Wozu? JNR kritisiert ja den Konsequentialismus; und er hält nichts von “Ismen”, wenn diese zu fundamentalistisch daherkommen. Wir benötigen also eine positive Formulierung seiner eigenen Position. Hier ist sie:

  • Julian Nida-Rümelin: Ethische Pflichten. In: Aus: Julian Nida-Rümelin: Über Grenzen denken. Eine Ethik der Migration. Körber 2017, Kapitel 1, S.31-47. Moodle

2022-12-22#

Digitalisierung der Entscheidungsfindung in der sozialen Arbeit.

Allgemein:

Kindesschutz: * Mark Schrödter, Pascal Bastian, Brian Taylor: Risikodiagnostik in der Sozialen Arbeit an der Schwelle zum »digitalen Zeitalter« von Big Data Analytics. Preprint · February 2018. DOI: 10.13140/RG.2.2.22119.14240. https://www.researchgate.net/publication/323267949

Weitere im Etherpad auf Moodle:

2023-01-09#

KLAUSUR:

Inhalt:

Struktur der Antworten:

  • Beantwortung der Frage (Stichpunktartig)

  • Quelle (Autor, Kapitelnummer oder Seite)

  • Lieber kurze Antworten, dafür stichhaltig

Zitieren: am besten allgemein en Text hinter die Antwort - bei genaueren Antworten evtl. Überkapitel (e.g. 3.2 Nida Rümelin)

Alle Sitzungen in 2023 sind freiwillig. Kein neuer, klausurrelevanter Stoff. (Aber natürlich können wir nicht ausschließen, dass eine freiwillige Beschäftigung mit Ethik der KI etwas mit der Klausur zu tun hat.)

2023-01-16#

Eine mögliche Klausuraufgabe könnte so lauten:

“””Julian Nida-Rümelin schreibt:

“Die Programmierung von autonomen Autos [ist] eher mit der Frage des Impfens vergleichbar […] als mit klassischen Trolley-Fällen”. (S.15)

Skizzieren Sie knapp und konzise die zugehörige Argumentation von JNR!”””

Arbeitsform:

Dann Diskussion der Ergebnisse im Rundgespräch im Plenum.

Verschiedenes#

noch unstrukturierte Sammlung von Ideen zur Klausur aus den letzten Sitzungen

Car Mobility Box#

Text J. Nida-Rümelin: Trolley-Probleme#

Kritik des Konsequenzialismus:

    1. Maschinen als Entscheidungsträger

    • -> Nein: Maschinen können keine eigenen Gründe haben

    • -> Nein: Maschinen haben keine Intentionen, wie Menschen!

    1. Zeitpunkt der Entscheidung

    • -> Programmierer entscheidet bei der Programmierung, was bei Trolley-Problemen passiert

    1. Verletzungsminimierung

Text Kai Cornelius#

Wie Unterscheidet Kai Cornelius Risiken

Kap 2.1 in Bertelsmann: Wenn Maschinen Menschen bewerten#

Auch Text Tim Räz

K.Zweig#

Übergreifende Themen#

Diskriminierung von Gruppen#

  • bei JNR: Diskriminierung von Gruppen: Fehlanreize

Ist KI nicht Diskrimirung by Design? … Statistische Auswertung diskrimiert immer!  Wann ist das ein Problem? Wenn eine der folgenden 6 Gruppen negativ diskrimiert: (Antidiskriminierungsgesetz)

Thema “Diskriminierung”:

  • Benachteiligungen aus Gründen

  • der Rasse oder wegen der ethnischen Herkunft,

  • des Geschlechts,

  • der Religion oder Weltanschauung,

  • einer Behinderung,

  • des Alters oder

  • der sexuellen Identität

  • Welcher Text schreibt dazu was?

    • praktisch jeder Text

    • top-down: gerne eine Übersicht

    • exemplarisch: zeigen Sie ein Problem auf

    • nennen Sie Beispiele

    • definieren Sie das “Antidiskriminierungsgesetz”

Weitere mögliche Fragen zur Klausur:

  • Inwiefern werden Schwarze bei ADM-Systemen, z.b compas, benachteiligt?

  • Diskutieren Sie den Einsatz von KI im Hinblick auf Diskriminierung. JB: Zu offen

  • Wie kann Diskriminierung zu Fehlanreizen führen? JB: Antwort JNR?

  • Wieso kommt es bei KI Systemen so oft zu Diskriminierung und kann dies vermieden werden? Sollen Daten wie Herkunft bei den Systemen berücksichtigt werden? JB: Gute Frage, schwieriges Pro - Contra

Beispielsituation mit Frage, wer wird diskriminiert und inwiefern?: Erfordert eine bekannte Situation

Sollten im Falle einer Falschprognose durch COMPAS Richter bestraft werden? (Wer bestraft die Richter?) NEIN, nicht in den Texten Welche Rolle spielen Trainingsdaten im Falle einer Diskriminierung? (Alt, falsch erhoben etc.); gute Frage Ist ein Diskriminierungsrat bei der Entwickung von ADM-Systemen sinnvoll und soll dieser als Verantwortungsträger bei zukünfigen Verbrechen haften? Nö, weil nicht in den Texten Sollte der Bewertungsfaktor bei Schwarzen automatisch niedriger sein, sprich gelassener bewerten, um Diskriminierung auszugleichen? Vielleicht schon! Weil … Und zwar so … ; in den Texten?

Wären zwei Bewertungsvariablen(Anzahl, Straftaten, Alter) besser, um Diskriminierung zu beseitigen? Wie würde sich das auf die Bewertungsqualität auswirken? Gute Frage … nicht in den Texten Bonusfrage:  ProPublica hat Daten aus 7000 Kriminellen erhoben, die bewertet wurden. Wie viele Schwarze und Weiße wurden FN bewertet? Angabe in Prozent! FN für weiße Menschen ist 48%, für Schwarze 28%

Thema Transparenz: * In Datensätzen * Systemen * Entscheidungsfindung * Gefundene Parameter: Compas veröffentlicht sich nicht * COMPAS, auch in K.Zweig; * Auch bei JNR: Maschinen als E-Träger * auch bei K.Cornelius

Mögliche Klausurfragen; Was sind die aufgeführten Probleme der Transparenz in den Texten und wie unterscheiden sie sich? Ist fehlende Transparenz ein Grund, keine ADM-Systeme zu verwenden?

Thema Moral Machine, Trolley Problem

  • Abwägung von Menschengruppen usw

  • Konsequentialsmus

  • Verlässlichkeit von Normen

NICHT: Argumentations-Graphen

misc#

Hinweis: Einige Inhalte auch von etki sind dokumentiert in der großen Mindmap, die für die Veranstaltung Data Science 101 (KI110) bereitgestellt wird, siehe