Montag, 22. April 2024
[IMI-List] [0655] IMI-Studie Rheinmetall / KI im Gaza-Krieg / Material 1. Mai
----------------------------------------
Online-Zeitschrift "IMI-List"
Nummer 0655 – 27. Jahrgang
----------------------------------------
Liebe Freundinnen und Freunde,
in dieser IMI-List findet sich
1.) Die soeben veröffentlichte IMI-Studie: Rheinmetall: Vom
Schmuddelkind zur Systemrelevanz;
2.) eine IMI-Analyse mit neuen Erkenntnissen zur Anwendung künstlicher
Intelligenz im Gaza-Krieg.
Zuvor noch kurz ein weiterer Hinweis: Anlässlich des nahenden 1. Mais
haben wir den Artikeln zum „Schulterschlusspapier“ von SPD, IG Metall
und Rüstungslobby als PDF zum Auslegen auf Büchertischen etc.
gelayoutet: https://www.imi-online.de/2024/02/14/schulterschluss-ruestung/
Wer sonst noch Material sucht, kann gerne kostenlos beim DFG-VK
Materialshop unsere Factsheets „Rüstung“ bestellen:
https://shop.dfg-vk.de/?product=factsheet-ruestung-februar-2024 (das
Factsheet Klima & Krieg gibt es bei den Naturfreunden Berlin)
1.) IMI-Studie: Rheinmetall: Vom Schmuddelkind zur Systemrelevanz
Rüstungskonzerne sind in aller Munde, insbesondere in den Medien, wo der
wohl am häufigsten genannte Name der deutsche Rheinmetall-Konzern ist.
Die neue IMI-Studie „Vom Schmuddelkind zur Systemrelevanz“ untersucht
die Darstellung von Rheinmetall in den Medien vor und nach dem
russischen Angriff auf die Ukraine.
Dafür wurden 750 Artikel der sogenannten Leitmedien ausgewertet, um so
den Veränderungen der Berichterstattung auf die Spur zu kommen.
IMI-Studie 2024/01
Von der Schmuddelecke in die Systemrelevanz
Die mediale Zeitenwende im öffentlichen Diskurs über Rheinmetall
https://www.imi-online.de/2024/04/16/von-der-schmuddelecke-in-die-systemrelevanz/
Jonas Uphoff (16. April 2024)
Inhaltsverzeichnis
Einleitung: Eine schwindelerregende Aufstiegsgeschichte
Die Rolle der Medien
Herausforderung für Politik und Industrie: Das negative Image der Rüstung
Untersuchung der Diskursverschiebung
Die wichtigsten Veränderungen im Diskurs
1. Deutlich weniger Kritik
2. Der Zweck rechtfertigt die Mittel
3. Dynamische Wirtschaft, lahme Politik
4. Technologiebegeisterung
5. Armin Papperger: „Vom Underdog zum Held der Stunde“
Doku „Inside Rheinmetall“: Rüstungsindustrie zum Anfassen
Fazit: Gekommen, um zu bleiben
Anmerkungen
Gesamte Studie hier:
https://www.imi-online.de/2024/04/16/von-der-schmuddelecke-in-die-systemrelevanz/
2.) IMI-Analyse: KI im Gaza-Krieg
IMI-Analyse 2024/22
„Assistenz“ beim Bombardement in Gaza
Was bedeutet „Künstliche Intelligenz“ im urbanen Krieg?
https://www.imi-online.de/2024/04/15/assistenz-beim-bombardement-in-gaza/
Christoph Marischka (15. April 2024)
Erste Veröffentlichung: Habsora
Bereits Ende November 2023 hatte der israelische Journalist Yuval
Abraham im +972Mag und der hebräischen Zeitung Local Call einen
vielbeachteten Bericht veröffentlicht, wonach die israelische Armee
(IDF) in großem Maßstab Künstliche Intelligenz (KI) einsetze, um Ziele
zu identifizieren, die anschließend in Gaza bombardiert werden.[1] Im
Mittelpunkt stand damals ein System namens „Habsora“, auf Englisch meist
mit “The Gospel” übersetzt. Der Beitrag basierte im Wesentlichen auf
Aussagen aktiver und ehemaliger israelischer Militärs, die im weiteren
Sinne mit der Zielauswahl beschäftigt waren und angaben, „Habsora“
basiere auf KI und ermögliche es, in großer Geschwindigkeit Ziele zu
„produzieren“. Die Anwendung von Habsora und anderen datenverarbeitenden
Systemen hat demnach dafür gesorgt oder dazu beigetragen, dass der IDF
bei ihrer massiven Luftkampagne über dicht besiedeltem Gebiet nicht die
Ziele ausgingen und dieses massive Bombardement in seiner Intensität
überhaupt durchgeführt werden konnte. Zugleich habe es dazu geführt,
dass Angriffe mit erwartbar hohen zivilen Opferzahlen, z.B. auf sog.
„Power Targets“ (mehrstöckige zentrale Wohngebäude oder
Verwaltungsgebäude) überhaupt ausgeführt worden seien. Bereits damals
wurde der Vorwurf geäußert und mit Zitaten unterlegt, wonach die
automatisch generierten Ziele zwar nochmal von Menschen bestätigt, dafür
aber jeweils nur sehr kurze Zeit aufgewendet worden wären. Die
Darstellung schien durchaus plausibel angesichts der etwa 1.000 Ziele,
die in der ersten Woche täglich auf einer Fläche angegriffen wurden,
welche nur etwas größer ist, als das Gebiet der Stadt München. Nach
weiteren zwei Wochen hatte sich die Zahl der aus der Luft angegriffenen
Ziele bereits auf 12.000 erhöht und wurde bis 11. Dezember sogar mit
22.000 angegeben.
Völkerrechtlich wären die IDF bei jedem Angriff, bei dem auch mit
zivilen Opfern zu rechnen ist, verpflichtet, den absehbaren
militärischen Nutzen mit den erwartbaren zivilen Opfern in ein
Verhältnis zu setzen und abzuwägen. Diese Verpflichtung dürfte bei
nahezu allen Zielen bestanden haben und ihre Einhaltung lässt sich
angesichts der schieren Masse angegriffener Ziele kaum plausibel
darstellen – es sei denn, die Abwägung wäre auf der Grundlage
automatisiert ausgewerteter Daten und maschinell erstellter Empfehlungen
erfolgt, wie es der Beitrag von Ende November 2023 nahelegt. Die
Informationsstelle Militarisierung hat deshalb Mitte Dezember
vermutet,[2] dass die IDF sogar ein Interesse daran gehabt haben
könnten, dass der großflächige Einsatz von KI bei der Zielfindung
bekannt wird, um ihrem Vorgehen zumindest oberflächlich den Anstrich
einer – neuartigen – völkerrechtlichen Legitimität zu verleihen, wonach
große Teile der gebotenen „Abwägung“ an vermeintlich „intelligente“
datenverarbeitende Systeme delegiert wurden. Die Opferzahlen, die zum
Zeitpunkt dieser ersten Veröffentlichung kursierten, unterschieden sich
kaum von denen, die bei einer vollkommen willkürlichen Bombardierung
eines dicht besiedelten Gebietes erwartbar wären. Der Autor Yuval
Abraham bezifferte diese bis zum Waffenstillstand vom 23. November auf
14.800, wovon etwa 6.000 Frauen und 4.000 Kinder gewesen seien. Die IDF
hingegen schätzten die Zahl der getöteten Militanten etwa zum gleichen
Zeitpunkt auf 1.000 bis 3.000.
Lavendar und „Daddy's Home?“
In einer weiteren Publikation vom 3. April 2024 in Kooperation mit dem
britischen Guardian beschrieb Yuval Abraham basierend auf den Aussagen
von sechs Beteiligten der IDF zwei weitere Systeme, die an der
Zielauswahl der IDF beteiligt sein sollen.[3] Dabei handelt es sich
einerseits um ein System namens „Lavender“ (Lavendel), welches Listen
vermeintlicher militanter Angehöriger der Hamas und des Islamischen
Dschihads erstelle, andererseits eine Software mit dem ausgesprochen
zynischen Namen „Daddy's Home?“ welches Alarm schlage, wenn solche
Personen die ihnen zugeordnete Wohnung beträten. Lavender arbeite
demnach KI-basiert und werte die Daten aus, die der israelische
Geheimdienst in einem System der Massenüberwachung über die meisten der
2,3 Mio. Bewohner*innen Gazas gesammelt habe. Mithilfe Maschinellen
Lernens werde jeder dieser Personen ein Wert zwischen eins und
einhundert zugeordnet, der die Wahrscheinlichkeit ausdrücke, nach der es
sich um ein militantes Mitglied der beiden Organisationen handele. Nach
wechselnden Vorgaben erzeugte das System auf dieser Grundlage Listen so
genannter Human Targets, die in der Spitze 37.000 Menschen umfasst habe,
die dann als legitime Ziele für gezielte Angriffe gegolten hätten,
selbst wenn dabei auch Zivilisten getötet würden. Auszüge dieser Listen
mit hunderten Identitäten seien dann in Systeme wie Daddy's Home?
eingespeist worden, wodurch die mit ihnen assoziierten Wohneinheiten in
dem Moment als Ziele vorgeschlagen worden seien, wo sie diese
(vermeintlich) betraten. Inwiefern diese beiden nun benannten Systeme
mit Habsora interagieren, das v.a. Gebäude für die Bombardierung
identifiziert haben soll, bleibt dabei etwas unklar.
Der Umfang und die jeweilige Auswahl von Identitäten, die so als
potentielle Ziele definiert wurden, sei nicht auf Führungsebene erfolgt,
sondern recht freihändig von einzelnen Beteiligten. Demgegenüber scheint
es so, als sei die militärische Führung dafür verantwortlich gewesen,
wechselnde Zahlen festzulegen, die angaben, wie viele Zivilisten bei der
Tötung eines einfachen Zieles in Kauf genommen werden dürften. In der
ersten Woche des Krieges hätten hier keine Restriktionen bestanden,
später habe diese Zahl mal 20 und manchmal auch fünf betragen. Für
hochrangige, persönlich bekannte Ziele seien jedoch in einzelnen,
dokumentierten Fällen auch drei und gelegentlich gar vierstellige
Opferzahlen in Kauf genommen worden. Etwas unklar bleibt, auf welcher
Grundlage die Zahl potentieller ziviler Opfer geschätzt wurde. Der
Journalist Yuval Abraham zitiert zumindest eine seiner Quellen mit der
Aussage, man habe die Menschen nicht wirklich gezählt, weil man nicht
gewusst habe, wer zuhause ist und wer nicht. Später wird etwas
ausführlicher ein System beschrieben, welches auf Berechnungen basierte,
die eine Software vor dem Krieg angestellt habe, um zu schätzen, wie
viele Personen in einem Gebäude leben. Diese Zahl sei dann jeweils mit
einem Faktor multipliziert worden, der den Anteil derjenigen schätzte,
die insgesamt bereits aus dem jeweiligen Gebiet geflohen seien. „Dieses
Modell hatte keinen Bezug zur Realität“ wird eine der Quellen zitiert.
Mehrere Quellen hätten bestätigt, dass anders als in früheren Kriegen
das jeweilige Ziel nicht genauer beobachtet worden wäre, um zu einer
seriöseren Schätzung der (anwesenden) Zivilisten zu kommen.
Einblicke in die Technik und ihre Anwendung
Bei der Software zur Zielerkennung handelt es sich natürlich um
komplizierte und hochgradig sensible Informationen, sodass auch die
ausführliche Darstellung Abrahams auf der Grundlage anonymer Quellen nur
bedingte Schlussfolgerungen erlaubt. Teilweise bleibt unklar, ob sich
die jeweiligen Angaben auf Lavender, Daddys Home? oder andere Systeme
beziehen, die – mit ihnen verbunden oder nicht – in ähnlichen Funktionen
zum Einsatz kommen. Für Lavender wird allerdings recht eindeutig
nahegelegt, dass es auf Künstlicher Intelligenz im engeren Sinne des
Maschinellen Lernens beruhe und mit Daten über individuell dem
Geheimdienst „bekannte“ Mitglieder der Hamas und des Islamischen
Dschihad „trainiert“ worden sei. Später sei jedoch einer Quelle zufolge
die Entscheidung getroffen worden, auch Angestellte des (von der Hamas
geführten) Ministeriums für innere Sicherheit einzubeziehen, bei denen
es sich um Polizisten oder Mitglieder der Zivilverteidigung handeln
kann, die nicht als „Militante“ und auch im völkerrechtlichen Sinne
nicht als Kombattanten betrachtet werden könnten. Später sei das so
trainierte System dann mit den verfügbaren Daten mehr oder weniger auf
die gesamte Bevölkerung angewandt worden, um tausende Menschen zu
identifizieren, die damit buchstäblich zum Abschuss freigegeben wurden.
In den ersten zwei Wochen des Krieges sei ein „zufälliges Sample von
mehreren hundert“ so identifizierten Zielen „händisch“ geprüft worden,
woraus sich eine Zuverlässigkeit von 90% ergeben hätte. Seit dem sei das
System großflächig bei der Zielfindung zum Einsatz gekommen und seine
Ausgabe habe quasi die Funktion eines militärischen Befehls gehabt –
ohne jede Verpflichtung, die zugrunde liegenden Rohdaten oder die
Variablen, auf denen die Einschätzung basierte, zu prüfen. Die einzige
Überprüfung, die das Protokoll vor der Anordnung eines Luftschlags
vorgesehen habe, sei die Bestätigung gewesen, dass es sich bei der
Zielperson (nicht den erwartbaren Kollateral-Opfern) tatsächlich um eine
männliche Person handelt. Dieser Prozess habe nach verschiedenen Angaben
„nur wenige Sekunden“ bzw. „20 Sekunden“ in Anspruch genommen und meist
darin bestanden, dass man in eine mit dieser Person assoziierte
Audio-Aufnahme hineingehört und auf diese Art das Geschlecht „bestimmt“
habe.
Zugleich schockierend, wie auch plausibel sind die Angaben, die zum
Battle Damage Assessment (BDA) gemacht werden, also zur einem Angriff
üblicherweise folgenden Überprüfung des angerichteten Schadens bzw.
militärischen Erfolges. Sie ermöglicht eine Einschätzung, ob das
militärische Ziel erreicht wurde und wie viele zivile Opfer dabei
getötet oder verwundet wurden. Dies fand bei den Luftschlägen in Gaza
wohl flächendeckend kaum statt. Plausibel ist dies aus verschiedenen
Gründen, darunter die stark schwankenden und ungenauen Angaben der IDF
zur Zahl getöteter Hamas-Kämpfer einerseits wie auch die schiere
Unmöglichkeit angesichts der großflächigen Zerstörung. Es mag dies auch
ein Grund sein, warum Israel auch vor internationalen Gerichten den
meist von den Hamas-Behörden stammenden Angaben zur Zahl der Getöteten,
Verwundeten und Vermissten keine eigenen, seriösen Schätzungen
entgegenhalten kann. Am Rande erfahren wir im Beitrag Abrahams auch, wie
dieses Assessment früher erfolgt ist: Durch das Abhören von Telefonaten
der Verwandten der anvisierten Zielpersonen.
Überhaupt scheint sich viel der vermeintlich fortschrittlichen
Überwachungstechnologie neben Drohnenaufnahmen letztlich im Orten,
Abhören und Analysieren von Mobilfunkdaten zu erschöpfen. So werden als
konkrete Quellen für die Einstufung durch Lavender genannt: “visuelle
Informationen, Mobilfunkdaten, Verbindungen bei den Social Media,
Informationen vom Schlachtfeld, Telefonkontakte, Fotos“. Etwas
deutlicher wird dies noch bei den Angaben einer Quelle zu möglichen
Fehleinschätzungen durch Lavender, da häufig Mobiltelefone ausgetauscht
und verliehen würden. Auch die Einschätzung des Anteils der Bevölkerung,
der bereits aus einem Gebiet geflohen sei, beruht demnach auf der
Auswertung von Mobilfunkdaten. Es gibt auch keine Hinweise darauf, dass
es sich bei Daddy's Home? um viel mehr handelt als eine Handy-Ortung,
die Alarm schlägt, wenn der Verdächtige (oder eine andere Person) mit
seinem Gerät an den Koordinaten erfasst wird, die als seine Wohnung
verzeichnet ist. Das bedeutet: fast alles, was Israel hier vorgeworfen
wird, scheint weniger von besonders fortgeschrittener Technologie
abzuhängen als dem Willen, überall vorhandene Daten für eine umfassende
Kriegführung einzusetzen – und natürlich dem umfassenden Zugriff auf
Informationen, den Israel in Gaza hat.
Besonders brutale Kriegführung
Während in diesem Beitrag der Einsatz dieser Technologien durch Israel
in Gaza im Mittelpunkt steht, offenbart der Artikel von Abraham andere
Aspekte der israelischen Kriegführung, die rechtlich wahrscheinlich noch
deutlich schwerwiegender sind und deren Zusammenhang mit den verwendeten
Technologien zumindest kein unmittelbarer ist. Dies gilt v.a. für die
politisch definierten Einsatzregeln auf verschiedenen Ebenen. So wurden
in den vergangenen militärischen Auseinandersetzungen (vermeintliche)
Militante niederen Ranges von Israel angeblich nicht als Ziele
definiert, die jenseits konkreter militärischer Auseinandersetzungen ins
Visier genommen werden und auch um den Preis ziviler Opfer getötet
werden konnten. Eine der Quellen benutzt hierfür den Begriff eines
„Müll-Ziels“, dessen militärische Relevanz so gering sei, dass es den
Einsatz einer Bombe gar nicht wert wäre. Gerade deshalb, so ein weiteres
Zitat, sei für solche Ziele „dumme“, ungelenkte Munition eingesetzt
worden, die wesentlich billiger sei, aber eben auch gleich das ganze
Gebäude zerstöre und demnach erwartbar mehr zivile Opfer fordere. Am
Rande wird hier auch ein Grund genannt, welcher diesen oft kritisierten,
großflächigen Einsatz ungelenkter, aber sehr schwerer Munition jenseits
der damit verbundenen und vermutlich auch beabsichtigten Grausamkeit
begründet. Die teurere, präzisere Munition sollte für den Fall „gespart“
werden, falls doch noch andere, militärisch schlagkräftigere Akteure aus
der Region in größerem Stil in den Konflikt eingreifen sollten.
Völkerrechtlich besonders problematisch erscheint eine Entscheidung,
welche die israelische Armeeführung getroffen habe und die im
Zusammenhang mit Daddy's Home? zu stehen scheint. Mehrere Quellen hätten
demnach angegeben, dass identifizierte Ziele systematisch und
absichtlich nicht in militärisch genutzten Räumlichkeiten angegriffen
worden seien, während sie sich (zumindest mutmaßlich) an der
militärischen Auseinandersetzung beteiligt hätten, sondern eben wenn sie
ihre privaten Unterkünfte betreten hätten, weil dies einfacher sei. Der
Vorwurf, dass damit eine Absicht verbunden wäre, die ganze Familie zu
bestrafen und auszulöschen, wird in diesem Zusammenhang nicht erhoben -
er drängt sich jedoch auf.
Gegendarstellung der IDF
Der Artikel von Yuval Abraham zu Lavender und Daddy's Home? wurde in
Kooperation mit dem britischen Guardian veröffentlicht, der am selben
Tag seinerseits einen Beitrag über die Recherchen von Abraham
herausbrachte und eine Stellungnahme der IDF veröffentlichte.[4]
Am deutlichsten weisen die israelischen Streitkräfte darin den Vorwurf
zurück, dass irgendeine Richtlinie („policy“) existiere „zehntausende
Menschen in ihren Wohnungen zu töten“. Der Existenz der Software
„Daddy's Home?“ und auch einer weit verbreiteten Praxis, vermeintliche
Militante unter Inkaufnahme ziviler Opfer in ihrer Wohnstätte zu töten,
wird damit jedoch genau genommen nicht widersprochen. Es wird jedoch
ausführlich versichert, dass die IDF ihren völkerrechtlichen
Verpflichtungen nachkämen und ihre Protokolle vorschreiben würden, dass
„für jedes Ziel eine individuelle Bewertung des angestrebten
militärischen Vorteils und der erwarteten Kollateralschäden“ vorgenommen
würde. „Die IDF führen keine Angriffe durch, wenn die erwarteten
Kollateralschäden in einem exzessiven Verhältnis zum militärischen
Nutzen stehen… Die IDF überprüfen Ziele vor der Durchführung eines
Angriffs und wählen die angemessene Munition in Übereinstimmung mit
operationellen und humanitären Erwägungen unter Berücksichtigung der
Einschätzungen zu strukturellen und geografischen Eigenschaften des
Ziels, der Umgebung des Ziels, möglichen Auswirkungen auf Zivilisten und
kritische Infrastrukturen in der Nähe und weiteren [Variablen].“ Diese
Formulierungen sind nahezu deckungsgleich mit den völkerrechtlichen
Vorgaben. Wie glaubwürdig sie angesichts des Ausmaßes der Zerstörungen
und der vagen Angaben über getötete Kombattanten sind, wird freilich
unterschiedlich bewertet und beschäftigt gerade unterschiedliche
internationale Gerichte.
Ausführlicher ist die Stellungnahmen auch zum Einsatz von KI bei der
Zielfindung: „Anders als behauptet wird, nutzen die IDF kein KI-System,
das Terroristen identifiziert oder vorhersagt, ob eine Person ein
Terrorist ist. Informations-Systeme sind lediglich Werkzeuge für
Analysten im Prozess der Zielidentifikation. Unserer Richtlinien sehen
vor, dass Analysten unabhängige Untersuchungen durchführen, um zu
verifizieren, dass die Ziele den relevanten Definitionen entsprechen in
Übereinstimmung mit dem internationalen Recht und weiteren
Einschränkungen, die in unseren Richtlinien festgelegt wurden.“
Bei dem angesprochenen „System“ (gemeint ist vermutlich Lavender) handle
es sich „nicht um ein System, sondern einfach um eine Datenbank, deren
Zweck darin besteht, Aufklärungsdaten miteinander zu verknüpfen und
aktuelle Ebenen von Informationen zu militärischen Angehörigen
terroristischer Organisationen zu erzeugen. Es stellt keine Liste mit
bestätigten militärischen Angehörigen dar, die für Angriffe autorisiert
wären.“
Tatsächlich kann hier an einigen Punkten beides wahr sein: Darstellung
und Gegendarstellung. Die Grenzen zwischen einer Datenbank, die
Informationen „verknüpft“ bzw. aufarbeitet und einer Künstlichen
Intelligenz sind eine Frage der Definition und tw. so fließend, wie die
Grenze zwischen einem System, das eine Datenbank ist und einer KI, die
auf diese zugreift. Wie gesagt legt auch der Beitrag von Abrahams nicht
unbedingt nahe, dass hier grundlegend neue Technologien zum Einsatz
kommen. Der Knackpunkt ist allerdings das unscheinbare Wort
„unabhängig“. Wenn die Informationssysteme Werkzeuge sind, welche die
Informationen aufbereiten, ist unwahrscheinlich, dass die Analysten
wirklich „unabhängig“ von diesen entscheiden. Ob bereits bei 20 Sekunden
oder auch drei Minuten auf der Grundlage dieser (und anderer) Werkzeuge
von einer „unabhängigen Überprüfung“ gesprochen werden kann, ist
wiederum Definitionsfrage. Diese Definitionen werden gerade verschoben
und ausgehandelt. Das Verhältnis zwischen den Eigendynamiken der Technik
und der vermeintlichen menschlichen Kontrolle ist prekär und mit jedem
Krieg und jedem Massaker verändert es sich weiter zulasten des gesunden
Menschenverstandes.
Anmerkungen
[1] Yuval Abraham: ‘A mass assassination factory’ - Inside Israel’s
calculated bombing of Gaza, 30.11.2023,
https://www.972mag.com/mass-assassination-factory-israel-calculated-bombing-gaza/
[2] Christoph Marischka: Gaza - KI-basierte Bombardierung,
IMI-Standpunkt 2023/049, 8.12.2024,
https://www.imi-online.de/2023/12/08/gaza-ki-basierte-bombardierung/.
[3] Yuval Abraham: ‘Lavender’ - The AI machine directing Israel’s
bombing spree in Gaza, 3.4.2024,
https://www.972mag.com/lavender-ai-israeli-army-gaza/.
[4] IDF via theguardian.com: Israel Defence Forces’ response to claims
about use of ‘Lavender’ AI database in Gaza, 3.4.2024,
https://www.theguardian.com/world/2024/apr/03/israel-defence-forces-response-to-claims-about-use-of-lavender-ai-database-in-gaza.
IMI-List - Der Infoverteiler der
Informationsstelle Militarisierung
Hechingerstr. 203
72072 Tübingen
imi@imi-online.de
Redaktion: IMI / Jürgen Wagner / Christoph Marischka
ISSN: 1611-2563
https://www.imi-online.de/mailingliste/
Sie können die IMI durch Spenden unterstützen oder indem Sie Mitglied werden (http://www.imi-online.de/mitglied-werden/).
Spendenkonto:
IMI e.V.
DE64 6415 0020 0001 6628 32 (IBAN)
bei der KSK Tübingen (BIC: SOLADES1TUB)
Abonnieren
Kommentare zum Post (Atom)
Keine Kommentare:
Kommentar veröffentlichen