Montag, 12. Juli 2021

Kunstareal-Fest 2021

Vom 16. bis zum 21. Juli findet in München wieder ein Kunstareal-Fest statt. Grundsätzlich halte ich Formate wie dieses Kunstareal-Fest und die Lange Nacht der Münchner Museen für ganz sinnvoll, so lange sie sich irgendwie rechnen und von den Besuchern gut angenommen werden. Wenn sie von den Besuchern gut angenommen wurden, dann gab es aber in der Vergangenheit zwangsläufig Zusammenballungen von Besuchern. Seien es bei den Museumsnächten die teilweise proppevollen Shuttle-Busse oder die größeren Gruppen von Wartenden, wenn schubweise eingelassen wurde. Oder im Fall des Kunstareal-Festes 2015 die lange Schlange vor der Essens- und Getränkeausgabe in der Glyptothek oder die vielen Interessierten an der Humanoiden-Vorführung. Man wird das wohl schon mit Voranmeldungen Corona-verträglich hinkriegen, anderseits sollte das auch zu Lasten der Vorteile das Kunstareal-Festes gehen.

Freitag, 18. Juni 2021

Process Mining

Das „Data Mining“ hatte ich schon letztes Jahr in einem Blogeintrag über die Künstliche Intelligenz erwähnt. Die Wikipedia meint, es handelt es sich bei der Bezeichnung um einen „misnomer“, weil es beim Data Mining nicht um den Abbau von Daten, sondern um das Entdecken von Mustern in Daten geht. Ich hatte Anwendungsbeispiele wie die Warenkorbanalyse und die Kundensegmentierung genannt. Bei der Warenkorbanalyse wäre der Klassiker für ein entdecktes Muster die Erkenntnis, daß der Kauf von Artikel X häufig im Zusammenhang mit dem Kauf von Artikel Y steht. Bei der Kundensegmentierung entsprächen den erkannten Mustern die aus den vorhandenen Kundendaten erkannten Kundengruppen und Angaben, mit welchen Merkmalen sich diese Gruppen voneinander abgrenzen lassen.

Die Wikipedia sortiert Data Mining lesenswert in eine größere zeitliche Entwicklung ein. Aus der Formulierung, daß um 1990 die Bezeichnung „Data Mining“ in der „database community“ auftauchte, möge man aber nicht schließen, daß seinerzeit hierzulande schon eine größere Zahl von Datenbankleuten mit dieser Bezeichnung etwas anfangen konnte. Eine „breitere Bekanntheit“ dürfte erst mit einem Artikel wie „Schwarze Magie - Knowledge Discovery: Suche nach verborgenen Schätzen“ in der iX vom August 1997 begonnen haben. Die Bezeichnung „Knowledge Discovery“ wurde in diesem Artikel synonym zu „Data Mining“ verwendet. Im Artikel wurde als Anlaufpunkt im Netz die Website www.kdnuggets.com genannt. Die spielt heute noch eine prominente Rolle. Und die „Nuggets“ bringen auch gut auf den Punkt, was man in den Daten sucht.

Ich hatte letztes Jahr erwähnt, daß bei meinem Erstversuch mit dem Algorithmus für die Warenkorbanalyse ausschließlich uninteressante Regeln herauskamen. Als Testdaten hatte ich aber auch nur wenige hundert Datensätze verwendet. Ein geeigneteres Biotop für solche Algorithmen dürften stattdessen die immensen Mengen von Verkaufsdaten derjenigen Firmen gewesen sein, die damals in großem Umfang versuchten ihre Kundschaft mit Kundenkarten zu beglücken. Man sollte in solchen Firmen auch an das direkte Umfeld um die Datenanalyse herum denken. Es mußten damals Personen involviert gewesen sein, die sich über Änderungen bei den Angeboten Gedanken machten, damit sich die Datenanalysten auch lohnten. Das Management mußte wissen, um was es geht und hinter der Sache stehen. Man kann zu dem großen Rad, das sich damals zu drehen begann, auch die Welt außerhalb der direkt betroffenen Firmen hinzunehmen, die sich mittels Artikeln darüber informierte, was man mit so großen Datenmengen machen kann.

Wie auch schon erwähnt, ist der Einstieg in das Data Mining aber relativ einfach. Damals schon hatte ich eine Demodiskette mitbekommen, bald darauf konnte man ganze Anwendungspakete herunterladen. Ich könnte mir vorstellen, daß man bei passender Datenlage selbst mit schnell erworbenen Data-Mining-Fähigkeiten Anfangserfolge erzielen kann. Man hat ja professionelle Algrorithmen zur Verfügung. Für einen substanzielleren Schritt in die Zukunft müßte aber aus meiner Sicht schon ein irgendwie ausgestaltetes größeres Rad gedreht werden. Ich weiß nicht, wie da die Aussichten in meinem bebloggten Bereich sind. Hinsichtlich dem Interesse drumherum ist für mich ein frühes virtuelles Museum ein Menetekel. Man könnte auf eine Vorreiterrolle stolz sein und versuchen darauf aufzubauen, aber dieses virtuelle Museum hing schon vor Jahren in den Seilen, momentan ist es anscheinend gar nicht mehr erreichbar. Vor Jahren hatte ich schon das Gefühl, daß dieses Projekt niemand mehr von dem Museum, dem es zugeordnet war, kannte. In diesem Sinne fände ich jedenfalls ganz interessant, etwas über die Resonanz von anderen Museen auf ein Projekt des Hasso-Plattner-Instituts (HPI) mit dem Museum Barberini zu erfahren. Es gibt zum Projekt einen sehr hörenswerten Podcast „Wie Museumserlebnisse dank Daten-Analysen verbessert werden können“. Das Museum Barberini hatte hier zwar gegenüber anderen Museen den Vorteil des kompetenten und sehr arbeitsstundenintensiven Anschubs durch das Hasso-Plattner-Institut (HPI). Anderseits sind die Ergebnisse auf Github offen gelegt. Andere Museen könnten da reinsehen und darauf aufbauen.

Ab Minute 7:37 geht es im verlinkten Podcast um die Museumsapp des Museums Barberini, die auch als Audioguide nutzbar ist und mit der man dann sehen kann, wie die Leute durch das Museum laufen und wie lange sie wo stehen bleiben. Abstrahiert gesagt erhält man durch die Museumsapp ein Event-Log und kann dieses mittels Process-Mining-Algorithmen auswerten. Wesentlich ist da die Orientierung an dem Prozess, für dessen Event-Log man ggf. auf unterschiedliche Quellen zugreifen muß. Im Falle des Prozesses „Museumsbesuch“ reichen die über die Museumsapp erhaltenen Daten. Bei einem Geschäftsprozess, der mit einem Posteingang beginnt und mit einer Sachbearbeitung weitergeht und zu einem Antwortschreiben oder einer weiteren Bearbeitung führt, müßte man auf unterschiedliche Quellen zugreifen. Man kann dann aus dem Event-Log wie für die Museumsapp beschrieben verfolgen, wie sich der Prozess in der Praxis abspielt. Je nach Gegebenheiten kann damit Unterschiedliches entdeckt werden. Man wird sich meist vorab überlegt haben, wie die Prozesse verlaufen werden. Durch Auswertungen könnte sich das bestätigen, man könnte nicht planbare Ergänzungen wie etwa Zahlenverteilungen zum Geplanten finden, man könnte aber auch wesentliche Abweichungen entdecken.

Zum Process Mining wird schon länger ein MOOC bei Coursera angeboten. Eventuell ist dieser Kurs in jüngerer Vergangenheit nicht mehr upgedatet worden, denn Wil van der Aalst ist laut Wikipedia nun Professor an der RWTH Aachen und war früher Professor an der Technischen Universität Eindhoven, während Coursera noch die Universität Eindhoven angibt.

Anlaß für diesen Blogeintrag über das Process Mining war aber nun der neue OpenHPI-Kurs „A Step-by-Step Introduction to Process Mining“ von Prof. Mathias Weske und Prof. Henrik Leopold. In den wollte ich aber erst selbst hineinsehen, bevor ich etwas über ihn schreibe. Das habe ich inklusive der Hausarbeiten erst auf den letzten Drücker geschafft. D.h. der Kurs ist seit ein paar Wochen zuende. Das Kursmaterial steht aber weiterhin kostenlos für ein Selbststudium verfügbar.

Den Kurs von Prof. van der Aalst dürfte, falls fehlende Aktualisierungen keine zu großen Schwierigkeiten machen, aus mehreren Gründen die interessantere Option sein: zum einen ist der Lehrumfang deutlich umfangreicher als beim OpenHPI-Kurs (deutlich mehr Lehrmaterial pro Woche und vier statt zwei Wochen Kursdauer). Zum anderen gibt es von Prof. van der Aalst ein Lehrbuch, das auch im OpenHPI-Kurs empfohlen wird.

Hinsichtlich dem OpenHPI-Kurs ist noch seine Nähe zu der Spezifikationssprachen für Geschäftsprozesse „Business Process Model and Notation“ (BPMN) zu erwähnen. Prozesse kann man auf unterschiedliche Weise darstellen. Der Aufwand, sich in die Darstellungsform einzuarbeiten, hält sich für Kurszwecke üblicherweise in Grenzen. Der OpenHPI-Kurs ist bei der Sprache auf BPMN hin orientiert und ergänzt damit eine Reihe von BPMN-Kursen von Prof. Weske, die in den vergangenen Jahren von OpenHPI angeboten wurden und noch für das Selbststudium zur Verfügung stehen.

Donnerstag, 3. Juni 2021

Wiederherstellungen im Giebelfeld der Münchner Glyptothek

2011 waren in meinem Blog aus dem Giebelfeld der Münchner Glyptothek verschwundene Skulpturen ein Thema.

Das Verschwinden geschah unter dem Hintergrund von noch heute sichtbaren Kriegsbeschädigungen des Giebelfeldes. Auffallend etwa der fehlende Unterarm der Athene Ergane in der Mitte oder die fehlenden Köpfe der beiden Skulpturen rechts und links von ihr. Weniger auffallend ist die fehlende Spes, die sich früher auf einem Dreifuß im Kniebereich des Tonbildners direkt links neben der Athene befand. Der Tonbildner sollte nicht dauernd die Athene ansehen, sondern sich mit dem Modellieren der Spes beschäftigen. Der jahrzehntelang seltsam leere Bereich dem rechten Ende des Giebelfeldes zu dürfte hingegen schon einigen aufgefallen sein. Aber nur die wenigsten werden gewußt haben, daß hier einst die „Töpferwaren“ Stamnos ( = antikes Vorrats-Gefäß), Lekythos ( = griechische Vase für Olivenöl) und Kylix ( = flache antike Trinkschale mit Handgriffen) standen. Diese „Töpferwaren“ sind im Rahmen der aktuellen Sanierung der Glyptothek wieder im Giebelfeld aufgestellt worden.

Giebelfeld der Münchner Glyptothek 2011

In meinem Blogeintrag von 2011 ging es darum, daß manche Teile erst nach dem Krieg verschwanden. Dr. Ernst Theodor Mayer, auf dessen Angaben mein damaliger Text beruhte, hatte als direkter Nachfahre des Bildhauers Ernst Mayer, der die Spes und die Töpferwaren seinerzeit ausführte, die Spes noch 1959 im Depot gesehen. Die drei Töpferwaren waren sogar noch nach dem Krieg im Giebelfeld aufgestellt und wurden erst später entfernt. Man kann diesen Sachverhalt via dem Foto aus dem Bildarchiv Foto Marburg „Mittelbau, Portikus, kriegszerstört 1946 Bilddatei-Nr. fm202485“ recht gut zu erkennen. An Vorkriegsbildern böte das Bildarchiv etwa das ältere Foto „Aufnahme-Nr. KBB 811“ und das kurz vor dem Krieg entstandene Foto „Aufnahme-Nr. 75.571“

Giebelfeld der Münchner Glyptothek 2021

Mir sind die wieder aufgestellten Töpferwaren anläßlich des in meinem Eintrag zur Ausstellung „Bertel Thorvaldsen und Ludwig I. Der dänische Bildhauer in bayerischem Auftrag“ erwähnten Tweets aufgefallen. Im dort eingebundenen Video wollte der Sammlungsdirektor der Staatlichen Antikensammlungen und Glyptothek München Dr. Florian Knauß in seiner Rede die Sanierung nicht in den Vordergrund stellen, da die Bauaußenarbeiten noch bis zum Sommer fortgeführt werden.

D.h. die Sanierung wird nach ihrem Abschluß ein Thema werden und bei dieser Gelegenheit wäre es nett auch mehr über die Veränderungen im Giebelfeld erfahren zu können. Die Giebelfeld-Arbeiten sind im engen Kontext zu Bertel Thorvaldsen und Ludwig I. entstanden, die aktuell in der Glytothek gewürdigt werden. Das Giebelfeld und seine Historie breiter zu thematisieren läge folglich nicht so sehr aus der Welt. Vielleicht erfahren wir dann, ob die neu aufgestellten Teile Repliken sind oder ob es sich um die Orginale handelt. Und das Schicksal der kleinen Spes bleibt natürlich auch spannend. Auf dem Foto von 1938 kann ich sie auch nicht erkennen, also sie muß einiges erlebt haben - mehr als hundert Jahre im Giebelfeld, dann Depot und wo sie sonst noch hingekommen ist.