Sprungmarken

Servicenavigation

Hauptnavigation

Sie sind hier:

Hauptinhalt

Interaktion zwischen Nutzern und Optimierungsverfahren

 

Die Erfahrung zeigt, dass effiziente Algorithmen zur Lösung von Entwurfs- und Entscheidungsproblemen nicht automatisch im praktischen Einsatz akzeptiert werden [AD+06], [VM+03]. Die fehlende Akzeptanz rührt im Wesentlichen daher, dass Optimierungsalgorithmen nicht den Erwartungen und der Arbeitsweise des menschlichen Nutzers entsprechen. Dafür können folgende Gründen vorliegen:

 

  • Häufig ist ein Entscheidungsproblem bei der algorithmischen Lösung nicht vollständig modellierbar und die vorgenommenen Einschränkungen werden nicht explizit genug dargestellt, sodass die vorgeschlagenen Lösungen nicht allen Anforderungen der Praxis gerecht werden. Dadurch verliert die Planung in der Realität nicht nur an Relevanz, sondern es sinkt insbesondere auch bei wiederholtem Auftreten von – aus Sicht des Nutzers – ähnlichen Situationen die Akzeptanz des Nutzers..

  • Spezialwissen über Unsicherheiten, das der menschliche Entscheider intuitiv berücksichtigt und in qualitativen Parametern wie der „Reputation“ eines Lieferanten oder der „Verlässlichkeit“ einer Anlage oder eines Mitarbeiters ausdrücken würde, lässt sich nur schwer modellieren und wird bisher kaum berücksichtigt.

  • Es können Überraschungsmomente entstehen, weil automatisierte Algorithmen eine Aufgabe oft anders lösen, als Menschen es tun würden. Probleme ergeben sich dann, wenn das Bedienungspersonal annimmt, dass die algorithmische Lösung versagt habe und infolgedessen in ungeeigneter Weise eingreift [SW97] oder das System ganz ablehnt.

  • Eine automatische Bestimmung der besten Lösung ist oft nicht möglich, da Kriterien nicht miteinander verrechenbar sind (z. B. bei multikriteriellen Optimierungsproblemen) oder - bedingt durch Unsicherheiten in den Modellparametern - keine eindeutig beste Lösung existiert. Somit muss der Mensch als letzte Instanz aus einer Vielzahl von Lösungen eine geeignete Lösung auswählen. Ist allerdings die Darstellung der Lösungsmöglichkeiten für den Nutzer nicht nachvollziehbar, kann dies den Nutzer überfordern oder verunsichern.

  • Unsicherheiten in den Modellparametern oder Nebenbedingungen führen zu Unsicherheiten in den ermittelten Lösungen, die für den Nutzer ohne weitergehende Informationen über die Sensitivität der Lösung bezüglich einzelner Parameter oder Annahmen kaum zu interpretieren sind.

 

Bei den meisten realen Entscheidungsproblemen übernimmt der menschliche Bediener die Entscheidungsfunktion, da Optimierungsverfahren nur einen ausgewählten Ausschnitt aus der realen Welt berücksichtigen können. Zudem ist die Haftung bei Fehlentscheidungen ohne menschlichen Einfluss problematisch. Dies gilt auch dann, wenn automatische Systeme im Mittel zu mehr Sicherheit führen würden [Be05]. Somit ist eine Funktionsteilung zwischen Mensch und Maschine unumgänglich. Das Zusammenspiel von Mensch und Technik kann nur dann optimal stattfinden, wenn zuverlässige Erkenntnisse über die Stärken und Schwächen des Menschen berücksichtigt werden. Da Optimierungsprobleme vor allem die kognitiven Fähigkeiten des Menschen fordern, sollte sich eine benutzerzentrierte Interaktion auch an den kognitiven Vorgängen (z. B. Wahrnehmung, Gedächtnis, Aufmerksamkeit, Lernen, Entscheidung und Handlungssteuerung) und den Vorkenntnissen orientieren [PZ08]. Eine wichtige Rolle spielt dabei die Präsentation von Unsicherheiten, da sich bei Menschen typische Fehleinschätzungen und Verzerrungen beim Umgang mit unsicheren Informationen zeigen [GM87].

 

Darüber hinaus sind kooperative Algorithmen wünschenswert, bei denen der Nutzer das Lösungsverhalten (auf Basis seiner Erfahrungen) während des Lösungsprozesses steuern kann - beispielsweise durch Ausschluss bestimmter Alternativen, durch Fokussierung der Suche auf bestimmte Teilräume oder durch adaptive Änderung der Gewichtung von Kriterien. Auf diese Weise könnten Kriterien, die sich nur eingeschränkt formalisieren lassen, in der Praxis aber gleichwohl zu guten Problemlösungen führen (wie zum Beispiel: Erfahrungswissen), in die Optimierung eingefügt werden, ohne dass auf die Nutzung von Optimierungsalgorithmen verzichtet werden muss. Hierzu soll untersucht werden, wie Algorithmen aufgebaut sein müssen, damit sie die Kooperation mit dem Nutzer unterstützen, ohne die algorithmische Leistungsfähigkeit wesentlich zu beeinträchtigen. Daher werden im Rahmen des GKs Ansätze und Methoden aus der Psychologie mit den algorithmischen Forschungsfragen verbunden.

 

Um die geplanten Arbeiten durchzuführen ist eine enge Kooperation zwischen den Fachdisziplinen notwendig. Arbeiten zur Benutzerinteraktion erfordern empirische Studien, die nur realisierbar sind, wenn eine Forschungsumgebung existiert, in der Optimierungsalgorithmen und Fallbeispiele integriert sind und die eine Benutzerinteraktion unterstützt. Eine solche Forschungsumgebung soll im Rahmen des GKs erstellt werden. Vorarbeiten sind in den Gruppen der Antragsteller vorhanden. In den naturwissenschaftlich-technischen Gruppen besteht eine langjährige Erfahrung in der Realisierung von Softwaresystemen zur Systemanalyse und –optimierung, in den psychologisch-ergonomischen Gruppen eine langjährige Erfahrung mit psychologischen Untersuchungsmethoden und der Erforschung der Mensch-Maschine-Interaktion.

 

Für weitere Information:

Peter Buchholz, Christoph Buchheim, Uwe Clausen, Gerhard Rinkenauer

 

Literatur:

[AD+06]
J. A. Aloysius, F. D. Davis, D. D. Wilson, A. R. Taylor, J. E. Kottemann. User acceptance of multi-criteria decision support systems: The impact of preference elicitation techniques. European Journal of Operational Research, 169, 2006, 273-285.

[Be05]
C. Bewersdorf. Zulassung und Haftung bei Fahrerassistenzsystemen im Straßenverkehr. Berlin, Duncker & Humblot, 2005.

[GM87]
G. Gigerenzer, D. J. Murray. Cognition as intuitive statistics. Hillsdale, NJ: Erlbaum, 1987.

[PZ08]
R. W. Proctor, T. Van Zandt. Human factors in simple and complex systems (2nd ed.). Boca Raton, FL. CRC Press, 2008.

[SW97]
N. Sarter, D. D. Woods. Teamplay with a powerful and independent agent: A corpus of operational experiences and automation surprises on the Airbus A-320. Human Factors 39, 1997, 553-569.

[VM+03]
V. Venkatesh, M. G. Morris, G. B. Davis, F. D. Davis. User acceptance of information technology: Toward a unified view, MIS Quarterly 27, 2003, 425–478.