Deutsch Intern
Faculty of Mathematics and Computer Science

Was macht Kooperationen erfolgreich?

07/11/2018

Kooperationen spielen in der Wissenschaft und im Bereich Innovation eine große Rolle. Wie genau entstehen erfolgreiche Netzwerke und was macht sie aus? Informatiker der Universität Würzburg erforschen dies – in einem Verbundprojekt.

double exposure image of virtual human 3dillustration on blue circuit board background represent artificial 
intelligence AI technology
Informatikprofessor Andreas Hotho möchte die Co-Autorenschaft bei wissenschaftlichen Veröffentlichungen untersuchen. Dafür analysieren Hotho und Doktorand Tobias Koopmann sehr große Datenmengen und entwickeln Modelle. Dabei hilft Künstliche Intelligenz (KI). (Foto: Thinkstock) (Image: This content is subject to copyright.)

Cluster werden gebildet, Partnerschaften eingegangen, Verbünde geschmiedet: Immer mit dem Ziel, ein Forschungsvorhaben möglichst gut durchzuführen. Es gibt dabei Erfahrungswerte, wie Cluster, Verbünde und Partnerschaften gut funktionieren. Ein neues Forschungsprojekt möchte es nun aber genauer wissen: Was genau macht solche Vorhaben erfolgreich? Mit dabei ist Professor Andreas Hotho von der Julius-Maximilians-Universität Würzburg (JMU), dessen Teilprojekt mit 270.000 Euro unterstützt wird.

Die leitende Hypothese des Projekts „Regio“ ist, dass für den Erfolg von wissenschaftlichen Forschungsverbünden und regionalen Innovationsclustern von großer Bedeutung ist, wie die wissenschaftliche Expertise in einem Fach in einer Region verteilt ist. Dabei kann der Begriff Region geographisch oder auch inhaltlich umrissen sein.

Verdeckte Netzwerke sichtbar machen

Das Würzburger Regio-Teilprojekt betrifft den Bereich „AuthorTrails“. Informatikprofessor Hotho möchte die Co-Autorenschaft bei wissenschaftlichen Veröffentlichungen untersuchen. „Wir versuchen, diese Beziehungen abzubilden und zu extrahieren. Es geht darum, Gruppen bilden und Muster erkennen zu können“, sagt Hotho. Die Ergebnisse werden dann mit den Daten der Forschungsverbünde, etwa von der Deutschen Forschungsgemeinschaft (DFG), verglichen.

Hier kommt der „Hyptrails“-Ansatz zum Tragen. Hyptrails erlaubt den Vergleich von mehreren Hypothesen bezüglich eines gegebenen Datensatzes. Man könnte Hypothesen zum Publikationsverhalten (Wer hat wann mit wem zu welchem Thema wo publiziert?), Hypothesen zur Wahrnehmung und Darstellung von Forschungsergebnissen im Internet (Welches Blog oder welche Webseite berichtet über bestimmte Ergebnisse?) und in den Sozialen Medien (Welche Publikationen werden auf Twitter und Facebook erfolgreich von wichtigen Forschern und Verbünden beworben?) aufstellen und sie mit dem eigentlichen Veröffentlichungsverhalten vergleichen.

Denkbar wäre, dass dabei Netzwerke sichtbar werden, die in der Zusammenarbeit sehr aktiv und erfolgreich sind, jedoch noch nicht explizit als Verbund auftreten. Hier könnte man Empfehlungen aussprechen. Zudem könnte auch eine Region begutachtet werden, mit Blick auf ihre Potenziale in einem Fachgebiet. Oder einzelne Regionen und Städte können prüfen lassen, wie ausgeprägt ein Netzwerk in einem bestimmten Thema bereits ist, um hier die Regionalentwicklung ein wenig weiter voranzutreiben.

Künstliche Intelligenz in der Anwendung

Konkrete Aufgaben für Hotho und seinen Doktoranden Tobias Koopmann: sehr große Datenmengen analysieren und Modelle entwickeln. Dabei hilft Künstliche Intelligenz (KI). Konkret bedeutet dies: Maschinelles Lernen (Machine Learning), Deep Learning und Data-Mining. Beim Maschinellen Lernen setzen sich Computer mit historischen Daten auseinander und sind dann in der Lage, neue Vorschläge und Perspektiven zu berechnen: „Lernen aus Beispielen“, sagt Hotho.

Deep-Learning beschreibt das Wiederaufleben neuronaler Netze in der Informatik. „Dieses Teilgebiet des Maschinellen Lernens ist durch neuronale Netze inspiriert“, sagt Hotho. Es handelt sich dabei um grundsätzlich relativ einfache Funktionen, die durch die Verknüpfung jedoch sehr komplex werden können und deren Parameter aus den Beispielen gelernt werden.

Beim Data-Mining, was auf Deutsch so viel wie „Daten abbauen“ bedeutet, steht die Analyse größter Datenmengen im Fokus. „Wie kann ich aus den Daten, die ich habe, große, aussagekräftige Modelle erstellen und Muster entdecken“, erklärt Hotho die Aufgabe dabei.

Suche in „Web of Science” und Co.

Als Datenquelle kommt, neben Datensätzen der DFG und anderen Quellen, auch das „Web of Science“ zum Einsatz. Dies ist ein kostenpflichtiges Online-Angebot mit mehreren wissenschaftlichen Online-Zitations- und Literaturdatenbanken für Forschende weltweit. Diese Daten werden dann auch in eine zeitliche Relation gesetzt. „Wir versuchen, über Zeit Muster zu erkennen, die uns Modelle erstellen lassen.“

Das Gute an den dann vorliegenden Modellen: Hier können in Zukunft einzelne Parameter verändert werden und somit der Einfluss von Veränderungen, etwa durch gezielte Eingriffe, vorhergesagt werden. Man wird nicht genau sagen können, was einen Verbund erfolgreich macht. Jedoch lässt sich durch die Arbeit von Hotho und Kollegen in Zukunft leichter ermitteln, wie hoch die Wahrscheinlichkeit ist, dass eine Kooperation in einem bestimmten Bereich, abhängig von mehreren Faktoren, erfolgreich sein kann.

Die weiteren Mitglieder des Regio-Konsortiums sind Professor Guido Bünstorf vom International Center for Higher Education Research Kassel, Robert Jäschke vom Institut für Bibliotheks- und Informationswissenschaft an der Berliner Humboldt-Universität und Professor Gerd Stumme vom Forschungszentrum L3S in Hannover.

Das Projekt wird in der Linie „Quantitative Wissenschaftsforschung“ vom Bundesministerium für Bildung und Forschung unterstützt. Ein Ziel der Förderlinie ist es, mit neuen Kennzahlen und einem Mehr an Wissen Forschungspotenziale noch besser auszuschöpfen.

Kontakt

Professor Dr. Andreas Hotho, Professur für Informatik (Data Mining und Information Retrieval) am Lehrstuhl für Informatik VI (Leiter), T.: +49 931 31-88453
E-Mail: hotho@informatik.uni-wuerzburg.de

By Marco Bosch