Prof. Dr. Dr. Birger Kollmeier: „In 80% aller Hörgeräte steckt ein kleines Stück Oldenburg”

hearing4all


    Sprecher der Exzellenzclusters „Hearing4all": der Mediziner und Physiker Prof. Dr. Dr. Birger Kollmeier

Im Herbst vergangenen Jahres wurde die Förderung des Exzellenzclusters „Hearing4all” durch Bund und Länder um sieben weitere Jahre verlängert. Damit bestätigen die Hörforscher aus Oldenburg und Hannover ihre bisherige Arbeit und können weiter Forschung auf Spitzenniveau betreiben. Was der Cluster erforscht, welche Ergebnisse er bereits hervorbrachte und wie diese ihren Weg zu den Hörsystem-Nutzern finden können, darüber sprachen wir mit Prof. Dr. Dr. Birger Kollmeier, dem Sprecher des Exzellenzclusters. 

Herr Prof. Kollmeier, im Oktober vergangenen Jahres erhielt der Exzellenzcluster „Hearing4all“ eine Förderung der Exzellenzstrategie von Bund und Ländern für sieben weitere Jahre. Was bedeutet die Verlängerung für Ihre Arbeit?
Der Name „Hearing4all“ ist Programm. Hören für alle, bei allen Hörstörungen – von der subklinischen, bei der es eher um Hörunterstützung für Menschen geht, für die ein Hörgerät zu viel, kein Hörgerät aber schon zu wenig wäre, über Menschen mit einer mittelgradigen Hörminderung bis hin zur hochgradiger Hörminderung und Ertaubung. Das Konzept hat uns gut durch die erste Periode des Clusters getragen. Wir haben in diesen Bereichen entscheidende Fortschritte gemacht und uns Anfang 2018 der Begutachtung für eine Verlängerung des Exzellenzclusters gestellt. Die Auswahl- entscheidung fiel im September 2018. Dass die für uns positiv war, freut uns natürlich sehr. So haben wir nun eine Weiterführung für die kommenden sieben Jahre. Wobei es nicht einfach nur ein „weiter so“ ist. 

Sondern?
Ein progressives Konzept. Natürlich bauen wir auf den Ergebnissen auf, die wir in der ersten Phase erzielt haben. In der ersten Förderperiode von Hearing4all ist es uns gelungen, drei klassisch getrennte Bereiche  Diagnostik, Therapie, also besser arbeitende Hörsysteme, und die assistiven Geräte, also Hilfen für geringgradig Schwerhörende, miteinander zu verbinden. Für die zweite Periode haben wir nun vier Forschungsstränge aufgemacht, die auch die Expertise im Cluster abdecken. 

Welche Stränge sind das?
Im ersten geht es um das Aging Auditory System, also darum, wie das Altern unser Hörvermögen verändert. Wie können wir das charakterisieren? Da geht es zum Beispiel auch um die Frage, wie man die Interaktion zwischen Schwerhörigkeit und Demenz verstehen kann, sowie die positiven Effekte, die eine Hörgeräteversorgung darauf hat. Das greift auch schon eng in den zweiten Strang. In dem geht es darum, Hören für alle in die Breite zu bringen.


Probanden mit ähnlichen Audiogrammen, aber sehr unterschiedlichem binauralem breitbändigen Lautheitsempfinden. Grün: wie NH, rot: Viel empfindlicher als NH (Abbildung: HörTech gGmbH)

Wie meinen Sie das?
Wir wollen eine virtuelle Hörklinik aufbauen, die es ermöglicht, per Smartphone ein Hörscreening zu machen. Da geht es um Selbstdiagnostik sowie eine bessere Einsicht in das persönliche Hörvermögen. Außerdem geht es darum, darauf abgestimmte Hörlösungen per Smartphone zu simulieren, so dass man sozusagen schon mal reinhören kann. Möglich ist das, weil wir in der ersten Periode bestimmte Vorarbeiten geleistet haben. So entwickeln wir zum Beispiel das sogenannte Master Hearing Aid, eine Computerplattform, auf der wir moderne Lösungen für Hörsysteme simulieren können, auch mit Smartphones und Tablets oder über Netzwerke hinweg.

Sie simulieren die Signalverarbeitung so, dass sie auf Smartphone und Tablet läuft?
Die Vision ist, dass man selbst am Smartphone ausprobieren kann, welchen Effekt eine Hörgeräteversorgung haben kann. Dafür kann man mithilfe intelligenter Algorithmen selbst Einstellungen vornehmen, damit man zu einer Hörhilfe gelangt, die man sich auch vorstellen kann. 

Damit würden Sie Hörakustikern ein Stück weit die Arbeit wegnehmen.
Hörakustiker würden durch solche Möglichkeiten keinesfalls überflüssig, im Gegenteil! Im Prinzip würden wir in Zukunft höchstens die Einstiegsdroge liefern, zumal man bei einem manifesten Hörverlust mit einer selbst handhabbaren Lösung gar nicht zurechtkommen würde. Die älteren Mitmenschen von heute hätten wahrscheinlich auch noch ihre Probleme, das mit ihrem Smartphone zu machen. Jedoch kommt allmählich eine Generation in das entsprechende Alter, die schon beinahe zu den Digital Natives zählt. Und diese Generation erwartet, dass sie im Netz und auf ihren Smartphones etwas angeboten bekommt, womit sie zumindest austesten kann, was ihnen zum Beispiel eine Hörgeräteversorgung bringt. 

Wie würde das ablaufen? Über eine App? Und das Mikrofon des Telefons wäre wie das Mikrofon eines Hörsystems und hören würde man über Kopfhörer?
Das wäre eine Möglichkeit. Es gibt aber auch Mikrofon-Hörer-Kombinationen, die im Ohr und drahtlos sind. Damit ließe sich aber auch nur ein sehr limitierter Bereich einer Schwerhörigkeit kompensieren. Wir wollen eine Lösung anbieten, die auch international verfügbar ist, gerade auch in Entwicklungsländern. Wir würden damit zeigen, dass es sich lohnt, sich mit dem Thema auseinanderzusetzen und zu einer manifesten Hörgeräteversorgung zu kommen. Die virtuelle Hörklinik ersetzt keine medizinische Diagnose, gibt aber einen fundierten Eindruck, ob es sinnvoll ist, sich in die Hände eines Profis zu begeben.


Die Zukunft könnte in Richtung mobiler, kompakter Geräte gehen, die möglicherweise irgendwo am Ohr sitzen, sagt Birger Kollmeier
Sie sprachen eben von einem Master Hearing Aid. Was können wir uns darunter vorstellen?
Das ist eine Software, die auf einem PC läuft und ein Hörgerät mit genau bekannten Eigenschaften simuliert. Sie ahmt die Signalverarbeitung eines Hörgerätes nach, und führt sie für einen Audiologen auch kontrollierbar durch. Das lässt sich auch als eine Art Benchmark für ein Hörgerät nutzen. Uns ist es dadurch möglich herauszufinden, was mit einem Hörgerät maximal machbar ist. Was kann man bei optimaler Anpassung zum Beispiel an Sprachverständlichkeit erwarten? Das lässt sich damit sehr gut untersuchen. So können wir für jeden Patienten individuell anhand seines gemessenen Hörverlusts und entsprechenden Einstellungen am Master Hearing Aid vorhersagen, welchen Hörerfolg er haben könnte. Und wir können das auch nachmessen. Das ist eine Art Cross Check. Und damit sind wir dann auch schon beim dritten Strang: der Präzisionsmedizin in der Audiologie. 

Sie arbeiten daran, dass ein jeder eine absolut auf ihn zugeschnittene Lösung erhalten kann?
Wir wollen nicht bloß die rein empirische Anpassung von Hörgeräten, wir wollen eine Anpassung anhand der Eigenschaften des Hörsystems, die haargenau auf den Bedarf des Einzelnen zugeschnitten ist. Dafür müssen wir einerseits den Patienten in möglichst kurzer Messzeit genau charakterisieren. Und andererseits wollen wir dafür die Hörsysteme, Cochlea-Implantate oder sonstige Assistenzlösungen so konfigurieren, dass sie individuell passen. Durch Modelle sind wir da auch schon ein großes Stück vorangekommen, aber bis das für den Markt verfügbar ist, müssen noch viele Tests und Entwicklungen gemacht werden. Aber der Weg dahin ist vorgezeichnet. Wir wollen mit einem verträglichen Aufwand an Diagnostik die optimale Hörgeräteversorgung ermöglichen bzw. zumindest zeigen, dass sie so und so aussehen müsste. 


Der Matrixtest OLSA ist inzwischen in 20 Sprachen verfügbar (Foto: HörTech gGmbH)

Wird man als Hörakustiker im Fachbetrieb das Master Hearing Aid eines Tages nutzen können?
„Das Master Hearing Aid ist eine open-source Softwareplattform, die für nichtkommerzielle Zwecke von der HörTech gGmbH bereitgestellt und gepflegt wird. Sie wird aktuell vor allem von Wissenschaftlern eingesetzt, um zukunftsweisende Möglichkeiten der Hörgeräteversorgung und -algorithmen auszuprobieren und wissenschaftlich zu untersuchen. Es ist also kein Ersatz für ein oder gar ein besseres Hörgerät. Es ist aber durchaus angestrebt, dass in zukünftigen Produkten im Bereich der Diagnostik und Anpassung, die der Hör- akustiker in seinem Fachgeschäft einsetzen wird, ein Master Hearing Aid „unter der Haube“ eingesetzt wird – als eine Art „objektiver Maßstab“. Damit wird man auch testen können, wie nah man dem mit realen Hörgeräten kommt. Man erhält also auch ein Werkzeug, die Qualität der Anpassung zu überprüfen. 

Und welcher ist der vierte Forschungsstrang?
In dem geht es um die Geräte der Zukunft. Wie können wir die Grundlagen, die wir in den anderen Strängen erforscht haben, in Hardware-Lösungen umsetzen? Das geht von besseren Hörimplantaten und besseren Elektroden über bessere Kodierungsstrategien bis hin zu Hörgeräten und Prozessoren, die zum Beispiel mit tiefen neuronalen Netzen funktionieren. Auch die Möglichkeiten, die wir bei der Sprachdiagnostik haben, werden da mit einfließen. So würde man Hörgeräte immer intelligenter machen und ihnen auch ermöglichen, mitzudenken. 

Prof. Dr. Stefan Debener, der ebenfalls hier im Exzellenzcluster tätig ist, hielt auf dem Oticon Symposium 2018 einen Vortrag zu der Frage, ob Hörgeräte im Gehirn mithören können. Das klang spannend, aber auch noch sehr nach Zukunftsmusik …
Kollege Debener ist bei uns einer der Experten für Neuropsychologie. Er hat eine sehr kompakte, tragbare Apparatur entwickelt, cEEGrid, mit der man hinter dem Ohr das EEG ableiten kann, um daraus Schlüsse zu ziehen. Das Ziel ist, aus dem EEG den Hörwunsch des Trägers ableiten zu können. Jedoch kann man mit dieser Methode bisher eher langsam Informationen extrahieren. Zurzeit können wir damit zuverlässig sagen, ob jemand sich gerade sehr anstrengen muss. Und auch über die Augenposition erfährt man etwas, was wiederum für die Arbeit des Kollegen Hohmann wichtig ist, in der Gesten des Hörgeräteträgers ausgewertet werden. So ließe sich über die Augenbewegung, die Kopfbewegung und Körperbewegungen herausfinden, wohin ein Patient hören möchte. Man benötigt also, neben dem EEG, weitere Informationen. Das Ohr ist aber ein sehr guter Platz für Sensoren. So könnte das Hörgerät in Zukunft vielleicht Teil einer intelligenten Kommandozentrale am Ohr sein, über die man nicht nur die Akustik aufnimmt, sondern auch, wie und wo im Raum man sich bewegt. Man hätte die EEG-Informationen, die Augenbewegung bis hin zu Herz-Kreislauf-Parametern. Die Zukunft könnte also in Richtung mobiler, kompakter Geräte gehen, die möglicherweise irgendwo am Ohr sitzen. Dafür braucht es aber nicht nur das Gerät, sondern auch Sensoren und intelligente Elektronik. Diesen Zweig bringen wir zusammen mit HörTech und unserer Fraunhofergruppe jenseits reiner Hörtechnologie voran. 

Sie hatten eingangs von entscheidenden Fortschritten gesprochen, die der Cluster gemacht hat. Was sind die Meilensteine aus der ersten Periode von „Hearing4all“?
Sehr wichtig war für uns die Entwicklung des Matrixtests in über 20 Sprachen. Damit ist der Oldenburger Satztest in 20 anderen Sprachen verfügbar. Die Erkenntnisse, die wir erlangt haben, sind dabei eins zu eins auf die anderen Sprachen übertragbar und umgekehrt. Dadurch haben wir eine gemeinsame Forschungsbasis. Der zweite Meilenstein ist das Master Hearing Aid. Damit haben wir eine offene Forschungsplattform, die weltweit von zahlreichen Wissenschaftlern eingesetzt wird. Offen meint hier so etwas wie Linux für Hörgeräte. Der Kollege Mark Rene Schädler hat gezeigt, dass man sich mit Material für 120 Euro sein einfaches Forschungshörgerät auf Basis eines Raspberry Pi bauen kann. Die Software lädt man sich auf eine SD-Karte und ist im Prinzip sofort startbereit. 


Birger Kollmeier promovierte über 60 Leute, von denen etwa die hälfte heute in der internationalen Hörgeräte-Industrie arbeitet
Und das soll ein konkurrenzfähiges Hörgerät sein?
Nein, das ist eher eine Art Hörgerät für Bastler. Das ist auch keine ernstzunehmende Konkurrenz für die Profis. Sehr sinnvoll kann man dies allerdings in der Lehre einsetzen, und manchmal hat der eine oder andere Student oder Nachwuchswissenschaftler eine glorreiche Idee entwickelt, etwas, wovon alle profitieren können. Insofern öffnen wir damit also auch die Entwicklung für einen etwas breiteren Markt. 

Und weitere Meilensteine?
Das ist die Entwicklung von Modellen, mit denen wir etwa vorhersagen können, welchen Erfolg eine Hörgeräteversorgung haben kann. Hinzu kommt eine Reihe von Algorithmen zur Störschallunterdrückung bzw. zur Enthallung. Durch den Einsatz von Deep Learning ist hier schon einiges mehr möglich geworden, da hat der Kollege Simon Doclo interessante Entwicklungen gemacht. Interessant ist außerdem das „trueLOUDNESS“-Verfahren. Mit binauralem Hören hat man ja eine andere Lautheitswahrnehmung als bei monauralem. Dabei gibt es große Unterschiede bei Probanden mit ähnlichen Hörverlusten. Konventionell werden Hörgeräte jedoch links und rechts getrennt angepasst – und dann gehen die Nutzer raus auf die Straße, und manchem ist es dann viel zu laut, obwohl die Anpassung genau regelkonform erfolgte.

Sie meinen so etwas wie eine individuelle Lautheitswahrnehmung?
Ja, die hatte bisher keiner auf dem Schirm. Da war die Arbeit des Kollegen Oetting ein Meilenstein. Er konnte zeigen, wie unterschiedlich die Lautheitssummation bei binauralem Hören ist – bei Probanden mit gleichen Audiogrammen, vor allem bei Pegeln, bei denen es anfängt wehzutun. Die Antwort darauf sind Algorithmen, die auf beiden Ohren arbeiten und dabei den Summationseffekt berücksichtigen. Wir arbeiten dazu auch eng mit unseren holländischen Kollegen zusammen, um eine europäische Regel zur binauralen Anpassung zu entwickeln. 


Ein Grund zum Feiern: Sieben weitere Jahre „Hearing4all" (Foto: Universität Oldenburg)
Daran dürften die Hörgeräte-Hersteller sehr interessiert sein …
Die sind durchaus interessiert. Bis so etwas umgesetzt ist, dauert es aber. Wichtig war jedoch überhaupt die Entdeckung dieses Effekts, und wie man ihn präzise vermessen kann. Denn erst, wenn man das weiß, kann man auch Maßnahmen ergreifen. 

Auf der „Hearing4all“-Website steht, dass Hörgeräte den Nutzer oft nicht vollständig zufriedenstellen. Zielt das z. B. auf diesen Summationseffekt ab?
Ja. Ein weiterer Punkt ist die Störschallunterdrückung. Alle Algorithmen zur Störschallunterdrückung laufen bisher darauf hinaus, akustische Scheuklappen anzulegen. Will man auf einer Cocktailparty hören, was jemand sagt, muss man ihn angucken. Das funktioniert zwar, aber viele Nutzer mögen das nicht. Die wollen die ganze Zeit scannen können, was um sie herum gesprochen wird. Hier spielt auch der Klangeindruck eine Rolle. Darum haben wir – auch das ist ein Meilenstein der ersten Periode – das „transparent earpiece“ entwickelt. Dabei geht es darum, dass man trotz Hörgerät wie durch einen offenen Gehörgang hört. 

Wie landen all diese Entwicklungen letztlich bei denen, die davon einen Nutzen haben, also zum Beispiel den Hörgeräte-Trägern?
Natürlich arbeiten wir eng mit der Hörgeräte-Industrie zusammen, sowohl über die HörTech als auch über das Hörzentrum. Damit haben wir hier an der Uni zwei Institute, die die Entwicklungen nicht nur publizieren, sondern auch zusammen mit der Industrie daran arbeiten, diese in verfügbare Lösungen umzusetzen. So können wir dieses sogenannte Tal des Todes von der Idee zum Produkt durchschreiten. Das geht nur über diese Kooperationen. Dazu kommt das Translational Research Centre des Exzellenzclusters, das von der HörTech geleitet wird, um zusammen mit der Industrie den Sprung von der Wissenschaft in die Praxis zu schaffen. Darüber hinaus habe ich in meiner Karriere über 60 Leute promovieren dürfen. Die Hälfte davon arbeitet heute in der internationalen Hörgeräte-Industrie. Die nehmen dann immer ein Stück Oldenburger Hörforschung mit in ihre neuen Tätigkeitsgebiete.


Das „transparent earpiece" lässt sich auch mit dem cEE Grid-System verbinden (Foto: Uni Oldenburg)
Und wenn ein Hersteller eine Entwicklung aus Oldenburg einsetzen will, lizensiert er Ihr Patent?
Da gibt es unterschiedliche Modelle. Oftmals beginnt man mit Verbund-Projekten, die auch öffentlich gefördert sind. In denen entwickelt man dann zusammen eine Technologie weiter, publiziert darüber oder schreibt ein gemeinsames Patent. Oder ein Hersteller bezahlt uns für die Entwicklung einer bestimmten Technologie. Oder man lizensiert einfach eine Entwicklung von uns und baut die in die Geräte ein. Woher Entwicklungen in Hörgeräten kommen, wird jedoch nicht immer offen gesagt. Das ist in anderen Branchen anders. „Hallo Magenta“ etwa, die Antwort der Telekom auf Amazons „Alexa“, ist Made in Oldenburg. Was die Hörgeräte anbelangt, sagen wir immer etwas scherzhaft, dass in 80% aller Hörgeräte irgendein kleines Stück aus Oldenburg steckt. 

Herr Kollmeier, haben Sie vielen Dank für das Gespräch. 


Hearing4all
Hervorgegangen ist der Exzellenzcluster aus Kooperationen der Hörforscher der Carl von Ossietzky Universität in Oldenburg, der Medizinischen Hochschule Hannover (MHH) und weiteren Organisationen im Nordwesten Deutschlands, z. B. der Leibniz-Universität Hannover. So kam es zunächst zur Audiologie-Initiative Niedersachsen sowie zum Auditory Valley. 2012 erhielt der Verbund im Rahmen der Exzellenzinitiative des Bundes und der Länder als Exzellenzcluster „Hearing4all“ erstmals eine Förderung, um Hörforschung auf international höchstem Level zu betreiben und so den Forschungsstandort Deutschland zu stärken. Die Förderung betrug knapp 30 Millionen Euro für fünf Jahre. Ziel der Wissenschaftler war und ist die Verbesserung der individuellen Hördiagnostik und der individuellen Anpassung von Hörhilfen, um so die Kommunikation für die Betroffenen weiter zu verbessern. Aktuell umfasst der Cluster etwa 400 Forscher aus Disziplinen wie Medizin, Physik, Psychologie und Biologie. Davon sind etwa 300 in Oldenburg tätig, 100 in Hannover. Schwerpunkt in Oldenburg ist die Grundlagenforschung sowie die Hörunterstützung für Menschen mit leichtem bis mittelgradigem Hörverlust, während die MHH auf die Versorgung von Patienten mit mittelgradigem bis vollständigem Hörverlust spezialisiert ist. Im Translational Research Centre werden die Aktivitäten des Clusters im Bereich Translationsforschung und Erkenntnistransfer sowie die Zusammenarbeit mit der Industrie geleitet. 
Im September 2018 erhielt der Cluster eine Verlängerung der Förderung für weitere sieben Jahre mit 45 Millionen Euro. Geleitet wird der Exzellenzcluster von dem Mediziner und Physiker Prof. Dr. Dr. Birger Kollmeier (Sprecher) und dem HNO-Arzt Prof. Prof. h. c. Dr. Thomas Lenarz (stellv. Sprecher).