Pottwale gehören zu den lautesten lebenden Tieren der Welt. Sie erzeugen Knarren, Knallen und Klicken, um mit anderen Walen zu kommunizieren, die einige Meter oder Hunderte von Kilometern entfernt sind.
Diese Symphonie von Pottwal-Klängen ist anspruchsvoll genug, um sich als vollwertige Sprache zu qualifizieren. Aber werden die Menschen jemals verstehen, was diese Wale sagen?
Die Antwort ist: vielleicht
Bevor die Sprache der Wale entschlüsselt werden kann, müssen die Forscher eine beispiellose Anzahl von Kommunikationen zwischen Pottwalen sammeln und analysieren, das ist wenig, aber sicher.
Mit einem sechsmal größeren Gehirn als unserem können Pottwale (Physeter Macrocephalus) sind Wale mit einer komplexen sozialen Struktur, die die meiste Zeit damit verbringen, Kontakte zu knüpfen und Nachrichten auszutauschen. Nachrichtensequenzen, die kurz sein können (z. B. 10 Sekunden) oder länger als eine halbe Stunde dauern. Tatsächlich „legt die Komplexität und Dauer der Lautäußerungen von Walen nahe, dass sie im Vergleich zu anderen nichtmenschlichen Tieren zumindest theoretisch in der Lage sind, eine komplexe Grammatik an den Tag zu legen“.
Das lesen wir in einem Papier über Wale vom April 2021, das am veröffentlicht wurde arXiv.org.

Was sagt diese Studie?
Dieses Dokument aus einem interdisziplinären Projekt namens known CETI (Cetacean Translation Initiative), skizziert einen Plan zur Entschlüsselung der Vokalisationen von Pottwalen, indem zunächst Aufzeichnungen dieser Wale gesammelt und dann mithilfe von maschinellem Lernen versucht wird, die Sequenzen zu entschlüsseln, die sie zur Kommunikation verwenden. CETI hat sich dafür entschieden, Pottwale gegenüber anderen Walen zu untersuchen, da ihre Klicks eine ähnliche Struktur wie der Morsecode haben, den künstliche Intelligenz (KI) leichter analysieren könnte.
Das Eis brechen
Das Wenige, das wir über Pottwale wissen, haben wir erst vor kurzem erfahren. Erst in den 50er Jahren bemerkten wir, dass diese Wale Geräusche machten. Und wir haben 20 Jahre lang nicht verstanden, dass sie diese Geräusche zur Kommunikation benutzten.
Allerdings mit einem doppelten Zweck. Pottwale können bis in Tiefen von . tauchen 4.000 Fuß (1.200 Meter). Sie dreimal tiefer von Atom-U-Booten. Da unten ist es stockdunkel: Deshalb haben sich diese Wale entwickelt, um Tintenfische und andere Nahrung zu suchen, indem sie diese Geräusche auch verwenden, um sich selbst zu lokalisieren, wie ein Sonar. Dieselbe Art von Ton wird auch in ihren sozialen Lauten verwendet, obwohl in diesem Fall die Kommunikationsklicks laut CETI-Dokument dichter sind.
Das zu verstehen war auch schwierig

Pottwale waren für den Menschen lange Zeit sehr schwer zu untersuchen. Wir haben jetzt die Werkzeuge, um dank künstlicher Intelligenz, Robotik und Drohnen tiefer als je zuvor zu schauen.
David Gruber, Meeresbiologe und Leiter des CETI-Projekts.
Pratyusha Sharma, Data-Science-Forscher für CETI und Doktorand am Computer Science and Artificial Intelligence Laboratory des MIT, ist sehr zuversichtlich in Bezug auf die jüngsten Entwicklungen in der künstlichen Intelligenz und in Sprachmodellen, wie z GPT-3, das Deep Learning verwendet, um menschliche Texte oder Geschichten zu erstellen. Wissenschaftler hoffen, dass dieselben Methoden auf Pottwal-Vokalisierungen angewendet werden können, um ihre Sprache zu konstruieren. Es gibt nur ein Problem: Diese Methoden haben einen unersättlichen Appetit auf Daten.
Wir haben 100.000 Registrierungen, aber wir brauchen 4 Milliarden!
Das CETI-Projekt verfügt derzeit über Aufzeichnungen von rund 100.000 Wal-Klicks, die von Meeresbiologen über viele Jahre sorgfältig gesammelt wurden, aber maschinelle Lernalgorithmen benötigen möglicherweise etwa 4 Milliarden dieser Klicks. Um diese Lücke zu schließen, erstellt CETI mehrere automatisierte Kanäle zum Sammeln von Aufzeichnungen über Pottwale. Zu den Methoden gehören Unterwassermikrofone, die in von Walen frequentierten Gewässern platziert werden, und Mikrofone, die von fliegenden Drohnen abgeworfen werden können. Sogar Roboterfische, die Walen folgen und ihnen zuhören können, ohne Aufmerksamkeit zu erregen.
Aber werden wir trotz all dieser Daten in der Lage sein, sie zu entschlüsseln?
Viele der maschinellen Lernalgorithmen haben festgestellt, dass Audio schwieriger zu analysieren ist als Text. Beispielsweise kann es schwierig sein zu analysieren, wo ein Wort beginnt und endet. Wie Sharma erklärte: „Angenommen, es gibt das Wort „Regenschirm“. Ist das Wort „om“? Oder ist es „brello“? Oder ist es „Regenschirm“?“ Die Barrieren zwischen gesprochenen Wörtern sind mehrdeutiger und weniger regelmäßig, und Muster können daher viel mehr Daten erfordern, um entdeckt zu werden.

Das ist nicht die einzige Schwierigkeit, der sich CETI stellen muss.
„Ob jemand beispielsweise aus Japan oder den Vereinigten Staaten oder sonst woher kommt, die Welten, über die wir sprechen, sind sehr ähnlich; wir sprechen über Menschen, wir sprechen über ihre Taten“, sagte Sharma. „Aber die Welten, in denen diese Wale leben, sind sehr unterschiedlich, oder? Und die Verhaltensweisen sind sehr unterschiedlich.“
Auch aus einer 6-Jahres-Studie, die 2016 in der Zeitschrift veröffentlicht wurde Royal Society Open Science, ist bekannt, dass Pottwale sogar Dialekte haben.
Wenn dies eine enorme Schwierigkeit zu sein scheint, denken Sie daran, zum Mond zu fliegen. Gerade diese Schwierigkeiten machen das Projekt so ehrgeizig und würdig. Was ein Wal einem anderen sagt, ist heute so dunkel wie das Wasser, in dem sie schwimmen, aber es ist ein Mysterium, das CETI sehr, sehr faszinierend macht.