Pottwale gehören zu den lautesten lebenden Tieren der Welt. Sie erzeugen Knarren, Knallen und Klicken, um mit anderen Walen zu kommunizieren, die einige Meter oder Hunderte von Kilometern entfernt sind.
Diese Symphonie von Pottwal-Klängen ist anspruchsvoll genug, um sich als vollwertige Sprache zu qualifizieren. Aber werden die Menschen jemals verstehen, was diese Wale sagen?
Die Antwort ist: vielleicht
Bevor die Sprache der Wale entschlüsselt werden kann, müssen die Forscher eine beispiellose Anzahl von Kommunikationen zwischen Pottwalen sammeln und analysieren, das ist wenig, aber sicher.
Mit einem sechsmal größeren Gehirn als unserem können Pottwale (Physeter Macrocephalus) sind Wale mit einer komplexen Sozialstruktur, die die meiste Zeit damit verbringen, Kontakte zu knüpfen und Nachrichten auszutauschen. Nachrichtenfolgen, die kurz sein können (z. B. 10 Sekunden) oder länger als eine halbe Stunde dauern. „Die Komplexität und Dauer der Lautäußerungen von Walen deutet darauf hin, dass sie zumindest theoretisch in der Lage sind, eine komplexe Grammatik zu zeigen“ im Vergleich zu anderen nicht-menschlichen Tieren.
Das lesen wir in einem Papier über Wale vom April 2021, das am veröffentlicht wurde arXiv.org.
Was sagt diese Studie?
Dieses Dokument aus einem interdisziplinären Projekt namens known CETI (Cetacean Translation Initiative), skizziert einen Plan, um die Lautäußerungen von Pottwalen zu entschlüsseln, indem zunächst Aufnahmen dieser Wale gesammelt und dann mithilfe von maschinellem Lernen versucht wird, die Sequenzen zu entschlüsseln, die sie zur Kommunikation verwenden. CETI hat sich dafür entschieden, Pottwale gegenüber anderen Walen zu untersuchen, weil ihre Klicks eine ähnliche Struktur wie Morsecode haben, die künstliche Intelligenz (KI) einfacher analysieren könnte.
Das Eis brechen
Das wenige, was wir über Pottwale wissen, haben wir erst vor kurzem gelernt. Erst in den 50er Jahren bemerkten wir, dass diese Wale Geräusche machten. Und 20 Jahre lang haben wir nicht verstanden, dass sie diese Klänge zur Kommunikation nutzten.
Allerdings mit einem doppelten Zweck. Pottwale können bis in Tiefen von . tauchen 4.000 Fuß (1.200 Meter). Sie dreimal tiefer von Atom-U-Booten. Da unten ist es stockdunkel: Deshalb haben sich diese Wale entwickelt, um Tintenfische und andere Nahrung zu suchen, indem sie diese Geräusche auch verwenden, um sich selbst zu lokalisieren, wie ein Sonar. Dieselbe Art von Ton wird auch in ihren sozialen Lauten verwendet, obwohl in diesem Fall die Kommunikationsklicks laut CETI-Dokument dichter sind.
Das zu verstehen war auch schwierig
Pottwale waren für den Menschen lange Zeit sehr schwer zu untersuchen. Wir haben jetzt die Werkzeuge, um dank künstlicher Intelligenz, Robotik und Drohnen tiefer als je zuvor zu schauen.
David Gruber, Meeresbiologe und Leiter des CETI-Projekts.
Pratyusha Sharma, Data Science-Forscher für CETI und Doktorand am Computer Science and Artificial Intelligence Laboratory des MIT, ist sehr zuversichtlich in die jüngsten Entwicklungen im Bereich der künstlichen Intelligenz und Sprachmodelle, wie z GPT-3, das Deep Learning verwendet, um menschliche Texte oder Geschichten zu erstellen. Wissenschaftler hoffen, dass dieselben Methoden auf Pottwal-Vokalisierungen angewendet werden können, um ihre Sprache zu konstruieren. Es gibt nur ein Problem: Diese Methoden haben einen unersättlichen Appetit auf Daten.
Wir haben 100.000 Registrierungen, aber wir brauchen 4 Milliarden!
Das CETI-Projekt hat derzeit Aufzeichnungen von rund 100.000 Walklicks, die von Meeresbiologen über viele Jahre sorgfältig gesammelt wurden, aber maschinelle Lernalgorithmen könnten etwa 4 Milliarden dieser Klicks benötigen. Um diese Lücke zu schließen, schafft CETI mehrere automatisierte Kanäle zum Sammeln von Pottwalaufzeichnungen. Zu den Methoden gehören Unterwassermikrofone, die in von Walen frequentierten Gewässern platziert werden, und Mikrofone, die von fliegenden Drohnen abgeworfen werden können. Sogar Roboterfische, die Walen folgen und ihnen zuhören können, ohne aufzufallen.
Aber werden wir trotz all dieser Daten in der Lage sein, sie zu entschlüsseln?
Viele der maschinellen Lernalgorithmen haben festgestellt, dass Audio schwerer zu analysieren ist als Text. Beispielsweise kann es schwierig sein zu analysieren, wo ein Wort beginnt und endet. Wie Sharma erklärte: „Angenommen, es gibt das Wort ‚Regenschirm‘. Ist "om" das Wort? Oder ist es "brello"? Oder ist es ein "Regenschirm"?" Die Barrieren zwischen gesprochenen Wörtern sind mehrdeutig und weniger regelmäßig, und Muster können daher viel mehr Daten zur Entdeckung erfordern.
Dies ist nicht die einzige Schwierigkeit, der sich CETI stellen muss.
„Ob jemand beispielsweise aus Japan oder den Vereinigten Staaten oder anderswo kommt, die Welten, über die wir sprechen, sind sich sehr ähnlich; Wir sprechen über Menschen, wir sprechen über ihre Handlungen “, sagte Sharma. „Aber die Welten, in denen diese Wale leben, sind sehr unterschiedlich, oder? Und die Verhaltensweisen sind sehr unterschiedlich".
Auch aus einer 6-Jahres-Studie, die 2016 in der Zeitschrift veröffentlicht wurde Royal Society Open Science, ist bekannt, dass Pottwale sogar Dialekte haben.
Wenn dies eine enorme Schwierigkeit zu sein scheint, denken Sie daran, zum Mond zu fliegen. Gerade diese Schwierigkeiten machen das Projekt so ehrgeizig und würdig. Was ein Wal einem anderen sagt, ist heute so dunkel wie das Wasser, in dem sie schwimmen, aber es ist ein Mysterium, das CETI sehr, sehr faszinierend macht.