Kognitive Kommunikation dient Menschen und Maschinen zum Wissenserwerb. Der Zuwachs an Wissen besteht dabei in der gewonnenen Information der empfangenen Signale. Maschinensprachen und von Menschen gesprochene natürliche Sprachen unterscheiden sich darin, dass die Signale von Maschinensprachen scharf definierte Bedeutungen haben, während die Bedeutungen von Signalen der natürlichen Sprachen in hohem Maß unscharf sind.
Werner Rupprecht legt dar, wie unscharfe Bedeutungen in den Hirnen von Menschen entstehen, und dass paradoxerweise wegen dieser Unschärfen Menschen fähig sind, Erkenntnisse zu gewinnen, die Maschinen nicht gelingen. Er erläutert im Detail Zusammenhänge zwischen informationstheoretischer Entropie, thermodynamischer Entropie und Energie, beschreibt die Sinnesorgane von Menschen, die Verarbeitung von Signalen in neuronalen Netzen und Maschinen, die Entwicklung von Medien, insbesondere des Internets, und diskutiert die Rolle eines immateriellen Geistes.
Der Inhalt
Kommunikationsprozesse
Informationelle und thermodynamische Entropie
Wahrnehmung und Artikulation
Entstehung von Bedeutungen und Sprachen
Die Zielgruppen
Dozierende und Studierende der Kommunikations- und Kognitionswissenschaften und deren Grenzgebiete
Dr.-Ing. habil. W. Rupprecht ist emeritierter Professor der TU Kaiserslautern. Er war im In- und Ausland als Entwicklungsingenieur in der Elektro- und Computerindustrie und als Berater und Dozent tätig.
Kognitive Kommunikation aus ingenieurwissenschaftlicher Sicht
Bewertung aus Kaiserslautern am 05.01.2016
Bewertungsnummer: 902034
Bewertet: Buch (Taschenbuch)
Mit dem vorliegenden Werk wagt sich Prof. Dr.-Ing. Werner Rupprecht an ein äußerst schwieriges und komplexes Thema, das unser heutiges Leben in vielfältiger Weise durchdringt und sogar existentielle Grundlage des Lebens ist: die kognitive Kommunikation. In seinem Buch gelingt es dem Autor, die zahlreichen Facetten der Kommunikation zu erfassen, zu systematisieren, anschaulich und allgemeinverständlich zu erklären und wissenschaftlich aufzubereiten. Das sehr umfangreiche Material und fundierte Wissen hat er über viele Jahre u.a. als Inhaber des Lehrstuhls für Nachrichtentechnik an der TU Kaiserslautern gesammelt und erworben, um es jetzt in exzellent aufbereiteter Form einem großen Leserkreis zugänglich zu machen.
Haben sich bisher überwiegend Psychologen und Sprachwissenschaftler mit Theorien über die kognitiven Aspekte der Kommunikation befasst, so liefert dieses Werk erstmals eine ingenieurwissenschaftliche Erklärung dieser Phänomene. Gleichwohl geht der Inhalt weit über die Ingenieurwissenschaften hinaus, wie es der Buchuntertitel bereits verheißt: Wie Sprache, Information, Energie, Internet, Gehirn und Geist zusammenhängen. Dazu liefert der Autor auf 462 Seiten reichhaltige Fakten und ausführliche Erklärungen, die das Buch u.a. für Ingenieure und Kognitionswissenschaftler, Philosophen und Sprachwissenschaftler zu einer spannenden und hochinteressanten Lektüre machen.
Prof. R. Gotzhein
Eine wissenschaftliche Betrachtung über alle Arten der Kommunikation
Bewertung aus Karlsruhe am 24.09.2015
Bewertungsnummer: 891615
Bewertet: Buch (Taschenbuch)
Das Wort Kommunikation ist heutzutage in aller Munde. Betriebliche -, Menschliche - , Marketing -, Technische - usw. Kommunikation. Das vorliegende Buch des emeritierten Professors für Nachrichtentechnik lässt zunächst vermuten, dass es sich bei diesem Werk vornehmlich um technische Kommunikation und speziell um die elektrische Übertragung von Nachrichten handeln wird. Die Einschränkung kognitiv weist aber auf Wahrnehmung, Erkennen, Erinnern, Lernen etc. hin. Und der Untertitel lässt zudem philosophische Zusammenhänge erwarten.
Kapitel 1 definiert ganz objektiv Kommunikation als den Austausch von Signalen, die vom Sender aus einer festgelegten Menge von Sinngehalten artikuliert und im Empfänger aus einer dort ebenfalls begrenzten Menge von Sinngehalten als Nachricht interpretiert werden. Sender und Empfänger müssen also über gleichartige Vorstellungen von Sinngehalten verfügen. Dass die Menge der Sinngehalte sehr eingeschränkt sein kann, wird am Beispiel Mensch-Hund-Kommunikation an Hand der kleinen Schnittmenge der beiden Sinngehalte verdeutlicht. Meist wird man jedoch an Mensch-Mensch-, Mensch-Maschine- und Maschine-Maschine-Kommunikation mit definierten Sinngehalten denken. Bei der technischen Kommunikation werden analoge Eingangs-Signale zunächst digitalisiert, in Form von digitalen Signalen (Impulsen) übertragen und auf der Empfangsseite wieder in analoge Signale zurückgewandelt. Dabei spielen die Begriffe Wandlung, Abtastung, Fehlerkorrektur, logische Verknüpfung usw. eine Rolle und werden ausführlich erläutert.
Das zweite Kapitel vertieft insbesondere den quantitativen Aspekt von Information. Die von C.E. Shannon am Fall gesendeter Buchstaben begründete Informationstheorie wird dahingehend verall-gemeinert, dass anstelle von Buchstaben die Signale der vom Sender mitgeteilten Sinngehalte betrachtet werden. Ein Signal stellt für den Empfänger ein zufälliges Ereignis dar, dessen Informa-tionshöhe gleich dem Logarithmus des Reziprokwerts der Wahrscheinlichkeit ist, mit der das betref-fende Ereignis auftritt. Als informationstheoretische Entropie wird nach Shannon der Mittelwert aller möglichen vom Sender erzeugbaren Ereignisse bezeichnet, weil die zugehörige mathematische Formel die gleiche Form hat wie die der thermodynamischen Entropie in der Physik. Der Aufwand für die Erzeugung eines Signals auf der Senderseite wird durch die im Wesentlichen von G. J. Chaitin ent-wickelte algorithmische Informationstheorie beschrieben, die auf gleichartige Formeln führt wie bei Shannon. Einzelheiten werden anhand von Codebäumen und numerischen Beispielen erläutert, wobei auch auf die auf Mengen basierende Wahrscheinlichkeitstheorie detailliert eingegangen wird. Dabei zeigt sich, dass Mengenoperationen, die sich später als zentrale Schritte bei Denkprozessen erweisen, Verallgemeinerungen logischer Operationen in digitalen Computern sind.
Das dritte Kapitel untersucht akustische, optische, chemische und elektrische Signale unter energe-tischen Gesichtspunkten. Hierzu werden die Beziehungen zwischen Signal, Energie, Entropie und Informationshöhe auch unter dem Gesichtspunkt des zweiten Hauptsatzes der Thermodynamik betrachtet. Es zeigt sich, dass informationstheoretische und thermodynamische Entropie zueinander komplementär sind: Während die informationstheoretische Entropie mit zunehmender Unterscheid-barkeit von Ereignissen zunimmt, vergrößert sich die thermodynamische Entropie mit abnehmender Unterscheidbarkeit. Zudem werden die mindestens erforderliche Energie und Zeit für eine elektrische Informationseinheit und für logische Operationen berechnet und dargelegt, wann ein ein Maxwellscher Dämon aus Information freie Energie gewinnen kann.
Kapitel 4 behandelt den Transport von Nachrichten. Nachrichten werden über Kommunikationsver-bindungen, sog. Nachrichtenkanäle übertragen. Der zeitliche Verlauf und die Amplitude der Signale werden durch die Eigenschaften des Übertragungskanals verändert. Zur Analyse und Beschreibung der Signale dient die Signaltheorie. Erläutert werden die Fourier-Synthese bzw. Analyse, die Spektren von Signalen, die erforderliche Bandbreite, das Abtasttheorem und die Kanalkapazität.
Die sog. Kanalcodierung passt das Signal an die Eigenschaften des Kanals an und fügt ggf. zur Eliminierung von Störungen zusätzliche Signalanteile zur Fehlerprüfung bzw. Fehlerkorrektur ein. Weitere Absätze beschreiben Protokolle zur Paket-Datenübertragung und das OSI-7-Schichten-Modell zur Verbindung zweier Partner in einem verzweigten Netzwerk, wie z.B. dem Internet und wie das möglicherweise auch bei Verbindungen zwischen Teilen des Gehirns der Fall ist. Ein abschließender Abschnitt Das Medium ist die Botschaft, behandelt den Einfluss der modernen Medien auf die Gesellschaft und zeigt, dass die sprachliche Artikulation gedanklicher Vorstellungen sich ebenfalls mit der Informationstheorie von Shannon beschreiben lässt.
Kapitel 5 behandelt die Zusammenhänge zwischen Wahrnehmung und Artikulation bei Lebewesen. Zunächst wird ein einfacher Automat nach Mealy vorgestellt dessen Funktion durch Erweiterungen dem Verhalten von Lebewesen angenähert wird. Ausgehend von den Nervenzellen des Gehirns mit vielen und gewichteten Eingängen (Post-Synapsen) und vielen Ausgängen (Prä-Synapsen) und deren Verschaltung zu neuronalen Netzen, werden deren Fähigkeiten in Bezug auf Lernfähigkeit und die Bildung von Klassen - auch zu Klassen mit unscharfer Logik nach Zadeh - beschrieben. Immer wieder stellt der Verfasser fest, dass Maschinen zwar intelligentes Verhalten zeigen können, dass dieses Verhalten aber vorher mit dem Entwurf der Hardware bzw. mit der Software von Ingenieuren und Programmierern in sie hineinkonstruiert wurde.
Das sechste Kapitel handelt von der Entstehung von Bedeutungen und Sprache. Ausgehend von Reizmustern, die über Millionen von Nervenfasern an neuronale Verarbeitungsebenen im Gehirn geliefert werden, wird gezeigt, wie diese zu Erregungen begrenzter lokaler Bezirke auf der Großhirnrinde führen können. Als Modell für Computersimulationen, mit deren Hilfe man auch die Arbeitsweise des Gehirns näher erforschen will, dient z.B. ein Netz aus Neuronen, deren Ein- und Ausgänge nach einem Vorschlag des finnischen Professors Kohonen verschaltet sind. Die Eingänge sind mit Gewichtsfaktoren belegt, die in Lernvorgängen so lange verändert werden, bis ein oder mehrere spezielle Reizmuster zu begrenzten Aktivierungszonen des Netzes führen. Vermutungen, wie sich daraus durch Generalisierung und Abstraktion die Kommunikation und Sprache beim Menschen entwickelt, werden angestellt. Schließlich knüpft ein Vergleich zwischen menschlicher und maschineller Kommunikation wieder an die Beschreibungen des ersten Kapitels an.
Das Buch spannt einen weiten Bogen über alles, was mit dem Austausch von Signalen und Nachrichten zu tun hat. Von einem Ingenieur der Nachrichtentechnik geschrieben, setzt es natürlich auf den Grundlagen der Signal- und Informationstheorie auf. Durch viele, sehr anschauliche Beispiele und die Vermeidung der Infinitesimalrechnung, wird die Lektüre aber auch für den mathematisch und technisch weniger vorgebildeten Leser sehr informativ und lädt jederzeit zu eigenen, weiterführenden Gedanken ein. Die vielen Querverweise erleichtern das Studium auch nur einzelner Kapitel. Dem Fachmann kann es jederzeit als Lehrbuch und Nachschlagewerk dienen.
Zwischendurch gewährt der Verfasser immer wieder Einblicke in eigene philosophische Gedanken, die ihn im Laufe seines Berufslebens bei der Kommunikation mit Menschen und Maschinen beschäftigt haben.
W. Ritzert
Wir nutzen Ihr Feedback, um unsere Produktseiten zu
verbessern. Bitte haben Sie Verständnis, dass wir Ihnen keine Rückmeldung geben können. Falls Sie
Kontakt mit uns aufnehmen möchten, können Sie sich aber gerne an unseren Kund*innenservice wenden.