Neural Synchronization and Cryptography

Neuronale Synchronisation und Kryptographie

Please always quote using this URN: urn:nbn:de:bvb:20-opus-23618
  • Neural networks can synchronize by learning from each other. For that purpose they receive common inputs and exchange their outputs. Adjusting discrete weights according to a suitable learning rule then leads to full synchronization in a finite number of steps. It is also possible to train additional neural networks by using the inputs and outputs generated during this process as examples. Several algorithms for both tasks are presented and analyzed. In the case of Tree Parity Machines the dynamics of both processes is driven by attractive andNeural networks can synchronize by learning from each other. For that purpose they receive common inputs and exchange their outputs. Adjusting discrete weights according to a suitable learning rule then leads to full synchronization in a finite number of steps. It is also possible to train additional neural networks by using the inputs and outputs generated during this process as examples. Several algorithms for both tasks are presented and analyzed. In the case of Tree Parity Machines the dynamics of both processes is driven by attractive and repulsive stochastic forces. Thus it can be described well by models based on random walks, which represent either the weights themselves or order parameters of their distribution. However, synchronization is much faster than learning. This effect is caused by different frequencies of attractive and repulsive steps, as only neural networks interacting with each other are able to skip unsuitable inputs. Scaling laws for the number of steps needed for full synchronization and successful learning are derived using analytical models. They indicate that the difference between both processes can be controlled by changing the synaptic depth. In the case of bidirectional interaction the synchronization time increases proportional to the square of this parameter, but it grows exponentially, if information is transmitted in one direction only. Because of this effect neural synchronization can be used to construct a cryptographic key-exchange protocol. Here the partners benefit from mutual interaction, so that a passive attacker is usually unable to learn the generated key in time. The success probabilities of different attack methods are determined by numerical simulations and scaling laws are derived from the data. If the synaptic depth is increased, the complexity of a successful attack grows exponentially, but there is only a polynomial increase of the effort needed to generate a key. Therefore the partners can reach any desired level of security by choosing suitable parameters. In addition, the entropy of the weight distribution is used to determine the effective number of keys, which are generated in different runs of the key-exchange protocol using the same sequence of input vectors. If the common random inputs are replaced with queries, synchronization is possible, too. However, the partners have more control over the difficulty of the key exchange and the attacks. Therefore they can improve the security without increasing the average synchronization time.show moreshow less
  • Neuronale Netze, die die gleichen Eingaben erhalten und ihre Ausgaben austauschen, können voneinander lernen und auf diese Weise synchronisieren. Wenn diskrete Gewichte und eine geeignete Lernregel verwendet werden, kommt es in endlich vielen Schritten zur vollständigen Synchronisation. Mit den dabei erzeugten Beispielen lassen sich weitere neuronale Netze trainieren. Es werden mehrere Algorithmen für beide Aufgaben vorgestellt und untersucht. Attraktive und repulsive Zufallskräfte treiben bei Tree Parity Machines sowohl denNeuronale Netze, die die gleichen Eingaben erhalten und ihre Ausgaben austauschen, können voneinander lernen und auf diese Weise synchronisieren. Wenn diskrete Gewichte und eine geeignete Lernregel verwendet werden, kommt es in endlich vielen Schritten zur vollständigen Synchronisation. Mit den dabei erzeugten Beispielen lassen sich weitere neuronale Netze trainieren. Es werden mehrere Algorithmen für beide Aufgaben vorgestellt und untersucht. Attraktive und repulsive Zufallskräfte treiben bei Tree Parity Machines sowohl den Synchronisationsvorgang als auch die Lernprozesse an, so dass sich alle Abläufe gut durch Random-Walk-Modelle beschreiben lassen. Dabei sind die Random Walks entweder die Gewichte selbst oder Ordnungsparameter ihrer Verteilung. Allerdings sind miteinander wechselwirkende neuronale Netze in der Lage, ungeeignete Eingaben zu überspringen und so repulsive Schritte teilweise zu vermeiden. Deshalb können Tree Parity Machines schneller synchronisieren als lernen. Aus analytischen Modellen abgeleitete Skalengesetze zeigen, dass der Unterschied zwischen beiden Vorgängen von der synaptischen Tiefe abhängt. Wenn die beiden neuronalen Netze sich gegenseitig beeinflussen können, steigt die Synchronisationszeit nur proportional zu diesem Parameter an; sie wächst jedoch exponentiell, sobald die Informationen nur in eine Richtung fließen. Deswegen lässt sich mittels neuronaler Synchronisation ein kryptographisches Schlüsselaustauschprotokoll realisieren. Da die Partner sich gegenseitig beeinflussen, der Angreifer diese Möglichkeit aber nicht hat, gelingt es ihm meistens nicht, den erzeugten Schlüssel rechtzeitig zu finden. Die Erfolgswahrscheinlichkeiten der verschiedenen Angriffe werden mittels numerischer Simulationen bestimmt. Die dabei gefundenen Skalengesetze zeigen, dass die Komplexität eines erfolgreichen Angriffs exponentiell mit der synaptischen Tiefe ansteigt, aber der Aufwand für den Schlüsselaustausch selbst nur polynomial anwächst. Somit können die Partner jedes beliebige Sicherheitsniveau durch geeignete Wahl der Parameter erreichen. Außerdem wird die effektive Zahl der Schlüssel berechnet, die das Schlüsselaustauschprotokoll bei vorgegebener Zeitreihe der Eingaben erzeugen kann. Der neuronale Schlüsselaustausch funktioniert auch dann, wenn die Zufallseingaben durch Queries ersetzt werden. Jedoch haben die Partner in diesem Fall mehr Kontrolle über die Komplexität der Synchronisation und der Angriffe. Deshalb gelingt es, die Sicherheit zu verbessern, ohne den Aufwand zu erhöhen.show moreshow less

Download full text files

Export metadata

Additional Services

Share in Twitter Search Google Scholar Statistics
Metadaten
Author: Andreas Ruttor
URN:urn:nbn:de:bvb:20-opus-23618
Document Type:Doctoral Thesis
Granting Institution:Universität Würzburg, Fakultät für Physik und Astronomie
Faculties:Fakultät für Physik und Astronomie / Institut für Theoretische Physik und Astrophysik
Date of final exam:2007/05/18
Language:English
Year of Completion:2006
Dewey Decimal Classification:5 Naturwissenschaften und Mathematik / 53 Physik / 530 Physik
Tag:Kryptographie; Neuronale Netze; Nichtlineare Dynamik; Statistische Physik; Synchronisation
cryptography; neural networks; nonlinear dynamics; statistical physics; synchronization
PACS-Classification:00.00.00 GENERAL / 05.00.00 Statistical physics, thermodynamics, and nonlinear dynamical systems (see also 02.50.-r Probability theory, stochastic processes, and statistics) / 05.40.-a Fluctuation phenomena, random processes, noise, and Brownian motion (for fluctuations in superconductivity, see 74.40.+k; for statistical theory and fluctuations in nuclear reactions, see 24.60.-k; for fluctuations in plasma, see 52.25.Gj) / 05.40.Fb Random walks and Levy flights
00.00.00 GENERAL / 05.00.00 Statistical physics, thermodynamics, and nonlinear dynamical systems (see also 02.50.-r Probability theory, stochastic processes, and statistics) / 05.45.-a Nonlinear dynamics and chaos (see also section 45 Classical mechanics of discrete systems; for chaos in fluid dynamics, see 47.52.+j) / 05.45.Xt Synchronization; coupled oscillators
80.00.00 INTERDISCIPLINARY PHYSICS AND RELATED AREAS OF SCIENCE AND TECHNOLOGY / 84.00.00 Electronics; radiowave and microwave technology; direct energy conversion and storage / 84.35.+i Neural networks (for optical neural networks, see 42.79.Ta; see also 07.05.Mh Neural networks, fuzzy logic, artificial intelligence in computers in experimental physics; 87.18.Sn in biological complexity)
80.00.00 INTERDISCIPLINARY PHYSICS AND RELATED AREAS OF SCIENCE AND TECHNOLOGY / 87.00.00 Biological and medical physics / 87.18.-h Biological complexity (see also 82.39.Rt Reactions in complex biological systems in physical chemistry) / 87.18.Sn Neural networks and synaptic communication
80.00.00 INTERDISCIPLINARY PHYSICS AND RELATED AREAS OF SCIENCE AND TECHNOLOGY / 89.00.00 Other areas of applied and interdisciplinary physics / 89.70.-a Information and communication theory (for telecommunications, see 84.40.Ua; for optical communications, see 42.79.Sz; for quantum information, see 03.67.-a; for applications to neuroscience, see 87.19.lo)
Release Date:2007/07/23
Advisor:Prof. Dr. Wolfgang Kinzel