Google

This is a digital copy of a book that was prcscrvod for gcncrations on library shclvcs bcforc it was carcfully scannod by Google as pari of a projcct

to make the world's books discoverablc online.

It has survived long enough for the Copyright to expire and the book to enter the public domain. A public domain book is one that was never subject

to Copyright or whose legal Copyright term has expired. Whether a book is in the public domain may vary country to country. Public domain books

are our gateways to the past, representing a wealth of history, cultuie and knowledge that's often difficult to discover.

Marks, notations and other maiginalia present in the original volume will appear in this flle - a reminder of this book's long journcy from the

publisher to a library and finally to you.

Usage guidelines

Google is proud to partner with libraries to digitize public domain materials and make them widely accessible. Public domain books belong to the public and we are merely their custodians. Nevertheless, this work is expensive, so in order to keep providing this resource, we have taken Steps to prcvcnt abuse by commercial parties, including placing lechnical restrictions on automated querying. We also ask that you:

+ Make non-commercial use ofthefiles We designed Google Book Search for use by individuals, and we request that you use these files for personal, non-commercial purposes.

+ Refrain fivm automated querying Do not send automated queries of any sort to Google's System: If you are conducting research on machinc translation, optical character recognition or other areas where access to a laige amount of text is helpful, please contact us. We encouragc the use of public domain materials for these purposes and may be able to help.

+ Maintain attributionTht GoogXt "watermark" you see on each flle is essential for informingpcoplcabout this projcct and hclping them lind additional materials through Google Book Search. Please do not remove it.

+ Keep it legal Whatever your use, remember that you are lesponsible for ensuring that what you are doing is legal. Do not assume that just because we believe a book is in the public domain for users in the United States, that the work is also in the public domain for users in other countries. Whether a book is still in Copyright varies from country to country, and we can'l offer guidance on whether any speciflc use of any speciflc book is allowed. Please do not assume that a book's appearance in Google Book Search mcans it can bc used in any manner anywhere in the world. Copyright infringement liabili^ can be quite severe.

Äbout Google Book Search

Google's mission is to organizc the world's Information and to make it univcrsally accessible and uscful. Google Book Search hclps rcadcrs discover the world's books while hclping authors and publishers rcach ncw audicnccs. You can search through the füll icxi of ihis book on the web

at|http: //books. google .com/l

Google

IJber dieses Buch

Dies ist ein digitales Exemplar eines Buches, das seit Generationen in den Realen der Bibliotheken aufbewahrt wurde, bevor es von Google im Rahmen eines Projekts, mit dem die Bücher dieser Welt online verfugbar gemacht werden sollen, sorgfältig gescannt wurde. Das Buch hat das Uiheberrecht überdauert und kann nun öffentlich zugänglich gemacht werden. Ein öffentlich zugängliches Buch ist ein Buch, das niemals Urheberrechten unterlag oder bei dem die Schutzfrist des Urheberrechts abgelaufen ist. Ob ein Buch öffentlich zugänglich ist, kann von Land zu Land unterschiedlich sein. Öffentlich zugängliche Bücher sind unser Tor zur Vergangenheit und stellen ein geschichtliches, kulturelles und wissenschaftliches Vermögen dar, das häufig nur schwierig zu entdecken ist.

Gebrauchsspuren, Anmerkungen und andere Randbemerkungen, die im Originalband enthalten sind, finden sich auch in dieser Datei - eine Erin- nerung an die lange Reise, die das Buch vom Verleger zu einer Bibliothek und weiter zu Ihnen hinter sich gebracht hat.

Nu tzungsrichtlinien

Google ist stolz, mit Bibliotheken in Partnerschaft lieber Zusammenarbeit öffentlich zugängliches Material zu digitalisieren und einer breiten Masse zugänglich zu machen. Öffentlich zugängliche Bücher gehören der Öffentlichkeit, und wir sind nur ihre Hüter. Nie htsdesto trotz ist diese Arbeit kostspielig. Um diese Ressource weiterhin zur Verfügung stellen zu können, haben wir Schritte unternommen, um den Missbrauch durch kommerzielle Parteien zu veihindem. Dazu gehören technische Einschränkungen für automatisierte Abfragen. Wir bitten Sie um Einhaltung folgender Richtlinien:

+ Nutzung der Dateien zu nichtkommerziellen Zwecken Wir haben Google Buchsuche Tür Endanwender konzipiert und möchten, dass Sie diese Dateien nur für persönliche, nichtkommerzielle Zwecke verwenden.

+ Keine automatisierten Abfragen Senden Sie keine automatisierten Abfragen irgendwelcher Art an das Google-System. Wenn Sie Recherchen über maschinelle Übersetzung, optische Zeichenerkennung oder andere Bereiche durchführen, in denen der Zugang zu Text in großen Mengen nützlich ist, wenden Sie sich bitte an uns. Wir fördern die Nutzung des öffentlich zugänglichen Materials fürdieseZwecke und können Ihnen unter Umständen helfen.

+ Beibehaltung von Google-MarkenelementenDas "Wasserzeichen" von Google, das Sie in jeder Datei finden, ist wichtig zur Information über dieses Projekt und hilft den Anwendern weiteres Material über Google Buchsuche zu finden. Bitte entfernen Sie das Wasserzeichen nicht.

+ Bewegen Sie sich innerhalb der Legalität Unabhängig von Ihrem Verwendungszweck müssen Sie sich Ihrer Verantwortung bewusst sein, sicherzustellen, dass Ihre Nutzung legal ist. Gehen Sie nicht davon aus, dass ein Buch, das nach unserem Dafürhalten für Nutzer in den USA öffentlich zugänglich ist, auch für Nutzer in anderen Ländern öffentlich zugänglich ist. Ob ein Buch noch dem Urheberrecht unterliegt, ist von Land zu Land verschieden. Wir können keine Beratung leisten, ob eine bestimmte Nutzung eines bestimmten Buches gesetzlich zulässig ist. Gehen Sie nicht davon aus, dass das Erscheinen eines Buchs in Google Buchsuche bedeutet, dass es in jeder Form und überall auf der Welt verwendet werden kann. Eine Urheberrechtsverletzung kann schwerwiegende Folgen haben.

Über Google Buchsuche

Das Ziel von Google besteht darin, die weltweiten Informationen zu organisieren und allgemein nutzbar und zugänglich zu machen. Google Buchsuche hilft Lesern dabei, die Bücher dieser Welt zu entdecken, und unterstützt Autoren und Verleger dabei, neue Zielgruppcn zu erreichen. Den gesamten Buchtext können Sie im Internet unter|http: //books . google .coiril durchsuchen.

DIE KULTUR DER GEGENWART

IHRE ENTWICKLUNG UND IHRE ZIELE

HERAUSGEGEBEN VON PROF. PAUL HINNEBERG

In 4 Teilen. Lex.-8* Jeder Teil in inhaltlich vollständig in sich abgeschlossenen

and einzeln käaflichen Bänden (Abteilangen). Geheftet and in Leinwand ge-

banden. In Halbfranz gebanden jeder Band M. 2. mehr.

Die „Koltor der Gegenwart" soll eine systematisch aufgebaute, geschichtlich be- grundeteGesaxntdarstellung unserer heutigen Kultur darbieten, indem sie die Fundamen- talergebnisse der einzelnen Kulturgebiete nach ihrer Bedeutung für die gesamte Kultur der Gegenwart und für deren Weiterentwicklung in großen Zügen zur Darstellung bringt Das Werk Tereinigt eine Zahl erster Namen aus allenGebieten derWissenschaft und Praxis und bietet Darstellungen der einzelnen Gebiete jeweils aus der Feder des dazu Berufensten in gemeinverständlicher, künstlerisch gewählter Sprache auf knappstem Räume.

Seine Majestät der Kaiser hat die Widmung des Werkes Allergnädigst anzunehmen geruht.

Protpektfaefte werdan den Intereienten unentgeltlich vom Verlag B. G.Teabner in Leipzig, Poit»tr. 3, «ugesaadt.

L TeiL Die geisteswissenschaftlichen Kulturgebiete, i. Hälfte. Religion and Philosophie, Literatar, Musik und Kunst (mit vorangehender Einleitung zu dem Gesamtwerk). [14 Bände.]

(* erschienen.)

*D1« griechisch« und lat«iniich« Literatur und Sprache. (1, 8.) 3. Aof Uge. fVIII n. 58a S.] 19x2. M. IS. , M. 14.

*Dle oiteuropälichen Literaturen und die ilawiichen Sprachen. (I, 9.) [VUI u. 396 S.] 1908. M. xo. f M. xa.

Die deutsche Literatur und Sprache« (I, xo.)

*Die allgemeinen Grundlagen der Kultur der

Gegenwart (I, x.) a. Aufl. [XTV n. 7x6 S.] 19x8.

M. x8.— , M. so.—

Die Au&aben und Methoden der Geittei-

wissenienaflen. (I, s.) *Die Religionen des Orient! und die alteennan.

Religion. (I, 3, x^ s. Aofl. [X o. 287 S.] X9X3.

Mu 8.^p JA. XO.—

Die Religionen des kiaaslach. Altertums. (L 3, 2.) •Geschichte der chriitlichen Rellsdon. MitEin- leitg. : Die itraelltlich-jadiache Religion. (1, 4, x.) 2. Aofl. [X n. 79s S.] 1909. M. x8. , ü. so.

«Syitematiache christliche Religion, (l, 4, s.) s. Aufl. [VIII u. S79 S.] 1909. M. 6.60, M. 8.—

•Allgemeine Geschichte der Philosophie. (I, 5.) 2. Auflage. pC n. 6so S.] 19x3. M. 14.— , M. x6.—

•Systematische Philosophie. (U 6.) s. Auflage. [X u. 435 S.] 1908. M. xa— , M. xs.

•Die orientalischen Literaturen. (1, 7.) [IX n. 4x98.] X900. JA. XO.— f oL, xs.—

•Die romanischen Literaturen und Sprachen. Mit EinschluB des Keltischen. (I, xx, x.) [Vniu. 499 S.] 1908. M. xa.— , M. X4.—

Englische Literatur und Sprache, skandina- vische Literatur und allgemeine Literatur- wissenschaft. (I, iz, s.)

Die Musik. (I, IS.)

Die orientalische Kunst. Die europäische Kunst des Altertums. (I, 13.)

Die europäische Kunst des Mittelalters und der Neuzelt. Allgemeine Kunstwissenschaft. (1, 14.)

IL Teil. Die geisteswissenschaftlichen Kulturgebiete. 2. Hälfte. Staat und Gesellschaft, Recht und Wirtschaft. [10 Bände.]

(• erschienen.)

Völker-, Linder- und Staatenkunde. (11, x.)

*Allg. Verfiusungs- u. Verwaltungsgeschichte, (n, s, I.) [Vm u. 373 S.] 19XX. M. 10.—, M. IS.—

Staat und Gesellschaft des Orients von den An- fingen bis zur Gegenwart. (II, 3.) Bncheint 19x4.

*Staat und Gesellschaft der Griechen u. Römer. (II, 4, 1.) [VI n. 280 S.] 19x0. M. 8.—, M. xo.—

Staat und Gesellschaft Europas im Altertum und Mittelalter. (H, 4, s.)

*Staat u. Gesellschaft d. neueren Zeit (h. s. Fraax. Revolution). (II, 5,1.) [VIU.349S.] 1908. M.9.— ,M.xx.*

Staat und Gesellschaft der neuesten Zeit (Tom Begina der Fransösischen Revolution). (^, 5, s.)

System der Staats- und Gesellschaftswissen- schaften. (II, 6.)

* Allgemeine RechUgeschichte. L Hälfte. (0, 7, x.) [VI u. 302 S.] 19x4. ca. M. xo.

^Systematische Rechtswissenschaft. (O, 8.) s. Aufl. (XIII n. 583S.) 19x3. M. 14.—, M. x6.—

Allgemeine Wirtschaftsgeschichte mit Ge- schichte der Volkswirtschaftslehre. (H, 9.)

«Allgemeine Volkswirtschaftslehre. (II, 10, x.) s. Aufl. (VI u. S56 S.) 19x3. M. 7.—, M. 9.

Spezielle Volkswirtschaftslehre. (II, xo, s.)

System der Staats- und Gemeindewirtschafls- lehre (Flnanswlssenschaft). (II, xo, 3.)

nL Teil Die mathematischen, naturwissenschaftlichen imd medizinischen Kulturgebiete. [19 Bände.]

rV, 4. V. VII, X ; f unter der Presse in, 3. IV, 3, i.

*Band x. Allgemeine Biologie. Baadredaktenre :

fC. dum and W. Johannsen. Bearbeitet von E. Banr,

P.Boysen- Jensen, P. Claoßen, A. Fischöl, E. God«

lewski, M. Hartmann, W. Johannsen, E. Laqnear,

tB. Lidforss, W. Ostwald, O. Porsch, H. Przibram, .Ridl, O. Roseaberg, W. Rouz, W.Schleip, G.Senn, H. Spemann, O. snr Straßen.

*Bana 2. Zellen- und Gewebelehre, Morpliologie u. Entwlcklungtgeachlchte. x. Botanischer Teil. Bandred.: f E.Strasbarger. Bearb. von W. Benecke nnd f E. Strasbnrger. Mit Abb. [VII, 340 S.] 19x3. M xo.— , M x8. ^ 9. Zoologischer Teil. Bandred.:

f* erschienen: 1, 1. 1, 2. 1, 3. III, x. III, 2. IV, x. IV, 2

*I. Abt Die math. Wissenschaften, (i Band.) Abteilungsleiter nnd Bandredakteor: F. Klein. Bearb. ▼on P. Stäckel, H. E. Timerding, A. Vofi, H. G. Zeuthen. ^Lfgn. Lex.-8. *LLfg. (Zenthen). [rVn.95 S.] 19x2. Geh. Mj.— »ILLfg. (Voß u. Timerding.) [IV u. x6xS.] X9X4. •IlLLfg.(Voß.) [VIa.i48S.] 1914. Geh. M. 5.—

n. Abt. Die Vorgeschichte der modernen Naturwissenschaften u. d. Medizin, (i Band.) Bandredakteare : J. Ilbexg and K. SudhofF. Bearb. von F.BoU, S.Günther, I.L. Heiberg, M.Hoefler, J.Ilberg,

E. Seidel, EL Sadhofl^ B.Wiedemann n.a.

m. Abt Anorgan. Naturwissenschaften. Abteilangsleiter: E, Lecher.

*Baad x. Physik. Bandredakteor: E. Warbarg. Bearb. von F. Auerbach, F. Braun, E. Dom, A. Einstein, J. Elster, F.Ezner, R. Gans, E.Gehrcke, H.Geitel, E.Gam- lieh, F. Hasenöhrl, F. Henning, L. Holbom, W. Jäger, W. Kanftnann, E. Lecher, H.A.Lorents, O. Lämmer, St. Meyer, M. Planck, O. Reichenheim, F. Richax^ H.Rnbens, E.v.Schweidler, H. Starke^ W.Voigt, E. Warbnrg, E.Wiechert, M.Wien, W.Wien, O.Wiener, P. Zeeman.

*Band 2. Chemie. Bandredakteor: £. v. Meyer. Allgemeine Kristallographie und Mineralogie. Bandred.: Fr. Rinne. Bearb. von K. Engler, H. Immen- dor^ fO. Kellner, A. Kossei, M.LeBlanc, R. Luther, S.v. Meyer, W. Nemst, Fr. Rinne, O. Wallach, O. N.Witt, L. Wöhler. MitAbbUdg. [IV 0.6638.] X9X3. JTxS.— , Jf20.—

tBand 3. Astronomie. Bandredakteur : J. Hartmann. Bearbeitet von L. Ambronn, F. Boll, A, v. Flotow,

F. K. Ginzel, K. Gral^ J. Hartmann, J. v. Hepperger, H. Kobold, E. Pringsheun, f F. W. Ristenpart

Band 4. Geonomie. Bandredakteare: fI.B. Messer^ Schmitt nnd H. Benndorl Mit einer Einleitong von F. R. Helmert Bearbeitet von H. Benndorf, f G. H. Darwin, O. Eggert, S. Flnsterwalder, E. Kohlschiitter, H. Mache, A. Nippoldt

Band 5. Geologie felnschliefilich Petrographie). Bandredakteur : A Rothpletz. Bearbeitet von A. fier- geat, J. KOnigsberger, A. Rothplets. Band 6. Physiogeographie. Bandredakteur: E. BrBckner. x. HUtte: Allgemeine Physiogeogruihie. Bearbeitet von E. Brückner, S. Finsterwalder, J. von Haan, fO.Krflmmel, AMers, E. Oberhummer u. a. 2. HUfto: Spezielle Physiogeographie. Bearbeitet von E. BrBckner, W. VL Davis u. a.

rV. Abt. Organische Naturwissenschaften. Abteilungsleiter: R. von Wettstoin.

O. Hertwig. Bearb. von B. Gaupp, K. Heider, O.Hert- wig, B. Hertwig, F.Keibel, H.P0U. Mit Abb. [VIII, 395 S.] 19x3. M x6. ,MiS. Band 3. Physiologie u. Ökologie, fl. Botan. Teil. Bandredakteor: G. Haberlandt. Bearbeitet v. E. Baur, Fr. Czapek, H. von Guttenberg. If. Zoolog. Teil. Bandredakteur : M Rubner. Mitarb. noch unbestimmt *Band 4. Abstammungslehre, Systematik, Palfton- tologie, Biogeographie. Bandredakteure: R. Hertwig und R.v. Wettstein. Bearbeitet von O.Abel, L E. V. Boas, A Brauer, A. Engler, K. Heider, R. Hert- wig, W. J. Jongmans, L. Plate, R. v. Wettstein. Mit Abb.

[li, 620 S.] 19x4. M 20.—, JC 22.

* V.Abt. Anthropologie einschl. naturwissen- schaftl. Ethnographie. (l Bd.) Bandredaktenr: G. Schwalbe. Bearb. von £. Fischer, R. F. Graebner, M Hoemes, Th. Mollison, A Ploetz, G. Schwalbe.

VI. Abt Die medizin. Wissenschaften. Abteilungsleiter: Fr. von MQller. Band z. Die Geschichte der modernen Medixin. Bandredaktenr : K. Sudho£ Bearb. von M. Neuburger, K. Sudho£F o. a. Die Lehre von den Krankheiten. Bandredakteor: W.His. Mitarbeiter noch onbestimmt Band 2. Die medizin. Spezialflicher. Bandredakt : Fr. V. MüUer. Bearbeitet von K. Bonhoeffer, E. Bomm, A. Cserny, R.E. Gaupp, K.v. Hess, A Hoche, Fr. Kraus, W, v. Leube, L. Lichtheim, H. H. Meyer, O. Minkowski, R. MUUer, L. A. Neisser, W. Osler, E. Payr, M. WUms.

Band 3. Beziehungen d. Medizin zumVolkswohL Bandredakteur: Mv. Gruber. Mitarb. noch unbestimmt

Vn. Abt. N aturphiloBophie u . Psychologie. «Band x. Naturphilosophie. Bandredakteor: CStompf. Bearbeitet voo E. Becher.

Band s. Psychologie. Bandredakteor: C. Stompl Bearbeitet von C L. Morgan und C. Stumpt

Vni. Abt Organisation der Forschung u. des Unterrichts. (l Band.) Bandredakteor: AGotxmer.

IV. Teil Die tedmischen Kulturgebiete. [15 Bände.]

AbteUnngsleiter: W. von Dyck ond O. Kammerer. (* erschienen: Band xs; f nnter der Presse: Band 2.)

Band x. Vorgeschichte der Technik. Band« redakteor ond Bearbeiter: C MatschoA. f Band 2. Gewinnung und Verteilung mechani- scher Eoeigie. Bandredakteor :M Schröter. Bearb. von H. Boote, R. Escher, K. v. Liode, W. Lyoeo, Fr. Schäfer, R. Schflttler, M. SchrSter, A Schwaiger. Band 3. Bergbau. Bandredakteor: W. Bernhardt Bearbeitet von H. E. Bdker, G. Franke, Fr. Herbst, M. Krahm*««, M Reofl, O. Stegemann. Band 4. Hüttenwesen. Bandredakteor ood Mit- arhetter noch onbestimmt

Band 5. Landwirtschaft In3Teilbdn. LWirtachafts- lehre. Bandred.: E. Laor. Bearb. v. G. Fischer, O. Ger- lach, H.M00S, H. Pachner, K.v.Rümker, Joh. Schu- macher, F. Waterstradt F. Wohltmann o. a. II. Pflan- senprodoktlooalehre. BandredjK.v.Rümker. Bearb. v.P.Ehrenberg, J.Erikssoo, KL. Escherich^. Lemmer« mann, E. Less, K.v. Rfimker, F. G. Stehler, W. Strecker, B. Tacke, ICWuidisch, AZschokke o.a. m.Tierpro- dnküotislehre. Bandred.: F. Hoesch. Bearb. von F. Bol- lerdick, Boschkiet M. Casper, R. Disselhorst J. Han- sen, K. Hxttcher, F. Hoesch, O. Krancher, E. Schmidt. Band 6. Forstwirtschaft Bandredaktenre ond Bearbeiter: R.Beck ond H. Martin. Baad 7. Mechanische Technologie. Bandredak- toof«: S. Pfahl ond A Wallichs. Bearbeitet von

P. V. Denifer, Fr. Hülle, O. Johannsen, E. PfuhL M. RudelofiE; AWalUchs.

Bands. Chemische Technologie. Bandredakteor ond Ifitarbeiter noch onbestimmt Band 9. Siedelungen. Bandred. : W. Frans ond C Hocheder. Bearb. von H. E. v.Berlepsch-Valendas, W. Bertoch, K.Brab^ K.Diestel, MDtUfer,Th. Fischer, H. Grässel, C. Hocheder, R. Rehlen, R. Schachner, £. Schilling, H. v. Schmidt R. L. A. Weyraoch o. a. Band xo nnd xz. Verkehrswesen. Bandredakteor: O. Kanunerer. Mitarbeiter noch onbestimmt *Band zs. Technik des Krie^wesens. Band- redakteor: M Schwarte. Bearbeitet voo K. Becker, O. V. Eberhard, L. Glatxet A Kerstiog, O. Kretschmer, O. Poppenberg, J. Schroeter, M. Schwarte, W. Schwin- ning. Mit Abb. [X, 886 S.] xgxt. Jt 24.—, M s6.— Band x%. Die technischen Mittel des geistigen Verkehrs. Bandredakteor: A Miethe. Bearbeitet von E. Goldberg, A Miethe o. a. Baod 14. Entwicklungslinien der Technik im 10. Jahrh. Organisation der Forschung. Unter- richt. Bandred.: W.v.Dyck. Mitarb. noch uobestimmt. Band 15. Die Stellung d. Technik zu den anderen Kulturgebieten. I0.II. Bandredakteor: W. v. Dyck. Bearbeitet voo Fr. GottL voo OttlUienfeld, H. Herkner, C. Hocheder u. a.

DIE

KULTUR DER GEGENWART

IHRE ENTWICKLUNG UND IHRE ZIELE HERAUSGEGEBEN VON PAUL HINNEBERG

DRITTER TEIL

MATHEMATIK NATURWISSENSCHAFTEN

MEDIZIN

DRITTE ABTEILUNG

ANORGANISCHE NATURWISSENSCHAFTEN

UNTER LEITUNG VON K LECHER ERSTER BAND

PHYSIK

UNTER REDAKTION VON E. WARBURG

VERLAG VON B.G.TEUBNER IN LEIPZIG UND BERLIN 1915

PHYSIK

UNTER REDAKTION VON E. WARBURG

BEARBEITET VON

F. AUERBACH F. BRAUN K DORN A. EINSTEIN . J. ELSTER F. EXNER R.GANS . E.GEHRCKE - H.GEITEL KGUMLICH F.HASENÖHRL F.HENNING L. HOLBORN W. JÄGER - W. KAUFMANN K LECHER . H. A. LORENTZ O. LXJMMER . ST. MEYER M. PLANCK . O. REICHENHEIM F. RICHARZ H. RUBENS . K v. SCHWEIDLER . H STARKE W. VOIGT E. WARBURG E.WIECHERT . M.WIEN . W.WIEN . O.WIENER RZEEMAN

MIT I06 ABBILDXTNGEN IM TEXT

VERLAG VON B. G.TEUBNER IN LEIPZIG UND BERLIN 1915

COPYRIGHT 19x5 BY B. G. TBUBNER IN LEIPZIG

ALLE RECHTS» EINSCHLIESSUCH DES ÜBERSETZUMGSRECHTS, VORBEHALTEN

••5

\

VORWORT

In dem Rundschreiben, durch welches der Unterzeichnete zur Mitarbeit an dem vorliegenden Bande der Kultur der Gegenwart einlud, wurde der Plan desselben folgendermaßen gekennzeichnet.

„Das Werk wendet sich an das ganze akademisch gebildete Publikum, erstens an die Physiker von Fach imd andere Kreise von gründlicher phy- sikalischer Bildung, zweitens an Femerstehende, z. B. die Vertreter der Geistes- wissenschaften. Es ist die Forderung zu stellen, daß das Werk beide Kate- gorien interessiert Diese Forderung zu erfüllen ist zweifellos schwer, aber, wie Darstellungen von Bessel, von Helmholtz, Lord Kelvin u. a. beweisen, möglich; die Arbeit scheint dankbar in unserer Zeit, in welcher das Interesse an der Physik sowohl durch die neuen Entdeckungen wie durch technische Anwendungen weite Kreise erg^rifiFen hat. Die Lösung der Aufgabe würde, wie mir scheint, erleichtert, wenn man, entsprechend der beabsichtigten Ver- knüpfung der verschiedenen Wissensgebiete, in der Experimentalphysik die An- wendungen auf die Nachbargebiete (Chemie, Astronomie, Biologie, Technik) nach Möglichkeit berücksichtigte und femer den historischen Gesichtspunkt mehr in den Vordergrund rückte. Wenn auch in den Werken von Poggendorff, Rosenberg u. a. sehr wertvolles historisches Material niedergelegt ist, so fehlt es doch an zusammenhängenden historischen Darstellungen einzelner Wissens- gebiete von den Ausgangspunkten bis auf die Gegenwart. Solche Dar- stellungen könnten den Physiker und Nichtphysiker gleichmäßig interessieren.

Es braucht kaum gesagt zu werden, daß es sich um nichts weniger han- delt als etwa um ein populäres Lehrbuch der Physik. Ein Lehrbuch sollte vollständig, fest in sich zusammenhängend und aus einem Guß sein, kann daher nur von einem geschrieben werden. Dagegen würde in der Kultur der Gegenwart die Physik von vielen zu bearbeiten sein \md als ein Kom- plex einzelner Essays ohne festen Zusammenhang erscheinen, wobei auf Vollständigkeit im Sinne eines Lehrbuchs zu verzichten wäre.

Wenn es gelänge, die geeigneten Mitarbeiter zu gewinnen, so stände zu hoffen, daß man ein Dokument von bleibendem Wert erhielte, aus welchem auch spätere Generationen sich über den Stand der Phy3ik zu unserer Zeit unterrichten könnten."

Ob diese Hoffnung sich erfüllt hat, muß die Zukunft lehren. Jedenfalls hat sich die Voraussetzung erfüllt, an welche diese Hoffnung geknüpft wurde.

280877

VT Vorwort

wofür der Unterzeichnete denjenigen Herren, welche der Einladung zur Mit- arbeit gefolgt sind, seinen besten Dank hierdurch ausspricht

Daß 36 Artikel, von 32 Autoren verfaßt, in bezug auf die Darstellung, insbesondere in bezug auf Popularität und Ausführlichkeit etwas verschieden ausfallen würden, war vorauszusehen. Dem Physiker von Fach ist vielleicht auch das ihm Bekannte, wenn es in übersichtlicher und gefalliger Form ge- bracht wird, willkommen. Dem Femerstehenden werden einige Partien Schwierigkeiten bereiten, doch dürfte das Meiste jedem wissenschaftlich Ge- bildeten verständlich sein. Wie oben bemerkt, sah die ursprünglich dem Werk zu Grunde gelegte Disposition, an welcher im Lauf der Arbeit nichts wesent- liches geändert wurde, Vollständigkeit im Sinne eines Lehrbuches nicht vor. Hoffentlich ist aber Vollständigkeit erreicht in bezug auf die Darstellung der Ideen, welche die Wissenschaft der Physik in unserer Zeit bewegen.

Charlottenburg, 16. Juli 1914.

K WARBURG.

INHALTSVERZEICHNIS MECHANIK

Seite

1. Die Mechanik im Rahmen der allgemeinen Physik 1^78

Von E. WIECHERT.

AKUSTIK

2. Historische Entwicklung imd kulturelle Beziehungen .... 79—100

VON FELIX AUERBACH.

WÄRMELEHRE

3. Thermometrie loi— iii

Von E. WARBURG.

4. KLalorimetrie iia— 117

Von L. HOLBORN.

5. Entwicklung der Thermodynamik 118— 127

Von f. HENNING.

6. Mechanische und Thermische Eigenschaften der Materie in

den drei Aggregatzuständen 128—153

Von L. HOLBORN.

7. Umwandlungspunkte, Erscheinungen bei koexistierenden

Phasen 154—178

Von L. HOLBORN.

8. Wärmeleitung 179—186

Von W. JAEGER,

9. Wärmestrahlung 187—208

Von HEINRICH RUBENS.

10. Theorie der Wärmestrahlung 209—222

Von W. WIEN.

11. Experimentelle Atomistik 223—250

Von ernst DORN.

12. Theoretische Atomistik 251—263

Von A. EINSTEIN.

ELEKTRIZITÄTSLEHRE

13. Entwicklung der Elektrizitätslehre bis zum Siege der Fara^

dayschen Anschauungen 265—296

Von FRANZ RICHARZ.

14. Die Entdeckungen von Maxwell und Hertz 297-310

Von ernst LECHER.

15. Die MAxwELLSche Theorie imd die Elektronentheorie .... 311—333

Von H. A. LORENTZ.

16. Ältere und neuere Theorien des Magnetismus 334—348

Von R. GANS.

17. Die Energfie degradierenden Vorgänge im elektromagne-

tischen Feld 349—358

Von E. GUMLICH.

18. Die drahtlose Telegraphie 359—381

Von FERDINAND BRAUN.

Vni Inhaltsverzeichnis

Seite

19. Schwingungen gekoppelter Systeme 382—407

Von MAX WIEN.

20. Das elektrische Leitungsvermogen 408—449

VON H. STARKE.

21. Die Kathodenstrahlen 450—457

Von W. KAUFMANN.

22. Die positiven Strahlen 458—466

VON E. GEHRCKE UND O. REICHENHEIM.

2^. Die Röntgenstrahlen 467—477

Von W. KAUFMANN.

24. Entdeckungsgeschichte und Grundtatsachen der Radio-

aktivität 478—494

Von J. ELSTER und H. GEITEL.

25. Radioaktive Strahlungen und Umwandlungen 495—513

Von STEFAN MEYER und EGON v. SCHWEIDLER.

LEHRE VOM LICHT

26. Entwicklung der Wellenlehre des Lichtes 517— 574

Von OTTO WIENER.

27. Neuere Fortschritte der geometrischen Optik 575—603

Von OTTO LUMMER.

28. Spektralanalyse 604—621

Von f. EXNER.

29. Struktur der Spektrallinien 622—626

Von E. GEHRCKE.

30. Magnetooptik 627—650

Von P. ZEEMAN.

ALLGEMEINE GESETZE UND GESICHTSPUNKTE

31. Verhältnis der Präzisionsmessungen zu den allgemeinen Zielen

der Physik 653—660

Von E. WARBURG.

32. Die Erhaltung der Energie imd die Vermehrung der En-

tropie 661—691

Von f. HASENÖHRL.

33. Das Prinzip der kleinsten Wirkung 692—702

Von MAX PLANCK.

34. Die Relativitätstheorie 703—713

Von albert EINSTEIN.

35. Phänomenologische und atomistische Betrachtungsweise . . . 714—731

Von W. VOIGT.

36. Verhältnis der Theorien zueinander 732—737

Von M. PLANCK.

Namenregister 738—745

Sachregister 746—762

\

MECHANIK

I.

DIE MECHANIK IM RAHMEN DER ALLGEMEINEN PHYSIK.

Von

E. WiECHERT.

Vorwort. Die Mechanik handelt von Ruhe und Bewegung der Körper und Bereich

^ ^ '^ der Mechanik.

Körperteile, sowie von den Kräften, welche dabei wirksam sind. Da nun bei fast allen Naturvorgängen Ruhe, Bewegung und Formänderung der Körper wesentlich in Betracht kommen, so durchdringt die Mechanik alle Zweige der Physik. Mehr als einmal hat man versucht, Naturvorgänge, welche der Mecha- nik nach dem ersten Anblick fern zu liegen scheinen, und selbst die Physik im ganzen auf die Mechanik zurückzuführen. So werden wir denn bei unserer Wan- derung, welche uns mit der Entwicklungsgeschichte und der heutigen Entfal- tung der Mechanik bekannt machen soll, ein sehr weites Gebiet zu durchschrei- ten haben. Es werden Erscheinungen zu beachten sein, die ganz nah und offen vor uns liegen, wir werden aber auch des öfteren versuchen müssen, bis zu den äußersten Grenzen der menschlichen Erkenntnis vorzudringen.

Im täglichen Leben des Menschen spielen die mechanischen Vorgänge eine große Rolle, sie beherrschen all sein Tun und Lassen. Die Mechanik gehört daher zu den Wissenschaften, deren Pflege seit alten Zeiten die Entwicklung der Kul- tur begleitet hat. In dem Zeitalter der Technik, das uns umfängt, finden wir sie unter den Grundlagen der wissenschaftlichen Arbeit, welche das Augenmerk auf das Praktische richtet.

Man kann physikalische, technische und praktische Mechanik unterschei- Phyaikaiische, den. Die physikalische Mechanik gehört jener Wissenschaft an, welche allein und p^ti«che nach Erkenntnis fragt, welche nur darauf ausgeht, dem Menschen die Welt ken- ^^^^"^^ nen zu lehren, in der er lebt. Sie durchdringt nicht nur die engere Physik, son- dern auch die Astronomie, die Geophysik, die Geologie, die Chemie, die Biologie. Man unterscheidet dementsprechend wohl eine für sich stehende Mechanik, die man ,, reine**, oder „allgemeine**, oder ,, rationelle** Mechanik genannt hat, von ,, angewandter** Mechanik. Die technische Mechanik hat die Aufgabe, den wissenschaftlichen Anforderungen der Technik zu genügen. Es ist klar, daß sie ihre Grundlage in der physikalischen Mechanik suchen muß. Umgekehrt hat hier, wie so oft, die rein auf Erkenntnis gerichtete Wissenschaft der Technik mannigfache und wichtige Anregungen und weitgehende Unterstützung zu dan- ken gehabt. Die praktische Mechanik, oft auch die ,, Kunst der Mechanik** genannt, bezeichnet die direkt auf die Herstellung von Vorrichtungen, Werk- zeugen, Maschinen, Bauwerken und dergleichen zielende praktische Tätigkeit.

!•

4. I. £. WiKCHSRT: Die Mechanik im Rahmen der allgemeinen Physik

Im folgenden soll die Mechanik als Teil der Physik behandelt werden ; so werden der technischen und der praktischen Mechanik nur vereinzelte Ausblicke gewidmet werden können. Statik, DjiuLiiiik, Die reine Mechanik pflegt man in Statik und Dynamik einzuteilen; es Kiaematak. kauu uoch dic Kinematik, auch Phoronomie genannt, hinzugezählt werden. Die Kinematik verfolgt die Bewegung, ohne dabei auf eingreifende Kräfte zu achten; die Statik behandelt speziell den Fall des Gleichgewichtes der einwir- kenden bewegenden Kräfte und bildet so einen speziellen Fall der allgemeineren „Dynamik", das heißt der „Lehre von den Kräften".

Da der Wissenschaft der älteren Zeiten in der „Kultur der Gegenwart** ein besonderer Band gewidmet ist, scheint es angezeigt, unsere Besprechung so- gleich mit der Zeit Galileis zu beginnen. Es wird dabei die Darstellung in drei Kapitel zerlegt werden: i. „Die Mechanik bis zu dem ersten Abschluß ihrer Entwicklung durch Newton.** 2. „Die klassische Mechanik.** 3. „Über die klassische Mechanik hinaus.** Daran schließen sich einige „Schlußbemer- kungen** über die Bedeutung der Mechanik für die Naturforschung. In einem „Anhang** werden die hauptsächlichsten mathematischen Formulierungen des dynamischen Grundgesetzes der klassischen Mechanik dargelegt.

Mechanik bis zu dem ersten Abschluß ihrer Entwicklung durch Newton.

Gauiei. Galileis Mechanik. Der Universitätsprofessor der Mathematik Galileo Galilei (1564— 1642) hatte seinen Unterricht noch ganz unter der Vor- herrschaft der Lehren des Aristoteles empfangen, und er selbst mußte diese Lehren seinen für die Allgemeinheit bestimmten Universitätsvorlesungen zugrunde legen.

Die wissenschaftlichen Erfolge Galileis sind zu danken einer meisterhaften Verbindung von geschickt angeordneten Beobachtungen und scharfsinnigen Überlegungen. Charakteristisch ist dabei für ihn, daß er trotz aller Tiefe der Auf- fassung bei der Enträtselung der Erscheinungen doch immer vermied, weiter- gehenden Spekulationen und Formulierungen nachzuhängen. So kam es auch, daß seine Nachfolger des öfteren aus seinen Schriften Sätze in allgemeinerer Form herauslasen, als seinen eigenen Worten entspricht. FaUgeaetse. Ausgcdchnte Versuchc über den freien Fall, über den Fall auf der schiefen Ebene und über Pendelschwingungen führten Galilei zu dem Schluß, daß ab- gesehen vom Luftwiderstand alle Körper gleich schnell fallen. Dies war ein erstes wichtiges Resultat, welches ihn in Gegensatz zu Aristoteles brachte. Es ist von Interesse zu beachten, daß schon lange vor Galilei, um 500 n. Chr., Philoponus durch den „Augenschein** zu der gleichen Schlußfolgerung in bezug auf den Fall der Körper geführt worden war. Newton wies später darauf hin, daß die Gleichheit der Fallgeschwindigkeit Proportionalität von Schwere und Trägheit der Materie anzeigt.

Für Galilei galt es nun festzustellen, nach welchem Gesetz die Zunahme der Geschwindigkeit erfolgt. Er war überzeugt, daß die „Künstlerin Natur** mit einfachen Mitteln arbeite. Er erwartet also ein einfaches Gesetz. In jener

Galilei ^

Zeit wurde mehrfach die Meinung vertreten, daß die Geschwindigkeit beim Fall proportional mit dem zurückgelegten Weg wachse. Galilei stellt fest, daß die- ses Gesetz mit den Beobachtungen nicht verträglich ist. E^ ist merkwürdig zu sehen, daß er auch durch mathematische Überlegungen, die ziemlich leicht als irrtümlich erkannt werden können, a priori die Unmöglichkeit dieses Gesetzes nachzuweisen sucht.

Er macht nun zweitens die Annahme, daß die Fallgeschwindigkeit pro- portional mit der Fallzeit wachse, und findet dieses zutreffend. Damit ist ihm denn gelungen, die Fallgesetze richtig darzustellen. Es vergingen freilich noch Dezennien, bis seine Resultate allgemein anerkannt wurden; mehrfache Nach- prüfungen fanden statt. Galilei hebt besonders hervor was gegenüber Aristoteles nötig schien , daß die Geschwindigkeit beim Fall alle Grade von Null an in stetiger Folge durchlaufe: Die Wirkung der Schwere bestehe dar- in, in gleichen Zeitelementen gleiche Geschwindigkeitselemente hinzuzufügen. Hiermit ist als Wirkung einer bewegenden Kraft die „Beschleunigung'* gekenn- zeichnet und so das Fundament für den Aufbau der Dynamik gelegt.

Zu weiteren Fortschritten führte die experimentelle und theoretische Unter- ScWefe Ebene, suchung des Falles auf der schiefen Ebene und der Pendelschwingungen; die letzteren, in mannigfachen Abänderungen untersucht, boten Beispiele für die Bewegung auf gekrümmten Bahnen. Unter Verwertung des Hebelprinzips stellt Galilei die Kraft fest, mit welcher ein Körper auf der schiefen Ebene herabzugleiten strebt. Es wird so eine neue Ableitung des früher von Simon Stevin(l 548 1 620) gefundenen Gesetzes gewonnen. Galilei gelangt weiter zu dem Schluß, daß die Beschleunigung des Falles auf der schief en Ebene proportional mit dem längs der Ebene wirkenden Antrieb ist. Das scheint einleuchtend, die Ver- suche bestätigen es. Die Dynamik nach Galileis Zeit knüpfte daran ohne weiteres die allgemeine Folgerung, daß die durch eine Kraft bewirkte Beschleunigung proportional ist mit der Größe der Kraft; selbstverständlich scheint dieser späteren Zeit auch, daß bei verschiedenen Massen zur Erzielung gleicher Be- schleunigungen Kräfte nötig sind, die sich den Massen proportional verhalten. Damit ist dann das Wirkungsgesetz der bewegenden Kraft gewonnen; Kraftwirkangs- Newton zögert nicht, seine Aufstellung auf Galilei zurückzuführen. Beim ******** freien Fall und auch beim Fall auf der schiefen Ebene handelt es sich insofern um eine spezielle Art der Bewegung, als die Bahn von vornherein gegeben scheint. Galilei zeigt durch seine Untersuchung des Wurfes, wie eine allgemei- nere Art der Bewegung zu behandeln ist. Beim Wurf wirkt in vertikaler Rich- tung die Schwere, während in horizontaler Richtung, wenn von dem Luftwider- stand abgesehen wird, keine Kraft sich betätigt. Galilei nimmt dementspre- chend an, daß die horizontale Komponente der Geschwindigkeit unverändert erhalten bleibt, während in vertikaler Richtung die Bewegung unter dem Ein- fluß der Schwere genau in derselben Weise vor sich geht, wie bei Abwesenheit der horizontalen Bewegung. In der 2^it nach Galilei knüpfte man an diese und die damit zusammenhängenden Überlegungen Galileis ohne weiteres zwei für die Grundlegung der Dynamik außerordentlich wichtige Schlüsse. Erstens

5 I. E.WiECHERT: Die Mechanik im Rahmen der allgemeinen Physik

Bftharrungs- folgerte man den Satz vom Beharrungsvermögen der Bewegung. In der ^ßTwegung^Newtonschen Formulierung lautet dieser Satz so: „Jeder Körper beharrt in seinem Zustand der Ruhe, oder der gleichförmigen geradlinigen Bewegung, so- fern er nicht durch einwirkende Kräfte gezwungen wird, diesen Zustand zu Unabhängigkeit ändern/* Galilei hat das Gesetz, wie es scheint, niemals in solcher allgemeinen ^rkM^gen. ^^rm ausgcsprochen, dazu gelangte erst Descartes 1644. Die zweite Schlußfolgerung wurde nicht besonders formuliert. Sie besteht nur in einer be- sonderen Auffassung über den Geltungsbereich des eben angegebenen Wir- kungsgesetzes der bewegenden Kraft. Dieses soll danach auch dann noch un- verändert gelten, wenn der Körper eine beliebig gerichtete Geschwindigkeit be- sitzt, und wenn er zugleich irgendwelchen anderen bewegenden Kräften aus- gesetzt ist. Diese Annahme der Unabhängigkeit der einzelnen Kraftwirkungen führte 1687 gleichzeitig Varignon, Newton und Lamy zur Ableitung des Satzes vom Parallelogramm der Kräfte und kam dabei wohl zuerst in allgemei- ner Form zur Geltung.

Fügt man zu den Sätzen vom Beharrungsvermögen der Bewegung und von der Unabhängigkeit der Kraftwirkungen noch das Wirkungsgesetz der bewegen- den Kraft, so sind die Grundlagen für die ,, Dynamik des Massenpunk- tes** gewonnen, welche Newton beim Aufbau seiner Mechanik annahm, und die dann weiterhin auch zum Fundament der sogenannten „klassischen Me- chanik** gehörten.

Galilei gibt mannigfache Anwendungen seiner Fallgesetze. Weitgehend behandelt er den Fall auf gekrümmten Bahnen. Dabei werden die Gesetze der Pendelbewegung gewonnen. Höchst bemerkenswerte Folgerungen ergeben sich, Faiitiofe und indem auf die Beziehungen zwischen Falltiefe und Geschwindigkeit geachtet eac Win ig «» \^jj.j^ Galilei leitet aus seinen Fallgesetzen ab, daß die Geschwindigkeit, wel- che ein Körper beim Fall auf der schiefen Ebene erlangt wenn vom Reibungs- widerstande abgesehen wird , gerade ebenso groß ist wie die Geschwindig- keit, welche beim vertikalen Fall durch die gleiche Höhendifferenz gewonnen wird. Er folgert, daß dieser Satz, der Fallhöhe und Geschwindigkeit fest ver- bindet, auch allgemein beim Herabgleiten des Körpers auf beliebig gekrümmter reibungsloser Bahn gelten muß. Und hieran knüpft sich dann sogleich der Schluß, daß der Körper die Ausgangshöhe gerade wieder mit der Geschwindig- keit Null erreicht, wenn seine Bahn ihn wieder nach oben führt. Es scheint nun bei der vorausgesetzten Reibungslosigkeit der Bahn selbstverständlich, daß dem so sein muß. Nimmt man das aber an, so führt auch diese Annahme zu dem Satz von der festen Verbindung von Geschwindigkeit und Falltiefe. Für diesen Satz ergeben sich so zwei vollständig verschiedene Arten der Begründung. Galilei war offenbar im Zweifel darüber, welche der beiden Arten voranzu- stellen sei, denn er wendet bald die eine, bald die andere an. Auch die Auffassung in der Zeit nach Galilei ist schwankend gewesen. Huygens verwertet das Axiom, daß die ursprüngliche Höhe wieder erreicht werden müsse; in der Physik Newtons aber bilden die Bewegungsgesetze den alleinigen Ausgangspunkt und das Wiedererreichen der Anfangshöhe erscheint als Folgesatz. Durch die

Galilei y

Einführung allgemeinerer energetischer Auffassungsweisen in die Dynamik wur- den dann später beide Arten der Ableitung zu einer höheren Einheit ver- bunden.

Aristoteles hatte für die Wirksamkeit des Hebels als wesentlich bezeichnet Ges«t> die Verschiedenheit der Wege, welche bei einer Drehung von den Enden be- ^dM^M^tn.* schrieben werden. Von Guido Ubaldi del Monte (1545— 1 607) war dieser Gedanke weiter ausgeführt worden. Galilei gelang es, hier ein allgemeines Gesetz für die Wirksamkeit der Maschinen zu erkennen. Bei einer Übertragung der Kraft durch irgendeine Vorrichtung wird stets, wie er sich ausdrückt, ,,an Leichtigkeit gewonnen*', was „an Weg, an 2^it oder in Langsamkeit verloren geht". Bei der Einwirkung einer Kraft auf einen Mechanismus kommt es daher nicht nur auf die Kraft selbst an; maßgebend ist vielmehr das Produkt Kraft X Geschwindigkeit bei einer wirklichen oder nur gedachten Bewegung. Gleichgewicht besteht, wenn die so bei einer gedachten Bewegung beurteilten Einwirkungen aller angreif enden Kräfte einander aufheben. In diesen schönen Überlegungen liegen die Wurzeln von Sätzen, die später für die Mechanik gewal- tige Tragweite gewannen. Es ist in ihnen angedeutet der energetische Satz, daß durch einen Übertragungsmechanismus die Arbeitsleistung nicht vermehrt wird. Für die Beurteilung des Gleichgewichtes sprechen sie jenes Prinzip aus, welches 1707 von Johann Bernoulli ganz allgemein formuliert wurde, und von ihm den Namen ,, Prinzip der virtuellen Geschwindigkeiten** erhielt.

Wir haben nun in einer kurzen Übersicht der großen Taten gedacht, welche den Namen Galileis unvergeßlich gemacht haben. Es sollen nun noch einige ergänzende Bemerkungen angeschlossen werden.

Mit Geschick hat Galilei eine Reihe von Problemen der Festigkeit behan- delt. — Interessant ist sein Verhalten gegenüber dem Aristotelischen Begriffe des „horror vacui**. Er erkannte das Bestehen des horror an, ja er glaubte, ein Horror vacm. Maß für ihn gefunden zu haben. Es war zu Galileis Zeit schon bekannt, daß Saugpumpen nur bis zu einer bestimmten Höhe das Wasser heraufzuziehen ver- mögen, so meinte er denn, daß sich hier die Grenze für die Wirksamkeit des horror zeige. Evangelista Torricelli (1608— 1647), ein Schüler Galileis, ersetzte das Wasser durch Quecksilber und konstruierte unser noch heute gebräuchliches Barometer. Torricelli bemerkte Schwankungen in der Höhe der Quecksilbersäule und fand, daß diese mit der Wetterlage zusammenhingen. So verwarf er dann die Hypothese des horror vacui und erklärte in richtiger Weise das Aufsteigen der Flüssigkeit durch den Luftdruck. Als dann später auf Anregung von Pascal festgestellt wurde, daß der Barometerstand mit der Erhebung über dem Erdboden abnimmt, wurde der horror vacui zu einem Gegenstand des Spottes. E^ ist gar leicht zu spotten, wenn man wissend ge- worden ist d urch die Arbeit anderer, deren Mühen man nicht gespürt hat.

Descartes* System der Welt. Von großer Bedeutung für die Entwick- Descarte«. lung der Physik im 17. Jahrhundert war das Descartes sehe System der Welt. Ren6 Descartes (1596—1650), Militär und Gelehrter, meist als Privatmann der Philosophie ergeben, erstrebte, eine neue Methode der wissenschaftlichen

8 I. £. WiECHERT: Die Mechanik im Rahmen der allgemeinen Physik

Forschung einzuführen. Seit dem Wiedererwachen der Wissenschaft hatte man mehrfach ähnliche Versuche gemacht. Der gelehrte, wegen seiner wissenschaft- lichen Bestrebungen verfolgte Franziskaner mönch Roger Baco (12 14— 1294) war energisch für die experimentelle Methode eingetreten. Auch der Staats- mann Francis Baco (1561— 1626) verlangte engen Anschluß an die Erfahrung. Er wollte nur unmittelbare Folgerungen aus den Beobachtungen Induktions- schlüsse—gelten lassen und jede weitergehende Hypothese vermieden wissen. Es war dies eine Reaktion gegen die ungezügelten Spekulationen älterer Zeiten. Fran- cis Baco selbst hat freilich keine Erfolge irgendwelcher Art mittels seiner Me- thode zu erreichen vermocht. Newton hat sich später auf denselben Stand- punkt gestellt wie Francis Baco; er wandte sich dabei vornehmlich gegen die Spekulationen von Descartes. Auch Newton ist es jedoch nicht gelungen, die Hypothese zu verbannen. Descartes meint, daß sich das Wesen der Welt erfassen ließe, wenn man vom sicher Gegebenen aus in kleinen Schritten durch einfache Schlüsse vorwärts ginge. Wie wenig dies genügt, das sollte der Miß- erfolg seines eigenen Systems warnend lehren. Die Körper sind ausgedehnt, Bewegung ist Veränderung, dieses beides ist gewiß; so versucht nunDescartes, ausgehend von den Vorstellungen der Ausdehnung und der Bewegung die Welt in Gedanken aufzubauen. Er nimmt eine die Welt völlig erfüllende Materie an, welche zugleich mit ihrer Bewegung durch Gottes Schöpfung gegeben ist. Wie sabstans die Substanz, so soll auch die Bewegung unzerstörbar sein. Wir finden hier alte

''luixentsrbar. philosophischc Gedanken wieder, von denen zum Beispiel das berühmte Lehr- gedicht des römischen Dichters Lucrez (f 55 v. Chr.) berichtet. Durch die Bewegung wird nach Descartes die Materie in Elemente verschiedener Art zer- teilt, Wirbel erfüllen infolgedessen das Meer des Stoffes. Alle Kräfte entstehen durch diese innere Bewegung. Wirbel im Weltenraum führen die Planeten um die Sonne, die Trabanten um die Planeten. Wärme ist innere Bewegung, die Lichtstrahlen bedeuten fortgepflanzten Druck. Da die Materie den Raum ganz erfüllen soll, erfolgt nach Descartes die Ausbreitung des Lichtes unend- lich schnell. Das Gesetz der Beharrung der Bewegung ist in den Augen Des- cartes' eine unmittelbare Folgerung seines Systemes. Er behandelt auch den freien Fall und den Stoß, gelangt aber beide Male zu falschen Gesetzen. Er ge- langt zu der Folgerung, daß das Produkt Masse X Geschwindigkeit das Maß der Bewegung sei, welches für seinen Satz über die Unveränderlichkeit der Ge- samtmenge der Bewegung in der Welt angewandt werden müsse. Daß dieses Maß der Bewegung, für welches Descartes den Namen „Bewegungsgröße" einführt, hier nicht brauchbar ist, wurde später von Leibniz dargelegt.

Schicksal der Das Systcm von Descartes stellte einen ersten umfassenden Versuch der

^" k^Sowm* ^^^^'^^'^ Zeit dar, die Physik ganz und gar auf Mechanik zu gründen. Mit seiner großartigen Einheitlichkeit übte es einen mächtigen Zauber auf die Zeitgenossen aus. Jene geheimnisvollen Kräfte („vires occultae**), welche bis dahin die Ge- danken der Gelehrten im Anschluß an Aristoteles beschäftigt hatten, schienen nun glücklich beseitigt. Aber den verheißungsvollen Ausblicken des Des- cartesschen Systemes entsprachen die Erfolge nicht. Schon in den Ausfüh-

Descartes. Huygens g

rungen des Begründers zeigten sich Irrtümer, und nirgends gelang es in der Folge, von den Erscheinungen quantitativ richtig Rechenschaft abzulegen. Das System blieb ein Phantasiegebilde und verschwand unter dem machtvollen Ansturm der Newton sehen Weltanschauung. Der menschliche Geist hatte hier gar zu sehr der eigenen Kraft vertraut, hatte zu wenig die Natur selbst befragt.

Huygens. Sehr große Fortschritte verdankt die Mechanik dem Nieder- Hnygen«. länder Christian Huygens (1629--1695). Huygens widmete sich ganz der Wissenschaft, meist als unabhängiger Gelehrter, 1 5 Jahre hindurch als Aka- demiker in Paris. Er hat sich nicht nur um die theoretische, sondern auch um die praktische Mechanik bedeutende Verdienste erworben, denn er baute die ersten zweckmäßigen Pendeluhren und tragbaren Federuhren. Solche Feder- uhren konstruierte nahe gleichzeitig mit ihm der bald wieder zu erwähnende Robert Hooke, und es knüpften sich daran Prioritätsstreitigkeiten. Huy- gens vollendete dieTheorieder Pendelschwingungen, indem erden Zusammen- hang zwischen der Schwingungsdauer des Pendels und der Fallgeschwindigkeit so darlegte, daß es nun möglich wurde, die Fallbeschleunigung mittels Pendel- beobachtungen festzustellen. In seinem berühmten Werke von 1673 über Uhren behandelt Huygens ganz allgemein die Theorie des „physikalischen PhyrikaiischM Pendels**, das heißt der Schwingungen eines beliebig gestalteten Körpers, der unter dem Einfluß der Schwere um eine horizontale Achse pendelt. Das phy- sikalische Pendel steht im Gegensatz zum „mathematischen**; bei diesem wird ein Pendelkörper von nicht merklichen Dimensionen an einem Faden von nicht merklicher Masse vorausgesetzt. Das Problem, die Schwingungsdauer eines physikalischen Pendels theoretisch abzuleiten, hatte die Mathematiker seit Galilei mehrfach beschäftigt. Huygens geht von dem schon erwähnten energetischen Grundsatze aus, daß ein Körper beim Fallen und Wiederaufstei- gen unter dem Einfluß der Schwerkraft die ursprüngliche Höhe wieder erreicht, wenn keine Reibung stört. Es gelingt ihm durch einen geistvollen Kunstgriff indem er die Teilchen des Körpers bald gemeinsam bald einzeln sich bewegend denkt , die Aufgabe zu lösen. Er wird dabei zu dem Satz geführt, daß die Sat« ron der Summe der Produkte Masse X Quadrat der Geschwindigkeit für alle Teilchen * •""**" des Körpers in jedem Augenblick so groß ist, wie wenn beim freien Fall der Schwerpunkt des Körpers durch dieselbe Höhe herabgesunken wäre. Hier ist in späterer Ausdrucksweise der Satz von der lebendigen Kraft** zuerst aus- gesprochen, der dann für die Entwicklung energetischer Vorstellungen außer- ordentliche Bedeutung erlangt hat. Das Problem des physikaHschen Pendels gab nach Huygens Zeit die Anregung zu noch weiteren großen Fortschritten der Mechanik, indem es zur Aufstellung des d'Alemb er t sehen Prinzipes führte. Am Schluß seines Werkes über Uhren gibt Huygens, wenn auch ohne Beweis, die Gesetze über die Zentrifugalkraft an, sodaß auch dieses wichtige zentrifagaikraft. Problem der Mechanik nun seine Lösung gefunden hatte. Der Huygenssche Beweis für die Gesetze wurde erst nach seinem Tode veröffentlicht.

Die Konstruktion der Pendeluhren hatte die wichtige Entdeckung zur coctait der Erde. Folge, daß die Schwere mit der geographischen Breite variiert. Zu dieser Fest-

lO !• £. WiSCHERT: Die Mechanik im Rahmen der allgemeinen Physik

Stellung wurde der Pariser Akademiker Jean Richer geführt, als er in den Jahren 1671 bis 1673 ein und dieselbe Uhr in Paris und inCayenne verwendete und dabei einen Unterschied im Gang bemerkte. Sein Schluß, daß die Erde ab- geplattet sei, widersprach den Ansichten der damaligen einflußreichen fran- zösischen Gelehrten, und wurde darum nicht anerkannt. Als dann später New- ton aus theoretischen Gründen auf die Abplattung der Erde schloß, entstand ein sehr heftiger wissenschaftlicher Streit über die Gestalt der Erde, stoß. Die Gesetze des Stoßes der Körper waren schon vielfach untersucht worden. Die hauptsächlichsten Formeln wurden aber erst 1668 und 1669 von den eng- lischen Professoren der Mathematik John Wallis und Christopher Wren und von Huygens gegeben. Bei der Mitteilung der Huygensschen Formeln

Matte ist sehr beachtenswert, daß ,,moles** und ,,pondus**, also nach unserer heutigen

' Sprechweise ,, Masse" und ,, Gewicht" unterschieden werden. Beim Stoß komme

die moles zur Geltung, und es wird dann ausdrücklich bemerkt, daß die moles

nach dem pondus beurteilt werden dürfte. Newton schenkte dieser wichtigen

Frage später besondere Aufmerksamkeit.

Newton. Ncwton Und seine Mechanik des Himmels. 1687 erschien das Newtonsche Werk „Philosophiae naturalis principia mäthematica", welches einen Markstein in der Geschichte der Mechanik und in der Geschichte der Physik überhaupt bedeuten sollte. Noch zu Lebzeiten Newtons erschien 171 3 eine zweite und 1 726 eine dritte Auflage. Für etwa 100 Jahre beherrschten in der Folge die Newtonschen Vorstellungen die Physik. Isaak Newton (1643 1727), Engländer von Geburt, wurde nach seinem Studium in Cambridge Pro- fessor der Mathematik daselbst. Als er 1703 zum Königlichen Münzmeister er- nannt wurde, legte er seine Professur nieder. Das Jahr 1703 war für seine Lebensstellung auch insofern von großer Bedeutung, als er Präsident der Royal Society in London wurde. Er hat dieses sehr einflußreiche Amt dann weiterhin dauernd innegehabt. Newton war ein scharfsinniger Beobachter, doch liegt seine außerordentliche Kraft vor allem auf dem Gebiet der mathematischen Physik. Er haßte sehr die wissenschaftlichen Polemiken mit ihren vom Ziel ab- lenkenden Erregungen. Dennoch war es sein Schicksal, immer wieder in wissen- schaftliche Streitigkeiten, vor allem in Prioritätsstreitigkeiten verwickelt zu werden. Sein Eifer brachte es mit sich, daß er den Gegnern nicht immer gerecht wurde, und manches harte Urteil ist deshalb über ihn gefällt worden. Die etwas unduldsame Art, welche ihm selbst eigen war, übertrug sich auf seine Schüler. Sie sahen in ihrem Meister einen Gott und wollten nun niemand mehr neben ihm gelten lassen : Die Verdienste der Vorgänger und der Mitstrebenden verblaßten in dem Glanz der Sonne Newtons. Will man die Wirksamkeit Newtons recht verstehen, so muß man eine merkwürdige Besonderheit seiner wissen- schaftlichen Art wohl beachten. Er strebte mit Lebhaftigkeit dahin, die Natur- erscheinungen ohne Voreingenommenheit zu beurteilen; wo sich zwei einander gegenüberstehende Erklärungsweisen boten, bemühte er sich, einen unpartei- ischen Standpunkt zu wahren; er hielt es für unbedingt notwendig, alle Schluß- folgerungen über die Natur der Dinge zu verbannen, deren Berechtigung sich

Newton; Gravitation ii

nicht mit voller Sicherheit erweisen ließe. Aber bei alledem konnte er doch nicht verhindern, daß er selbst gemäß der eigenen wissenschaftlichen Entwick- lung innerlich Partei ergriff, und wenn er nun auch versuchte, äußerlich eine bestimmte Stellungnahme zu vermeiden: erkennbar war es doch, wohin seine Neigung ging. Seine Schüler wußten diese Neigung stets schnell zu finden und zögerten nicht, sich ihr anzupassen. Sie dachten dann nicht mehr an die vor- sichtige Formulierung ihres Meisters, sprachen ihre Ansicht mit aller Schärfe aus, indem sie sich auf ihn beriefen, und wiesen die gegnerischen Ansichten durchaus zurück. Und dieses geschah unter den Augen Newtons, ohne daß er gegen die sehr große Veränderung des Standpunktes Einspruch erhob. So erhielt die Newton sehe Physik bei aller Größe von vornherein eine gewisse Engherzigkeit.

Newton bot der Wissenschaft eine außerordentliche Fülle des Neuen, und in mehr als einer Richtung war er bahnbrechend, der Ruhm seines Namens wird aber doch vor allem begründet durch die Lösung des uralten Problems der Himmelsmechanik vermittels des Gedankens der allgemeinen Gravitation der Materie. In dem Hauptwerk „Philosophiae naturalis principia mathematica**, das weiterhin kurzweg durch das Stichwort „Prinzipien** bezeichnet werden soll, nimmt die Himmelsmechanik auch den weitaus größten Raum in An- spruch. So wollen wir denn zunächst ihr unsere Aufmerksamkeit zuwenden.

Schon Kopernikus und Kepler hatten ein Vereinigungsbestreben der G'a^>'»*»on. Materie als maßgebend für die Himmelserscheinungen angenommen. Giovanni Alfonso Borelli (i6o8— 1679), ein bedeutender italienischer Gelehrter, Pro- fessor der Mathematik, Mitglied der Accademia del Cimento, führte diese Ge- danken noch weiter aus. Entsprechend den inzwischen gewonnenen dyna- mischen Einsichten schloß er, daß die Bahn eines Planeten um die Sonne und des Mondes um die Erde durch das Zusammenwirken der Anziehungskraft des Zen- tralgestirnes und der Trägheit des umlaufenden Gestirns bestimmt werde; über qualitative Erwägungen ist er freilich nicht hinausgekommen. Als nun Huy- gens die Formeln für die 2^ntrifugalkraft angegeben hatte, wurde von ver- schiedenen Seiten bemerkt, daß das dritte Kepl ersehe Gesetz auf eine Ab- nahme der Anziehungskraft der Sonne umgekehrt proportional mit dem Qua- drat der Entfernung hinweise. Dieses Gesetz schien auch aus allgemeinen Grün- den sehr naheliegend; Newton erwähnt, daß es schon 1645 von Ismael Boul- liand (Bullialdus) angenommen wurde. BouUiand gab damals eine Dar- stellung der Kepler sehen Ansichten. Robert Hooke (1635 1703), Professor der Mathematik, Mitglied und später Sekretär der Royal Society zu London, sehr rührig und sehr vielseitig tätig, voller Ideen, fortwährend in Prioritäts- streitigkeiten verwickelt, führte in einer Schrift von 1674 den Gedanken aus, daß die Gravitation Beherrscherin der Himmelserscheinungen sei. Das sich nun einstellende große Problem, die Himmelsbewegungen im einzelnen zu erklären, interessierte lebhaft den englischen Astronomen Edmund Halle y. Bei einer Zusammenkunft von Halley mit R. Hooke und Chr. Wren in London im Jahre 1683 wurde es eingehend besprochen. Die Hauptsache schien, festzu- stellen, wie die Bewegung eines Planeten bei einer nicht kreisförmigen Bahn

12 I. £. WlECHERT: Die Mechanik im Rahmen der allgemeinen Physik

vor sich gehen müsse, wenn das Anziehungsgesetz umgekehrt proportional mit dem Quadrat der Entfernung angenommen werde. Hooke behauptete die Lö- sung geben zu können, gelangte dann aber nicht dahin, selbst als Halley und Newton« Ant«i Wrcu eittc Prämie für die Lösung aussetzten. Halley wandte sich nun 1684 an deckug Tn Newton, und dieser teilte ihm mit, daß die Aufgabe ihn seit langem beschäftige, GraTiution. ^^^ ^^Q ^j. jj^ Lösung gefunden habe. Nun drängte Halley auf die Veröffent- lichung der Resultate. Aber es ging doch noch manches Jahr darüber hin. Erst drei Jahre später, 1687, erschienen die ,, Prinzipien** mit der Lösung des Pro- blems der Himmelsbewegungen ; sie brachten dann freilich die Lösung in der glän- zendsten Weise. In dieser ersten Auflage erwähnte Newton nichts von der Vorgeschichte des Gesetzes der Gravitation. Man machte ihm deshalb Vorstel- lungen, insbesondere darüber, daß er den Anteil Hookes nicht hervorgehoben habe, der ihm doch bekannt gewesen war. Newton antwortete in einem sehr leidenschaftlichen Brief an Halley, den Brewster in seiner Newton- Bio- graphie 1855 veröffentlicht hat. Man sieht aus diesem Brief, daß Newton recht wenig Gewicht auf die Aussprache des Gedankens der Anziehungskraft legte, daß es vielmehr nach seiner Meinung vor allem darauf ankam, das Walten der Gravitation gemäß einem mathematisch scharf bestimmten Gesetz in der Gesamtheit der Himmelserscheinungen wirklich nachzuweisen. Über die An« Sprüche Hookes schreibt Newton: „Borelli tat etwas darin und schrieb be- scheiden darüber; er aber hat nichts getan und schreibt doch in einer Weise, als ob er alles wüßte und alles genügend angedeutet hätte, außer dem, was für die gemeine Arbeit der Berechnungen und Beobachtungen übrigbleibt; und ent- schuldigt sich dabei nur mit seinen anderen Geschäften, während er sich besser mit seiner Ungeschicklichkeit hätte entschuldigen sollen. Denn es geht aus sei- nen eigenen Worten hervor, daß er keinen Weg zur Lösung wußte. Die Mathe- matiker, welche alles ausfindig machen, festsetzen und alle Arbeit verrichten, müssen sich damit begnügen, daß sie nichts weiter sind als trockene Rechner und geringe Arbeiter, und ein anderer, der nichts tut, als alles beanspruchen und nach allem greifen, der soll alle Erfindungen für sich hinwegnehmen, sowohl von seinen Nachfolgern als von seinen Vorgängern.** So werden wir die Großtat Newtons zu einem bedeutenden Teile als eine mathematische bewerten müs- sen. Die sachlichen Grundlagen waren fast vollständig von Kepler und Ga- lilei gegeben worden. Klar ist nun auch, daß jene Legende in die Irre führt, welche erzählt, wie Newton, einst im Garten liegend, einen Apfel vom Baume herabfallen gesehen habe, und wie dieses unscheinbare Ereignis dann die schöpferische Tätigkeit Newtons ausgelöst und so der Welt die Erkenntnis ge- bracht habe, daß dieselbe Kraft, welche den Fall der Körper zur Erde veranlaßt, die Himmelskörper vereinigt. Für die wissenschaftliche Entwicklung des jungen Newtons mag jenes Ereignis wohl seine Bedeutung gehabt haben, für die welt- geschichtliche Entwicklung des Gedankens der allgemeinen Gravitation bildete es aber ganz gewiß nicht den Ausgangspunkt. Dieser Gedanke ist vielmehr die schöne Frucht der allgemeinen wissenschaftlichen Arbeit des Menschenge- schlechtes gewesen.

Newton; Gravitation 13

Das Newtonsche Gravitationsgesetz läßt sich in die Formel

F'^x i-

kleiden. F bedeutet hier die wechselseitige Anziehungskraft zweier Massenteil- chen, deren Massen m und m' sind und deren Abstand durch r angegeben wird. X ist eine Konstante, deren Wert von den für Kraft, Masse und Entfernung ge- wählten Einheiten abhängt, im übrigen aber durch die Natur bestimmt ist; x hat den Namen „Gravitationskonstante** erhalten. Der Bewegungszustand der Teilchen m und m' und die Anwesenheit der übrigen Teilchen soll ohne Einfluß sein.

Sehr wichtig für die Weiterentwicklung der Physik war die Stellung der we«en Newtonschen Schule gegenüber dem Wesen der Gravitation. Newton selbst *' ^ ließ die Frage nach der Ursache der Gravitation offen. Am Schluß der Prin- zipien sagt er, diese Ursache müsse solcher Art sein, daß sie bis zum Mittelpunkte der Sonne und der Planeten dringe, „ohne von ihrer Wirksamkeit zu verlieren**. Er fügt hinzu: „Ich habe noch nicht dahin gelangen können, aus den Erschei- nungen den Grund dieser Eigenschaft der Schwere abzuleiten, und Hypothesen „Hypothesen er- erdenke ich nicht. Alles nämlich, was nicht aus den Erscheinungen folgt, ist eine Hypothese, und Hypothesen, seien sie nun metaphysische oder physische, mechanische oder diejenigen der verborgenen Eigenschaften, dürfen nicht in die Experimentalphysik aufgenommen werden.** Das sind berühmte Worte, welche später eine große Rolle gespielt haben. Den Hypothesen wird ein schwe- res Urteil gesprochen! Hatte Newton nur erklärt, daß er die Ursache der Schwere nicht angeben könne, so gingen seine Schüler sogleich sehr viel weiter, bis ins Extrem. Sie behaupteten, ohne daß Newton dagegen Einspruch erhob, daß die Schwere als eine ursprüngliche Eigenschaft der Körper anzusehen sei, gerade so, wie die Ausdehnung, die Beweglichkeit und die Undurchdringlich- keit. — Dies alles stand in vollem Gegensatz zu den Ansichten der Cartesianer, für welche nur vermittelte Fernkräfte in Betracht kommen konnten. Sie sahen in den Newtonschen Anschauungen ein Wiederaufleben der Lehren von den verborgenen Kräften, und wandten sich mit Schärfe gegen den ,, Rückfall** in alte Fehler. Hiergegen wiederum schreibt Roger Cot es (1682— 17 16), Professor der Mathematik und Physik, ein Lieblingsschüler Newtons, in der Vorrede zur zweiten Auflage der Prinzipien 1713: Die „Schwere" sei keine „verborgene** Eigenschaft, denn ihr Vorhandensein werde durch die Erscheinungen klar be- wiesen. ,, Die jenigen nehmen vielmehr zu verborgenen Ursachen ihre Zuflucht, welche, ich weiß nicht was für Wirbel einer gänzlich ersonnenen und den Sinnen ganz unbekannten Materie annahmen, durch welche jene Bewegung hervor- gebracht werden soll.** Cotes geht sogar soweit, das Bestreben, in Gottes Schöpfung alles „erklären** zu wollen, als Atheismus zu bezeichnen. Newton hatte es seiner Eigenart entsprechend verweigert, die Cot es sehe Vorrede vor der Drucklegung zu sehen, aber wir werden nach seinem ganzen Verhalten wohl schließen müssen, daß hier auch seine eigentliche Überzeugung ausge- sprochen wird.

14 I* £. WiECHERT: Die Mechanik im Rahmen der allgemeinen Physik

Himmelt- Gchcn wif nun etwas näher auf den Inhalt der „Prinzipien** ein, soweit er

mccbanik gj^»jj g^^f jj^ Himmelsmechanik bezieht. Newton beweist, daß das zweite

bei Newton. '

Kepl ersehe Gesetz eine nach dem Zentralgestirn gerichtete Kraft anzeigt, und daß die beiden anderen Keplerschen Gesetze auf eine Größe der Kraft schließen lassen, wie sie durch sein Anziehungsgesetz angegeben wird. Er kommt hierzu, in- dem er die Bewegung des Planeten in jedem unendlich kleinen Zeitelement als Wurfbahn gemäß den G a 1 i 1 e i sehen Gesetzen auffaßt und aus den Kepler sehen Gesetzen die Fallbeschleunigung ableitet. Die Umlaufszeit des Mondes findet Newton genau so groß, wie es der von uns auf der Erde beobachteten Schwer- kraft entspricht. Ausführlich behandelt er die Ungleichheit der Mondbewe- gung, welche durch die Mitwirkung der Sonnenanziehung auf das System Erde Mond verursacht wird. Er gibt eine vollständige Theorie der die Ebbe und Flut erzeugenden Kräfte und legt dar, daß die wirklich auftretende Ebbe und Flut mit der Theorie im Einklang ist. Er zeigt, wie Gravitation und Zentri- fugalkraft die Gestalt der Erde bestimmen, und wie dabei die Schwerkraft auf der Erdoberfläche variieren muß. Er weist nach, daß das Vorrücken der Äquinoktien eine Folge der Anziehung ist, welche von Sonne und Mond auf die rotierende und abgeplattete Erde ausgeübt wird. Er zeigt, wie die Bahn eines Kometen aus den Beobachtungen abzuleiten ist.

So wird denn durch das Werk Newtons eine staunenswerte Fülle kosmi- scher Erscheinungen in das Licht hellsten Verständnisses gerückt. Die Bewe- gung der Himmelskörper, deren Beobachtung das Menschengeschlecht seit Jahrtausenden in Andacht, in heißem Wissensdurst, in abergläubischer Ge- heimniskrämerei, im Zwang der Bedürfnisse des Lebens beschäftigt hatte, wird nun in allen Einzelheiten verständlich. Beseitigt sind die höchst verwickel- ten und doch ungenügenden Konstruktionen der alten Theorien; mit ganz ein- fachen Gesetzen wird es möglich, die Erscheinungen zu verfolgen und vorauszu- sagen. Es wird die Erkenntnis gewonnen, daß die gleichen Gesetze, welche den Himmelskörpern ihre Bahnen vorschreiben, auch uns auf unserer heimatlichen Erde umfangen. Und welches sind denn die Zaubermittel, die alles dieses leisten ? : Außer dem Gesetz der Beharrung und dem Gesetz, welches nach Galilei Kraft und Beschleunigung verbindet, sind es nur Newtons Gravita- tionsgesetz und die mathematische Kunst I Wohl ist es verständlich, daß die Bewunderer Newtons glaubten, es seien nun die Schleier von den Geheim- nissen der Natur hinweggezogen, und der Genius Newtons habe einen Weg er- öffnet, der in alle Weiten und alle Tiefen der Natur führen werde. Allgemeine Dic Mcchanik Newtons. Indem wir uns nun dazu wenden, die Lehren befN^ton.^^^MP'^i^zipicii*'» abgesehen von der Himmelsmechanik, kennen zu lernen, wer- den wir zugleich auch die übrigen Arbeiten Newtons beachten, soweit sie auf die Mechanik Bezug haben. Es mag dabei erlaubt sein, hier und da auch schon Ausblicke in die Entwicklung der Mechanik bis in unsere Zeit hinein anzu- schließen. Wir werden erkennen, daß die Begründung der Himmelsmechanik, so eindrucksvoll diese Tat auch gewesen ist, doch für die Mechanik im allge- meinen nur einen kleinen Teil der Wirksamkeit Newtons darstellte.

Newton; Himmelsmechanik; Gesetze der Bewegimg 15

In einer viel beachteten, oft gepriesenen und oft beanstandeten Einleitung zu den „Prinzipien** stellt Newton Begriffserklärungen und Gesetze zusammen, auf die er sich später stützen will.

Drei „Gesetze der Bewegung** werden aufgestellt. Das erste ist das Be- Gesetze harrungsgesetz, dessen Wortlaut auf Seite 6 schon gegeben wurde. Das zweite *' ^^^v^g. lautet: ,,Die Änderung der Bewegung ist stets proportional zur einwirkenden bewegenden Kraft und geschieht in der Richtung der Linie, in welcher diese Kraft wirkt.** Unter „Bewegung** ist hier die Descartessche Bewegungsgröße, also das Produkt Masse X Geschwindigkeit zu verstehen. Die ,, Änderung der Bewegung** ist so gleichbedeutend mit dem Produkt Masse X Beschleunigung. Das dritte Gesetz lautet: „Die Wirkung ist stets der Gegenwirkung gleich, oder die Wirkung zweier Körper aufeinander ist stets gleich und von entgegen- gesetzter Richtung.** Man hat dieses Gesetz später in die kurze Formel gebracht: „actio = reactio**. In ,, Zusätzen** gibt Newton Anwendungen der Be- wegungsgesetze. Zusatz I bringt den Satz vom Parallelogramm der Kräfte als Folge des zweiten Bewegungsgesetzes. Darüber wurde schon früher (S. 6) ge- sprochen. — In einer Anmerkung erfahren wir, daß bis hierher die Gesetze zu- sammengestellt seien, „welche von den Mathematikern angenommen wurden, und durch vielfältige Versuche bestätigt worden sind". In vielerlei einzelnen Anwendungen trifft das sicher zu, aber doch ist ein Verdienst von Newton darin zu sehen, daß er durch seine scharfen Formulierungen zeigte, wie die drei Be- wegungsgesetze als Grundlage der Mechanik dienen können. Vor allem sah die Nachwelt in dem Satze actio = reactio eine Besonderheit des Newtonschen Standpunktes.

Newton unterscheidet scharf zwischen „Menge** der Materie und „Ge- mmsc wicht**. Für die ,, Menge** benutzt er auch den lateinischen Ausdruck „massa**, zu deutsch „Masse**. Die ,, Menge** oder „Masse** wird mit der „Trägheit** ver- knüpft, das heißt, mit der Fähigkeit der Materie, einer bewegenden Kraft einen Widerstand zu leisten; Menge oder Masse und Trägheit messen einander gegen- seitig. Hiernach ist klar, daß Newton unter Menge oder Masse das versteht, was in der Darstellung der Stoßgesetze nach Huy gens „moles** genannt wurde. Der Ausdruck Masse ist später als Maß der Trägheit in der Mechanik allgemein üblich geworden. Newton bemerkt schon in der Einleitung, er habe durch besondere Versuche festgestellt, daß das „Gewicht** der „Menge** proportional ist. Diese Versuche, die dann später beschrieben werden, sind mit erhöhter Ge- nauigkeit angestellte Pendelbeobachtungen, wie sie schon Galilei ausgeführt hatte. Pendel, deren Körper von verschiedenem Material sind, werden beobachtet. Es ergibt sich, daß innerhalb der Beobachtungsfehler die Schwingungsdauer vom Material unabhängig ist, wenn störende Nebeneinflüsse, wie Luftauftrieb, elimi- niert werden. Darausfolgt, daß alle Körper gleich schnell fallen. Schon Galilei hatte diesen Schluß an Pendelbeobachtungen geknüpft; Newton geht nun aber weiter und folgert mittels des zweiten Bewegungsgesetzes, daß der Antrieb der Schwere der Masse proportional ist, daß also Gewicht und Masse einander proportional sind. Bei der Darstellung der Huygensschen Stoßgesetze wurde

I. £. Wiechert: Die Mechanik im Rahmen der allgemeinen Physik*

dieser Satz nur kurz angegeben, bei Newton tritt seine große Bedeutung für die Mechanik und überhaupt für die Physik durch die Aufmerksamkeit her- vor, welche ihm geschenkt wird. Derselbe Satz wurde dann in der ersten Hälfte des 19. Jahrhunderts durch den berühmten Astronomen Friedrich Wilhelm Bessel (1784— 1846) erneut durch Pendelbeobachtungen geprüft und wieder ergab sich seine Gültigkeit, so weit die Beobachtungsfehler eine Feststellung zuließen (bis auf ca. Viooooo ^^^ Betrages). In neuester 2^it hat Baron Roland v. Eötvös (geb. 1848, Professor der Physik) in geistreicher Weise die Drehwage zur Prüfung verwertet. Wiederum bestätigte sich der Satz, obgleich Unterschiede im Betrage von ca. ^/^^^ hätten erkannt werden müssen, actio =.reactio. Sehr bemerkenswert ist die Tragweite, welche Newton der Feststellung actio = reactio gibt. Dieser Satz soll nicht nur aussagen, daß ein jeder Gegen- stand, welcher einen anderen drückt oder zieht, ebenso stark von diesem ge- drückt oder gezogen wird, sondern er soll auch das Galileische Prinzip der Kraftübertragung bei Maschinen umfassen. „Wirkung** und „Gegenwirkung" sind dabei durch die Produkte Kraft X Geschwindigkeit zu messen. Führt man diese Gedanken nach den Andeutungen, die Newton gibt, weiter durch, so folgt, daß Newton jenem Prinzip schon sehr nahe gekommen ist, welches später von d'Alembert aufgestellt wurde und dessen Namen trägt. z«H and Raum. Sehr bemerkenswert ist, was Newton in der Einleitung über Zeit und Raum schreibt. Wir lesen: „Zeit, Raum, Ort und Bewegung als allen be- kannt, erkläre ich nicht. Ich bemerke nur, daß man gewöhnlich diese Größen nicht anders, als in bezug auf die Sinne auffaßt und so gewisse Vorurteile ent- stehen, zu deren Aufhebung man sie passend in absolute und relative, wahre und scheinbare, mathematische und gewöhnliche unterscheidet.

I. Die absolute, wahre und mathematische 2^it verfließt an sich und vermöge ihrer Natur gleichförmig und ohne Beziehung auf irgendeinen äußeren Gegenstand. Sie wird so auch mit dem Namen: Dauer belegt.

Die relative, scheinbare und gewöhnliche Zeit ist ein fühlbares und äußerliches, entweder genaues oder ungleiches Maß der Dauer, dessen man sich gewöhnlich statt der wahren Zeit bedient, wie Stunde, Tag, Monat, Jahr.

IL Der absolute Raum bleibt vermöge seiner Natur und ohne Beziehung auf einen äußeren Gegenstand stets gleich und unbeweglich.

Der relative Raum ist ein Maß oder ein beweglicher Teil des ersteren, welcher von unseren Sinnen durch seine Lage gegen andere Körper bezeichnet und gewöhnlich für den unbeweglichen Raum genommen wird. Z. B. ein Teil des Raumes innerhalb der Erdoberfläche, ein Teil der Atmosphäre, ein Teil des Himmels, bestimmt durch seine Lage gegen die Erde.

III. Der Ort ist ein Teil des Raumes, welchen ein Körper einnimmt, und nach Verhältnis des Raumes entweder absolut oder relativ.

IV. Die absolute Bewegung ist die Übertragung des Körpers von einem absoluten Orte nach einem anderen absoluten Orte; die relative Bewegung, die Übertragung von einem relativen Orte nach einem anderen relativen Orte."

Newton; Raum und Zeit; mechanische Probleme l^

An die hier gegebenen Gedanken haben neuere Diskussionen über die Grundlagen der Mechanik vielfach angeknüpft, es wird daher später Gelegen- heit genommen werden müssen, auf sie zurückzugehen.

Newton streift in den „Prinzipien" die Statik nur in einzelnen Bemer- Mechanbch© kungen, dagegen wird mittels der Bewegungsgesetze eine große Reihe von Pro- blemen der Dynamik behandelt. Untersucht wird die Bewegung eines punkt- förmigen Körpers auf gegebener Fläche, oder bei gegebener Bahn, bei ver- schiedenen Annahmen über die einwirkende Kraft und im Anschluß daran die Pendelbewegung. Der Einfluß der Luft auf die Wurfbewegung und auf das Pendel wird verfolgt. Die Gesetze des Widerstands der Luft und des Wassers auf Körper von verschiedenen Formen werden theoretisch aufgesucht und durch eigens dazu angestellte Versuche geprüft. Hier wird z. B. festgestellt, daß der Widerstand proportional ist mit der Dichte der Flüssigkeit, mit dem Quadrat der Geschwindigkeit und bei gleicher Gestalt mit der Fläche des Querschnittes.

Der Ausfluß der Flüssigkeiten wird theoretisch und experimentell untersucht.

Bemerkenswert, wenn auch nicht überall einwandfrei, sind Untersuchungen über die Schwankungen des Wassers in Gefäßen und über die Wasserwellen. Newton zeigt, wie die Geschwindigkeit der Ausbreitung von Wellen in elasti- schen Flüssigkeiten durch die Dichte des Mittels und seine Elastizität bestimmt wird, und er wendet diese Theorie auf den Schall an. Hierbei finden wir manches, was für die Newtonsche Art des wissenschaf tlichen Arbeitens recht charakte- ristisch ist» Zur Beurteilung der Elastizität der Luft benutzt Newton das da- mals schon bekannte Gesetz, wonach bei konstanter Temperatur der Gasdruck umgekehrt proportional mit dem Volumen variiert, und er findet so eine Schall- Schall- geschwindigkeit, die gegenüber der Erfahrung erheblich zu klein ist. Bei dem Versuch die Differenz zu erklären, zeigt uns Newton nun, wie wenig er sich vor kühnen Hypothesen scheut. Er denkt sich, die Luft bestände aus sehr kleinen Körperchen, welche ungefähr zehnmal weiter voneinander entfernt sind, als ihr Durchmesser beträgt. Zu dieser Schätzung des Verhältnisses von Abstand und Durchmesser gelangt er durch Vergleich der Dichte der Luft mit der von flüssi- gen und festen Körpern, wo die Teilchen in enger Lagerung vorausgesetzt wer- den. Die Teilchen sollen einander mit Kräften abstoßen, welche umgekehrt pro- portional mit dem Abstand variieren. Newton zeigt, daß sich so die Beziehung zwischen Druck und Volumen richtig ergibt; nach seiner vorsichtigen Art fügt

er dabei hinzu: „Ob die elastischen Flüssigkeiten aber aus Teilchen bestehen, die voneinander wechselseitig fliehen, ist eine Frage der Physik." Weil nun die Teilchen in dem angegebenen Maße Raum wegnehmen, soll die Geschwindig- keit des Schalles im Verhältnis lo : ii größer sein, als der Volumelastizität ent- spricht. — Diese uns recht seltsam anmutende Methode, die Differenz zwischen Theorie und Erfahrung zu beseitigen, fand bei den Nachfolgern Newtons kei- nen Anklang. Das Problem beschäftigte lange Zeit hindurch die Physik, ohne daß es gelang, eine befriedigende Erklärung zu finden; erst i8l6 löste Laplace das Rätsel, indem er zeigte, daß die Ursache der Geschwindigkeitsvergrößerung in Temperaturschwankungen liegt, welche die Dichteschwankungen bei den

K.d.G.nLiix,Bdz Physik 2

i8 X* £. WiECHSRT: Die Mechanik im Rahmen der allgemeinen Physik

Schallschwingungen begleiten und eine Vergrößerung der Druckschwankungen bewirken. Die Untersuchung der Wirbelbewegungen in zähen Flüssigkeiten gibt Newton Gelegenheit, sich gegen die Des c arte s sehe Erklärung der Pla- Geseue netenbcwcgung durch Wirbelbewegung im Weltraum zu wenden. Besonders der ^•™J"*'*«- i^ichtig für die weitere Entwicklung der Physik im Anschluß an Newton ist es, daß er seine Theorie durchaus nicht auf das nach ihm benannte Gesetz der Wechselwirkung beschränkt, welches eine anziehende Kraft proportional mit Vr* voraussetzt. Wir sahen schon, daß für Gasteilchen eine abstoßende Kraft proportional i/r angenommen wurde. Es werden auch noch andere Gesetze in Be- tracht gezogen. Um die Kohäsionskräfte das heißt die Kräfte des Zusammen- haltens der Materie —zu erklären, wird mit anziehenden Kräften proportional i/r** gerechnet, wobei n größer ist als 2. Fernkräfte verwertet Newton auch für den Ausbau seiner Emissionstheorie des Lichts. Zu Newtons Zeit war die Meinung Theorie der Physiker zwischen der Emissionstheorie und der Undulationstheorie desLichts de« Lichte«, gg^gjj^^ Ncwton cntschicd sich seinen Grundsätzen entsprechend nicht aus- drücklich für die eine oder die andere Theorie; er bevorzugte aber die Emis- sionstheorie so sehr, daß sie durch das Gewicht seines Namens herrschend wurde und die Undulationstheorie für ein Jahrhundert in den Hintergrund drängte. Während Newton die Emissionstheorie in den Einzelheiten ausarbeitete und so im wesentlichen erst begründete, tat sein 2^itgenosse Huygens das Gleiche für die Undulationstheorie. Das Licht wurde von beiden Theorien für eine mecha- nische Erscheinung erklärt: einmal soll es Ströme sehr kleiner Körperchen darstellen, welche von den leuchtenden Körpern mit großer Geschwindigkeit ausgestoßen werden, das andere Mal soll es in Erzitterungen des die Welt er- füllenden Mediums des ,, Äthers*' bestehen, welche sich in ähnlicher Weise ausbreiten, wie die Schallschwingungen. Nach Newton werden die Lichtkörper- chen von den Teilchen der gewöhnlichen Materie angezogen, und diese Anzie- hung soll Lichtbrechung und Lichtbeugung erklären. Nach Huygens ist in den verschiedenen Körpern die Elastizität des Äthers und damit die Lichtgeschwin- digkeit verschieden; hieraus folgt dann die Lichtbrechung. Wichtig für die spä- tere Entscheidung zwischen den beiden Theorien die ja gegen Newton aus- fiel — war der Umstand, daß nach Newton das Licht in dichteren Medien eine größere, nach Huygens eine geringere Geschwindigkeit haben mußte als in Äther, dünneren Medien. Die Vorstellung eines die Welt durchdringenden Äthers wird in Newtons Schriften mehrfach ausgemalt. So lauten die Schlußworte der „Prinzipien**: „Es würde hier der Ort sein, etwas über die geistige Substanz hinzuzufügen, welche alle festen Körper durchdringt und in ihnen enthalten ist. Durch die Kraft und Tätigkeit dieser geistigen Substanz ziehen sich die Teilchen der Körper wechselseitig in den kleinsten Entfernungen an und haf- ten aneinander, wenn sie sich berühren. Durch sie wirken die elektrischen Körper in den größten Entfernungen, sowohl um die Körper anzuziehen, als auch um sie abzustoßen. Mittels dieses geistigen Wesens strömt das Licht aus, wird zurückgeworfen, gebeugt, gebrochen, und erwärmt die Körper, Alle Ge- fühle werden erregt und die Glieder der Tiere nach Belieben bewegt, durch die

Newton; Femkräfte, Äther, Erhaltung der Bewegung ig

Vibrationen desselben, welche sich von den äußeren Organen der Sinne mittels der festen Fäden der Nerven bis zum Gehirn und hierauf von diesen bis zu den Muskeln fortpflanzen. Diese Dinge lassen sich aber nicht mit wenigen Worten erklären, und man hat noch keine hinreichende Anzahl von Versuchen, um ge-» nau die Gesetze bestimmen und beweisen zu können, nach welchen diese all- gemeine geistige Substanz wirkt/* An anderer Stelle fragt Newton, ob nicht etwa die Wärme Schwingungen eines den Weltraum füllenden und alle Körper durchdringenden Mediums darstelle. Die ,, Schule** Newtons hat diesen Ge- danken nicht wesentlich weiter verfolgt, denn die direkten Fernkräfte, welche man überall zu sehen meinte, lenkten die Überlegungen in andere Bahnen.

Bemerkenswert ist, daß die Vorstellung von der Erhaltung der Bewegung, Erhaltung welche in dem D es cart esschen Weltsystem eine große Rolle spielte, in dem *^" ^•''•*^°^- Newtonschen System verschwunden ist. Es tritt auch nichts Entsprechendes an die Stelle, ja Newton wendet sich sogar ausdrücklich gegen den Erhaltungs- gedanken. In der 3 1 .Frage im Anhang zu seiner Optik sagt er, daß das Trägheits- prinzip allein niemals Bewegung in der Welt ergeben würde; es sei noch ein Prinzip notwendig, um die Körper in Bewegung zu setzen, und noch ein anderes, um die Bewegung zu erhalten. Weiter schreibt er: ,,Aber wegen der Zähigkeit der Flüssigkeiten und der Reibung ihrer Teilchen und der schwachen Elastizität der festen Körper wird vielmehr Bewegung verloren als gewonnen, sodaß sie beständig im Abnehmen begriffen ist.** So liege die Notwendigkeit vor, die ver- schiedenen Bewegungen ,, durch tätige Prinzipien zu erhalten und zu ergänzen, wie ein solches die Ursache der Schwerkraft ist, durch welche Planeten und Ko- meten in der Bewegung auf ihren Bahnen erhalten werden und die Körper ihre große Fallgeschwindigkeit erreichen, ferner die Ursache der Gärung, welche Herz und Blut der Tiere in immerwährender Bewegung und Wärme, das Erd- innere beständig warm, an manchen Stellen sogar sehr heiß erhält, durch welche die Körper brennen und leuchten, die Berge in Feuer entflammen, die Höhlen in der Erde aufgetrieben werden und die Sonne beständig aufs heftigste er- glüht und leuchtet und mit ihrem Lichte alles erwärmt**.

Diese Stellung Newtons gab Anlaß zu Angriffen der Physiker, welche dem Erhaltungsgedanken anhingen. Besonders Leibniz war ein lebhafter Gegner; er erklärte, Newton und seine Anhänger hegten die heitere Meinung, Gott müsse die Welt wie eine Uhr von Zeit zu Zeit aufziehen, oder gar reparieren, wenn sie nicht ganz stehen bleiben solle. In den sich anschließenden Streit griff Newton nur leitend, aber nicht unter seinem eigenen Namen auftretend, ein. Gott müsse immer als Erhalter der primitiven und bewegenden Kräfte der Welt angesehen werden, „wenn nicht Materialismus und Fatalismus herrschend wer- den sollten**.

Ein Schlußwort mag hier noch Platz finden, ehe wir die Zeit Newtons Newton« verlassen. Seine Bewunderer priesen ihn als Lehrmeister der wahren Methode m®*^'><^*- der Naturforschung. Dabei änderte sich aber die Auffassung vom Wesen dieser Methode im Laufe der Zeit. Cotes schreibt in seinem Vorwort zu den „Prin- zipien** von den Naturforschern, welche diese ,,bei weitem** beste Methode sich

2*

20 I* E. Wiechert: Die Mechanik im Rahmen der allgemeinen Physik

zu eigen machen: „Die Kräfte der Natur und ihre einfachen Gesetze leiten sie aus einigen ausgewählten Erscheinungen mittels der Analysis ab, und legen sie mittels der Synthesis, als Beschaffenheit der übrigen Erscheinungen dar.'' „Hypothesen werden ersonnen, jedoch werden sie nur als Fragen, über deren Wahrheit geurteilt werden soll, in die Physik aufgenommen." Diese Aussprüche scheinen einigermaßen zutreffend; aber später wurde die Sache dann so darge- stellt, als ob Newton durch die Tat wie vor ihm Francis Baco durch das Wort gelehrt hätte, allein mit direkten Induktionsschlüssen an der Hand der Beobachtung auf sicherer Bahn vorwärts zu gehen und die Hypothesen mit ihren Gefahren ganz zu vermeiden. Damit wird nun die Methode, welche New- ton in Wirklichkeit anwandte, durchaus falsch gekennzeichnet, denn wir sahen, wie er bereit war, weit über die Erfahrung hinausgehende Hypothesen zu ver- werten. Zu Newtons Zeiten bildete sogar die Annahme der seinem Gravita- tionsgesetz entsprechenden wechselseitigen Anziehung zwischen den Körpern un- serer Umgebung auf der Erdoberfläche eine reine Hypothese, da keine Beobach- tung bekannt war, welche das wirkliche Bestehen dieser Anziehung sicher stellte. Und wir wollen uns besonders daran erinnern, daß eben Newton es war, der jene ,, Hypothese der Fernkräfte" einführte, welche von seinen Nachfolgern dann als eine allgemeine Grundlage für die Physik genommen wurde. Diese Hypothese veranlaßte eine mechanische Auffassung der Natur von so engem Gesichtskreis, daß der spätere Fortschritt der Wissenschaft wie eine Sprengung von Fesseln erschien, welche von der Newtonschen Physik geflochten worden waren. Solche Erkenntnis darf uns nun freilich nicht dahin führen, in der Auf- stellung von Hypothesen an sich schon einen Fehler der Newtonschen Physik zu sehen. Die Aufgabe des Menschen bei der Naturforschung ist so schwierig, daß er des kühnen Ratens niemals wird entbehren können; es ist Sache der Wissen- schaft, in jedem Falle festzustellen, ob und wie weit die gewonnenen Hypothe- sen der Wirklichkeit entsprechen. Sowohl die Aufstellung wie die Prüfung der Hypothesen geben den Maßstab für die Erfindungsgabe und den kritischen Sinn des Forschers und seiner Zeit. Zu einer Gefahr für die Wissenschaft wer- den die Hypothesen erst dann, wenn das Hypothetische die Wirklichkeit über- wuchert und das Bewußtsein für den hypothetischen Charakter der Annahmen verloren geht. Hier sind gewöhnlicher Unverstand, Überschätzung der mensch- lichen Fähigkeiten, Macht der Gewohnheit und blinder Autoritätsglaube in gleicher Weise zu fürchten. Newton. Kchrcu wir zu Newton selbst zurück. Großartig war die Förderung, welche die Wissenschaft ihm verdankt, und es wäre gewiß kleinlich, dieses nicht voll anerkennen zu wollen. Aber sehr ungerecht gegen die Vorgänger wäre es, dabei zu übersehen, daß Newton erntete und weiter arbeitete, wo andere das Feld vorbereitet hatten. Warnend mag uns auch zum Bewußtsein kommen, daß selbst bei dem Werk eines Newton mit der menschlichen Kraft sich die menschliche Schwäche verband, und daß so dem Irrtum das Tor offen blieb.

Newtonsche Methode. Entstehung der klassischen Mechanik 21

Die klassische Mechanik.

Grundvorstellungen. Im Anschluß an die Arbeiten von Galilei, Huy- gens und Newton entwickelte sich eine Mechanik, welche man in neuerer Zeit als die „klassische Mechanik*' zu bezeichnen pflegt, um sie dadurch in Gegensatz zu bringen gegen Darstellungen der Mechanik, welche die grund- legenden Axiome und Vorstellungen der klassischen Mechanik nicht als allge- mein gültig anerkennen, sondern ihnen nur in einem beschränkten Bereich eine angenäherte Gültigkeit beimessen.

Die klassische Mechanik übernimmt die von Newton vertretenen An- Raum. Zeit, sichten über 2^it und Raum und die drei Gesetze, welche Newton als „Bewe- ^g^f^' gungsgesetze** bezeichnet: i. Das Beharrungsgesetz, 2. Das Kraftwirkungs- gesetz, — die beide von Newton auf Galilei zurückgeführt werden; 3. das Ge- setz actio = reactio, dessen Formulierung Newton eigentümlich ist. Die „Kräfte" betrachtet die klassische Mechanik als etwas Gegebenes, ohne sich Kraft. mit Versuchen der „Erklärung** abzugeben, wie es einst Descartes getan hatte. Fernkräfte der von Newton angegebenen Art spielen in ihr eine große Rolle. Jede Kraft erscheint als Bewegungsantrieb, der als solcher eine bestimmte An- griffsstelle, eine bestimmte Richtung und eine bestimmte Stärke besitzt. Daran knüpft sich sogleich die Feststellung der „Massenkraft**, der „Raumkraft** und der „Flächenkraft**. Ein Beispiel für die Massenkraft bietet die Schwerkraft: ein Massenelement m erfährt die Kraft F = gw, wenn g die Schwerkraft be- deutet; hierbei stellt g die Massenkraft dar. Auch für die Raumkraft gibt die Schwerkraft ein Beispiel: ein Volumelement v, erfüllt mit Materie von der Dichte Q, erfährt eine Kraft F = gQv; hier stellt gg die Raumkraft dar. Ein Beispiel für eine Flächenkraft bietet der Flüssigkeitsdruck: die Kraft F steht hier, wenn Flüssigkeitsreibung nicht mitwirkt, senkrecht auf dem Flächenele- ment und ist gegeben durch F = pf^ wenn p den Flüssigkeitsdruck, / den In- halt des Flächenelementes bedeutet; p stellt hier die Flächenkraft dar. Erst das Produkt: Massenkraft g X Massenelement m gibt eine Kraft F als An- trieb der Bewegung. Ähnlich steht es um die Raumkraft und die Flächenkraft. Das Wort „Kraft** wird hier also jedesmal in einem anderen Sinne gebraucht. Das entspricht seiner Vielseitigkeit, die immer in der Physik zu beachten ist; „Schwerkraft** und „Lebendige Kraft** sind weitere Belege hierfür. Wie es in der Physik Sitte ist, wird aber von uns, wie bisher, so auch weiterhin, die Be- zeichnung „Kraft** ohne weiteren Zusatz stets nur für den Begriff der Kraft im gewöhnlichen Sinne der Mechanik gebraucht werden. Wo es einmal nützlich ist, diese Begriffsbestimmung noch besonders hervorzuheben, scheint der Ausdruck „mechanische Kraft** oder „bewegende Kraft" passend.

Wirkt eine Kraft auf einen Körper, der ihr frei folgen kann, so erfährt der Kraft und Masse. Körper eine Änderung seines „Zustandes der Ruhe oder der Bewegung**, wie es Newton ausdrückt. Die Wirkung der Kraft zeigt sich für die klassische Me- chanik in einer Beschleunigung: Diese findet gemäß dem Kraftwirkungsgesetz in der Richtung der Kraft statt, ist proportional mit der Stärke der Kraft und umgekehrt proportional mit der Trägheit des Körpers, das heißt mit seiner

22 I* £. Wi£CHERT: Die Mechanik im Rahmen der allgemeinen Physik

Fähigkeit, den Bewegungsantrieben zu widerstehen. Das Maß der Trägheit wird mit dem Newtonschen Ausdruck „Masse** bezeichnet. Ist F die Kraft, b die Beschleunigung, m die Masse, so gilt hiernach: b = ßFjm^ wobei ß eine Konstante ist, welche von der Wahl der Einheiten für Kraft, Beschleunigung und Masse abhängt und durch diese völlig bestimmt wird. Die Einheiten wer- den in der Regel so gewählt, daß ß den Wert i erhält; heute ist diese Bindung in der Wahl der Einheiten in der Physik allgemein, in der Technik meist üblich. Im folgenden wird sie stets festgehalten werden; das Kraftwirkungsgesetz kann dann kurz so formuliert werden: Richtung der Beschleunigung = Rich- tung der Kraft; Stärke der Beschleunigung = Stärke der Kraft /Masse.

Die „Masse** ist für die klassische Mechanik ini Sinne Newtons ein Maß für die Menge der Materie und gilt als unveränderlich wie diese. „Masse** kann nicht vergehen und nicht neu entstehen, nur räumliche Verschiebungen sind möglich; es kann keine noch so kleine Wegstrecke übersprungen werden. Uaabhingigkeit Das Kraftwirkungsgesetz ist so zu verstehen, daß eine jede Kraft die ihr Kntftwirkttngen. zukommende Beschleunigung ganz unabhängig davon erzeugt, welches der Be- wegungszustand des Körpers ist, und welche Kräfte sonst noch auf ihn einwir- ken. Heben sich dabei die verschiedenen Beschleunigungen auf, so ändert sich der Bewegungszustand nicht. Man sagt, daß dann die Kräfte einander aufheben. Geben mehrere Kräfte zusammen die gleiche Beschleunigung wie eine Einzel- kraft, so besteht für die Dynamik Gleichwertigkeit. Diese Überlegungen liefern den Satz vom Parallelogramm der Kräfte und die sich anschließenden Sätze über Kraftzusammensetzung und Zerlegung. Es wurde Seite 6 erwähnt, daß diese Ableitung des Satzes vom Parallelogramm der Kräfte 1687 gleichzeitig von Newton, Varignon und Lamy gegeben wurde. Pierre Varignon (1657 1722, Professor der Mathematik) richtete dabei in vortrefflichen Aus- führungen die Aufmerksamkeit auf die prinzipiellen Fragen der Statik. Später hat man sich vielfach bemüht, den Satz unter Vermeidung einer Bezugnahme auf Bewegungsgesetze auf einfachere Axiome der Statik zurückzuführen, z. B. auf das Axiom, daß die Resultante zweier gleicher Kräfte in die Winkelhalbierungs - linie zwischen den Richtungslinien fällt. Biadangen der Die klassische Mechanik nimmt ebenso wie Newton und seine Vorgänger eweg c oxt mannigfache Bindungen der Beweglichkeit an. So wird z. B. die Materie in ei- nem Körper so gebunden gedacht, daß keine relativen Verschiebungen eintreten können. Der Körper heißt dann ,, starr**. Als besondere Form des starren Kör- pers gilt der starre Stab, der von unmerklichen Querdimensionen, unbiegsanci und von unveränderlicher Länge vorausgesetzt wird. Den ,, undehnbaren** Fa- den, der als widerstandslos biegsam angesehen wird, kann man sich als Glieder- kette mit starren und unmerklich kleinen Gliedern denken. Solche starren Stäbe und undehnbare Fäden werden des öfteren ohne merkliche Masse, oder wie man kürzer sagt, „massenlos** vorausgesetzt. Es werden ferner punktför- mige Gelenke und linienhafte Achsen angenommen, und es werden auch An- nahmen wie diese gemacht, daß ein bestimmter Punkt etwa ein vorgeschrie- bener Punkt eines starren Körpers, oder der Endpunkt eines Stabes, eines Fa-

Grundvorstellungen der klassischen Mechanik 2$

dens auf einer gegebenen Linie im Räume oder einer gegebenen Fläche blei- ben muß, auf dieser aber frei beweglich ist. Die Mittel der praktischen Me- chanik erlauben es, die geschilderten Annahmen, wenn auch nicht in mathema- tischer Strenge, so doch in großer Annäherung zu verwirklichen. So erscheint denn die klassische Mechanik als eine Idealisierung der Wirklichkeit. Wir wollen nicht vergessen, daß die Wissenschaft sehr oft idealisiert, und daß es dann ihre Aufgabe ist, festzustellen, in welchem Bereich und wie eng sich ihre Aussagen der Wirklichkeit anschließen. Die Reibung wird von der klassischen Mecha- Reibui« nik entweder vernachlässigt oder durch die Annahme besonders formulierter *^ ^^^ Kräfte berücksichtigt ; diese Kräfte werden dann gerade so behandelt, wie andere Kräfte auch. Die Behandlung formnachgiebiger Körper nimmt einen weiten Raum in der klassischen Mechanik ein. So werden Flüssigkeiten angenommen, die als unverdichtbar, oder als verdichtbar vorausgesetzt werden. Die Annahme derUnverdichtbarkeit bedeutet dann ebenfalls eine Bindung der Beweglichkeit.

Wir sahen, daß Newton seinem Satz actio = reactio eine weitgehende actio = reacao. Auslegung gab, die Verschiedenartiges umfaßte. Für die Darstellung der klassischen Mechanik genügt es, den Satz allein auf Kraft und Gegenkraft bei direkter Wechselwirkung zu beschränken. Er sagt dann aus, daß die Wechsel- wirkung zwischen irgend zwei Körperelementen, wie nah oder fern sie vonein- ander auch sein mögen, durch zwei an den Elementen angreifende Kräfte er- folgt, welche gleich groß sind, und deren Richtungen einander entgegengesetzt und der Verbindungslinie der Elemente parallel sind.

Als eine Folge des Gesetzes actio = reactio kann der schon von Archi- wirkungtUnw med es als selbstverständlich angesehene Satz betrachtet werden, daß es bei einem starren Körper für die Wirksamkeit einer Kraft in einem beliebigen Zeit- moment ganz gleich ist, an welcher Stelle der Wirkungslinie man sie sich an- greifend denkt.

Als ein besonderes Axiom wurde für die klassische Mechanik und zwar Gieidigewicht zuerst von dem Professor der Mathematik Louis Poinsot (1777— 1859) """* ""**" die Voraussetzung verwertet, daß das Gleichgewicht nicht gestört wird, wenn Bindungen hinzugenommen werden, welche die Beweglichkeit vermindern. Soll also z. B. ein deformierbarer Körper unter der Einwirkung eines Kraft- systemes im Gleichgewicht sein, so muß dieses Kraftsystem jedenfalls auch diejenigen Bedingungen erfüllen, welche für das Gleichgewicht eines starren Körpers nötig wären.

Die nun beschriebenen Vorstellungen und Grundsätze bieten das Funda- Fundamente

der klassischen

ment für eine Mechanik, welche sich eng an Newton und seine Vorgänger an- Mechanik. schließt und dabei ein so weites Gebiet der Anwendung erreicht, daß man ver- sucht ist, in ihr schon die vollständige klassische Mechanik zu sehen. Damit würde man aber doch die Begrenzung zu enge ziehen. Es scheint vielmehr ge- boten, für die klassische Mechanik eine Begründung als maßgebend anzusehen, die in mehrfacher Hinsicht noch allgemeiner scheint als die bisher gegebene. Es muß zunächst unsere Aufgabe sein, die Entwicklung der allgemeineren Grundsätze zu verfolgen.

24 !• £. WmcHERT: Die Mechanik im Rahmen der allgemeinen Physik

Dynamisches Grundgesetz der klassischen Mechanik. Varig- non zeigte, daß auf den Satz vom Parallelogramm der Kräfte die Wirksamkeit der ,,fünf mechanischen Potenzen" und überhaupt die Gesetze der Statik zu- rückgeführt werden können; er legte anderseits auch dar, daß das Parallelo- grammgesetz aus dem Hebelgesetz abgeleitet werden kann; hiernach scheint

Priniip auch dieses geeignet als Grundlage für die Statik zu dienen. 1707 stellte der Geach windig. Professor der Mathematik Johann Bernoulli (1667— 1748) als Fundament

keiten. j^^. gtatik noch ein drittes Prinzip auf; es ist dieses gemäß seiner Bezeichnungs- weise das „Prinzip der virtuellen Geschwindigkeiten**. Wir haben schon er- fahren, daß dieses Prinzip eine Verallgemeinerung von Gedanken darstellt, die Galilei ausgesprochen hatte. Ein beliebiger Mechanismus mit beliebig vielen beweglichen Teilen und beliebig vielen angreifenden Kräften im Zustande der Ruhe sei gegeben. Man denke sich nun den Mechanismus in der gleichen Lage statt in Ruhe in einer Bewegung, welche mit den Bindungen der Beweglich- keit verträglich ist. Eine solche Bewegung ist nach Johann Bernoulli als ,, virtuell** zu bezeichnen. Für jede der einwirkenden Kräfte werde nun das Produkt Kraft X Geschwindigkeit des Angriffspunktes parallel der Richtung der Kraft bestimmt, also das Produkt F v cos (F, o), wenn F die Kraft, v die Geschwindigkeit und (F, v) den Winkel zwischen den Richtungen der Kraft und der Geschwindigkeit bezeichnet. Das ,, Prinzip der virtuellen Geschwindig- keiten" sagt dann aus, daß Gleichgewicht dann und nur dann besteht, wenn für jede unter allen virtuellen Bewegungen die Summe aller der Produkte F v cos Arbeit (/r^ t,) den Wert Null ergibt. Wir wollen noch beachten, daß gemäß der heutigen Bezeichnungsweise das Produkt Fv cos (F, v) die auf die Zeit- einheit bezogene Arbeitsleistung der Kraft darstellt.

Priniip In späteren Zeiten hat man für das Prinzip auch den Namen „Prinzip

v7rrä*ckangM.der virtuellen Verrückungen** gebraucht. Dieser Name entspricht einer anderen Formulierung des Prinzips, welche seit Lagrange Sitte ist. Lagrange vergleicht mit der gegebenen Lage des Mechanismus eine unendlich nahe be- nachbarte, welche zu einer virtuellen Bewegung gehört. Alle Punkte des Sy- stems erscheinen dann verschoben und die Verschiebungen heißen „virtuelle Verschiebungen**, Diese Verschiebungen sind mit den virtuellen Geschwindig- keiten offenbar proportional, folglich können als Glieder der entscheidenden Summe auch dienen die Produkte Kraft X Verschiebung in der Richtung der Kraft, also die Produkte F s cos (F, 5), wenn s die ganze Verschiebung und (F, s) den Winkel zwischen den Richtungen der Kraft und der Verschiebung be- deutet. In der heutigen Bezeichnungsweise handelt es sich um die Arbeit der Kraft. Alle Glieder der Summe, deren Nullwerden über das Gleichgewicht entscheidet, sind hier freilich unendlich kleine Größen, aber das bildet keinen wesentlichen Nachteil, denn um die virtuelle Geschwindigkeit zu berechnen, muß ja auch von dem Begriff des Unendlichkleinen Gebrauch gemacht werden; der Unterschied beider Darstellungen ist rein formal. Das Nullwerden der Summe mit den unendlich kleinen Verrückungen muß selbstverständlich im Sinn der Differentialrechnung aufgefaßt werden. Man denke sich die hinzu-

Prinzip der virtuellen Verrückungen 25

genommene Lage des Mechanismus zunächst zwar nur wenige aber doch merk- lich verschieden von der gegebenen Lage und stelle sich vor, daß sie dann an die gegebene Lage unendlich nahe heranrücke. Die Produktsumme wird dabei zu- nächst von Null verschieden sein und beim Heranrücken auf Null herabsinken. Dies ist selbstverständlich und kommt hier nicht in Betracht. Man vergleiche nun weiter den Wert der Summe mit dem Wert der einzelnen Summanden : wenn es sich hierbei zeigt, daß der Wert der Summe im Verhältnis zu den Einzelwerten der Summanden bei dem Heranrücken verschwindend klein wird, dann und nur dann wird gesagt, „die Summe sei für eine von der gegebenen Lage unendlich wenig verschiedene Lage gleich Null*'.

Das Prinzip der virtuellen Verrückungen ergibt als Fälle besonders einfacher Anwendung sogleich den Satz vom Parallelogramm der Kräfte und das Hebel- gesetz. Hieraus folgt schon, daß es ebenfalls als Fundamentalprinzip der Sta- tik dienen kann: es hat aber in dieser Hinsicht vor jenen beiden Gesetzen sehr große theoretische Vorzüge. Diese bestehen einmal darin, daß seine Anwendung sich in verwickeiteren Fällen meist sehr viel bequemer und übersichtlicher ge- staltet, und zweitens darin, daß es bei seiner Anwendung gar nicht nötig ist, die Art der Bindungen des Mechanismus im einzelnen zu kennen; es genügt, wenn die Beweglichkeit des Mechanismus bekannt ist. So wird die Aufmerksam- keit von vornherein auf das gelenkt, was für die Frage nach den Gleichgewichts- bedingungen allein wesentlich ist.-— Lagrange, der das Prinzip seiner Behand- lung der Statik zugrunde legte, meinte freilich an ihm auch einen Mangel zu erkennen: Es wäre nach seiner Ansicht als Ausgangsaxiom nicht einleuchtend genug. So suchte er denn nach einem anderen Ausgangsaxiom, welches geeignet Prinzip der scheint, das Prinzip der virtuellen Verrückungen als einen Folgesatz zu begrün- ^ «"*««• den. Die Begründungen mit Hilfe des Satzes vom Parallelogramm der Kräfte oder des Hebelgesetzes erschienen in verwickelten Fällen zu wenig durchsichtig. Lagrange erdachte daher ein neues Fundamentalprinzip: das der ,, Flaschen- züge". Alle wirkenden Kräfte werden dabei für die Vorstellung durch reibungs- lose Fi?schenzüge ersetzt, und zwar so, daß ein und derselbe Faden durch alle Flaschenzüge geführt wird. Auf diese Weise ersetzt die Spannung des frei her- austretenden Fadenendes das gesamte System der Kräfte. Das Prinzip der Flaschenzüge sagt nun aus, daß dann und nur dann Gleichgewicht besteht, wenn bei jeder virtuellen Bewegung des Mechanismus das freie Fadenende die Geschwindigkeit Null erhält. •— Die heutigen Physiker werden bei der Gewöh- nung an energetische Gedanken die Ansicht von Lagrange, das Prinzip der virtuellen Verrückungen sei für sich genommen nicht einleuchtend, wohl meist nicht teilen. Das Prinzip sagt für den heutigen Physiker aus, daß Gleich- gewicht dann besteht, wenn bei allen virtuellen Lageänderungen des Mecha- nismus die Arbeit der wirkenden Kräfte sich zu Null ergänzt. Dieser Grund- satz aber scheint recht wohl geeignet, als Fundamentalaxiom der Statik an- genommen zu werden. Jedenfalls dürfen wir in ihm einen der Grundpfeiler sehen, welche den Bau der klassischen Mechanik tragen.

Das Problem der Bewegung fester Körper bereitete den Physikern zu N e w- D'Aiembert-

sches Prinxip,

26 I* £• WiBCHERT: Die Mechanik im Rahmen der allgemeinen Physik

tons Zeiten und auch später noch Schwierigkeiten. Diese zeigten sich schon bei dem einfachen Beispiel des physikalischen Pendels. Zwar hatte Huygens 1673 eine Lösung gegeben, aber diese befriedigte nicht allgemein, so geistreich sie auch war, denn sie benutzte einen Kunstgriff, welcher das Wechselspiel der Kräfte nicht offenbart sondern verhüllt. Dazu kam noch, daß der Kunstgriff zwar für die Theorie des physikalischen Pendels genügte, aber schon bei Fällen ver- sagte, welche nur wenig komplizierter waren. Er versagte z. B. bei der Behand- lung der Bewegungen eines sich selbst überlassenen festen Körpers. Wesent- liche Gedanken zur Lösung des allgemeinen Problems hatte schon der Professor der Mathematik Jakob Bernoulli (1654— 1705) gegeben, dann neben anderen besonders ein Schüler Bernoullis, der Professor der Mathematik Jakob Hermann (1678— 1733); aber erst dem Mathematiker Jean le Rond d'Alem- bert (1717— 1783), einem Mitglied der Pariser Akademie, gelang es, in einem kurzen Satz, der nun nach ihm benannt wird, das Entscheidende auszusprechen. Das d'Alembertsche Prinzip in seiner ursprünglichen Formulierung sagt aus, daß man sich das System der angreifenden Kräfte zerlegt denken kann in zwei Systeme von Kräften, von denen das eine in den Beschleunigungen der Massen des mechanischen Systemes zutage tritt, mit diesen also durch das Kraftwir- kungsgesetz verbunden ist, und von denen das andere solcher Beschaffenheit ist, daß es für sich allein wirkend Gleichgewicht ergeben würde. Das zweite Teilsystem umfaßt Kräfte, welche man nach der Sitte jener älteren 2^it als die „verlorenen** Kräfte bezeichnen könnte. Es sind die Kräfte, welche von den Bindungen der Beweglichkeit des mechanischen Systems aufgehoben wer- den. — Wie ersichtlich kommt bei dem d'Alembertschen Prinzip der nahe- liegende Gedanke zur Geltung, daß die Bindungen der Beweglichkeit bei der Übertragung der Kräfte während der Bewegung gerade ebenso wirken wie bei Ruhe. Die Richtigkeit dieser Voraussetzung leuchtet in einfachen Fällen un- mittelbar ein. Gilt z. B. für den Mechanismus eine Bindung solcher Art, daß ein Punkt P auf einer Fläche G bleiben muß, so entspricht dem, wenn Reibung nicht mitwirkt, im Falle der Ruhe nach dem Prinzip der virtuellen Verrük- kungen eine von G auf P ausgeübte Gegenkraft, welche keine Tangential- komponente haben darf, welche also auf G senkrecht stehen muß. Das d'Ale m - b er t sehe Prinzip setzt nun voraus, daß auch im Falle der Bewegung des Punktes P dieser Punkt von der Fläche G nur eine auf G senkrecht stehende Kraft er- fahren kann. Man wird gewiß nicht zögern, dieses von vornherein anzunehmen. -^ Ähnlich wie hier steht es nun überall, wo man die Bindungen eines Mechanismus übersehen kann. Ganz ebenso wie das Prinzip der virtuellen Verrückungen scheint also auch das d'Alembertsche Prinzip nur dasjenige in allgemeiner Form auszusprechen, was in Einzelfällen ohne weiteres als zutreffend aner- kannt wird. D'Ajembert. Lenken wir die Aufmerksamkeit nochmals auf unser Beispiel. Die ange-

'^i^dirBiiir gebene Kraftbestimmung für den Punkt P durch die Fläche G bleibt offenbar dangren. auch dann dieselbe, wenn G sich bewegt oder im Laufe der Zeit die Form ändert; weiter ist einleuchtend, daß es für diese Kraftbestimmung in irgendeinem Zeit-

D'Alembertsches Prinzip. Dynamisches Grundgesetz 27

xnoment auch gar nicht auf die Fläche im ganzen ankommt, sondern allein auf das Flächenelement in unmittelbarer Umgebung des Punktes P. So weist uns unser Beispiel darauf hin, daß und in welcher Weise das d'Alembertsche Prin- zip angewendet werden kann, wenn die Bindungen sich im Laufe der Zeit ändern : es ist dann nur Rücksicht zu nehmen auf die Bindungen, soweit sie in dem ins Auge gefaßten 2^itmoment die Beweglichkeit beherrschen und nicht auf ihre Änderungen im Lauf der Zeit. Die wesentlichen Schritte für die hiermit ange- deutete wichtige Erweiterung in der Anwendung des d'Alembertschen Prin- zips sind Lagrange zu danken, der sie in seiner „Möcanique analytique'* 1788 brachte. Vielfache Diskussionen der neueren Zeit haben die Einzelheiten noch genauer festgestellt. Joseph Louis Lägrange (1736— 1813) war Professor Lagrango. der Mathematik und Mitglied mehrerer Akademien. Seine M6canique analy- tique ist in Anlage und Ausführung ein großartiges Werk mathematischen Charakters, welches die Grundlage für die weitere Entwicklung der klassischen Mechanik bildete.

Wird das d'Alembertsche Prinzip mit dem Prinzip der virtuellen Ver- Dynamisches rückungen verschmolzen, indem man die dem Prinzip der virtuellen Ver- °'»"**«**®'* rückungen entsprechenden Bedingungen ohne Hinweis auf ihre Bedeutung für die Statik direkt den verlorenen Kräften auferlegt, so entsteht ein dyna- misches Prinzip, welches die Statik als besonderen Fall enthält. Man kann in ihm das dynamische Grundgesetz der klassischen Mechanik sehen.

Es ist eine der besonders wichtigen Aufgaben der klassischen Mechanik verschiedene gewesen, unter Rücksicht auf die ins Auge gefaßten Bindungen der Beweglich- ^'^^^^^^^t keit das dynamische Grundgesetz mathematisch zu formulieren. Dabei ist es G™«>dgesetxes. gelungen, eine ganze Reihe verschiedener Formulierungen zu finden, welche trotz weit verschiedener mathematischer Form doch zunächst gleichwertig erscheinen. Besonders erwähnt mögen hier werden außer dem d'Alembert- schen Prinzip in der von Lagrange gegebenen Form: die Lagrangeschen Bewegungsgleichungen erster Art (in rechtwinkligen Koordinaten), die La- gr an gesehen Bewegungsgleichungen zweiter Art (in allgemeinen Lagekoordi- naten), das Prinzip der kleinsten Wirkung, das Hamiltonsche Prinzip, das Gaußsche Prinzip des kleinsten Zwanges. Eine Darlegung der Einzelheiten verbietet sich an dieser Stelle wegen des erforderlichen großen Aufwandes an mathematischer Abstraktion. Eine Übersicht wird in dem mathematischen Anhang am Schluß dieses Artikels geboten; dort wird auch darauf hingewiesen, daß sich einzelne dieser Formulierungen (Prinzip der kleinsten Wirkung, Prin- zip des kleinsten Zwanges) an Versuche knüpften, neue physikalische Begrün- dungen für das dynamische Grundgesetz zu geben.

Bei Besprechung der Begründung der Statik wurde als Vorteil des Prin- Verhältnis zips der virtuellen Verrückungen gegenüber zum Beispiel dem Satz vom H^ Ph^ " Parallelogramm der Kräfte besonders hervorgehoben, daß es bei seiner An- wendung nicht nötig sei, jedesmal die Einzelheiten der Bindungen zu be- achten. Unter den mathematischen Formulierungen des dynamischen Grund- gesetzes gibt es nun einige, so besonders die Lag rangeschen Bewegungsglei-

28 I- £. WiECHERT: Die Mechanik im Rahmen der allgemeinen Physik

chungen zweiter Art und das Hamiltonsche Prinzip, welche den gleichen Vor- zug besitzen. Diese Formulierungen haben außerordentliche Bedeutung nicht nur für die Mechanik, sondern auch für die Physik im allgemeinen gewonnen, denn die Allgemeinheit ihrer Form machte es möglich, sie in vielen Gebieten der Phjrsik auf Erscheinungen anzuwenden, deren mechanischer Charakter nicht offensichtlich ist, ohne daß es dabei nötig wurde, in besonderen Hypothesen Mechanismen zur Erklärung der Erscheinungen zu erdenken. Man gelangte so dahin, in diesen Formulierungen Gesetze der Physik zu sehen, deren Gültig- keitsbereich sehr weit über die Mechanik materieller Systeme hinausgeht, und dies wurde bedeutungsvoll für die Frage nach dem Verhältnis der Mechanik zu der allgemeinen Physik. Oftmals ist seit alten Zeiten der Versuch gemacht worden, die Physik im ganzen als Mechanik aufzufassen, indem die Bewegung als das Wesentliche aller physikalischen Erscheinungen angesehen wurde und indem dabei angenommen wurde, daß diese Bewegungen von Gesetzen be- herrscht werden, welche gleicher Art seien wie die der Mechanik materieller Systeme. Dieser Ansicht ist bei der eben berührten Entwicklung der Physik eine andere entgegengetreten, welche der Mechanik einen bescheideneren Platz in der Physik anweist. Danach sollen höherstehende physikalische Gesetze in den allgemeinen Formulierungen des dynamischen Grundgesetzes zutage treten, welche für die Mechanik deswegen gelten, weil diese eben einen Teil der all- gemeinen Physik bildet. Wir werden im nächsten Kapitel mehrfach Gelegen- heit haben, dieser wichtigen Überlegung zu gedenken. Grundlagen Kehren wir jetzt zu der Mechanik im engeren Sinne zurück. Wie hervor-

^^Meä^'k!***" S^'^^^^^ wurde, läßt das durch Verschmelzen des d'Alembertschen Prinzips und des Prinzips der virtuellen Verrückungen hervorgegangene dynamische Grundgesetz die Statik als besonderen Fall der Dynamik erscheinen. Dieser Fall stellt sich ein, wenn man für das mechanische System Ruhe voraussetzt und die Bedingung vorschreibt, daß Ruhe bestehen bleiben soll, daß also alle Beschleunigungen verschwinden sollen. Das Grundgesetz, angewandt auf einen Körper, auf den keine Kräfte einwirken, führt zum Beharrungsgesetz; auch ergibt es das Kraftwirkungsgesetz und für die durch Bindungen der Be- weglichkeit übertragenen Kräfte den Satz: actio = reactio. Läßt alles dieses den gewaltigen Wirkungsbereich des dynamischen Grundgesetzes er- kennen, so ist doch zu beachten, daß es die Grundlagen der klassischen Mecha- nik nicht vollständig darbietet. Um diese festzustellen, müssen noch einige Zusätze angefügt werden:

1. Raum und Zeit sind im Sinne Newtons zu verstehen.

2. Die Masse ist als etwas Unveränderliches zu betrachten,

3. Auch für die Fernkräfte im Sinne Newtons, d. h. für die Kräfte, welche nicht durch Bindungen materieller Systeme übermittelt werden, gilt der Satz: actio = reactio.

Die Zusätze l und 2 wird man nicht weiter auffällig finden. Höchst be- merkenswert aber erscheint der Zusatz 3. Nimmt man mit den Schülern Newtons unvermittelte Fernkräfte an, so stellt dieser Zusatz eine dem dyna-

Grundlagen der klassischen Mechanik. Energetische Vorstellungen 29

mischen Grundgesetz der Bewegung ganz fremde Zutat dar. Nimmt man aber, ähnlich wie Descartes, verborgene Vermittlungen an, so taucht die Frage auf, ob zwischen dem Satz actio = reactio, soweit er vermöge des Grund- gesetzes der Bewegung eine Folge der materiellen Bindungen ist, und demselben Satz, soweit er für die scheinbaren Fernkräfte gilt, nicht ein Zusammenhang besteht. Indem wir diese Frage stellen, blicken wir über die Grenzen der klassi- schen Mechanik hinaus; wir werden darauf im nächsten Abschnitt zu sprechen kommen.

Schauen wir nun auf das Erreichte zurück: In einigen wenigen einfachen schioBwort Sätzen dem dynamischen Grundgesetz und den drei Zusätzen lassen sich die Grundlagen für die ganze weitgedehnte Wissenschaft der physikalischen Mechanik aussprechen. Dieses schöne Resultat ist vor allem der Mechanik bis zur Zeit von Lagrange zu danken. Wohl hat die Folgezeit, wie in dem An- hang zu diesem Artikel gezeigt werden wird, wichtige weitere Diskussionen gebracht, welche die Tragweite der Gesetze in klareres Licht gestellt haben, aber die Fundamente konnten dabei doch beibehalten werden. Wo dann in neuerer Zeit versucht wurde, diese Fundamente selbst zu ändern, handelte es sich um eine Umgestaltung des ganzen Weltbildes, welches der klassischen Mechanik zugrunde liegt.

Ober die klassische Mechanik hinaus.

Energetische Vorstellungen. Am Anfang des 19. Jahrhunderts zeigte Physik die Physik und mit ihr die Mechanik eine äußerst charakteristische Gestalt. Es *' *"* ' war der Newtonsche Gedanke der Fernkräfte, welcher allem seine Eigenart aufprägte. Um zur Vorherrschaft zu gelangen, hatte er sich mit der Vorstellung verbunden, daß eine Reihe bestimmter Substanzen die Träger der Naturkräfte seien. Zu diesen Substanzen gehörten die gewöhnliche Materie in ihren verschie- denen Formen, die beiden Paare der elektrischen und der magnetischen Flüssig- keiten und der Wärmestoff. Das Licht galt gemäß der von Newton bevor- zugten Hypothese als Ströme kleiner Körper, welche mit der gewöhnlichen Materie durch Fernkräfte verbunden sind. Als das Wesen aller Naturerschei- nungen erschien die Bewegung der verschiedenen Substanzen; da man annahm, daß die Bewegungen durch die Fernwirkungen Newtonscher Art, entspre- chend dem Gesetz actio = reactio und dem Kraftwirkungsgesetz (Beschleuni- gung X Masse = Kraft) beherrscht würden, so erschien die Physik als eine Mechanik sehr einfacher Art. Solche Bilder vor Augen schrieb 1 81 6 der Mathema- tiker Pierre Simon Laplace (1749— 1827): „Eine Intelligenz, welche für einen gegebenen Augenblick alle Kräfte kennte, von denen die Natur beseelt ist, und die entsprechende Lage der Wesen, welche sie bilden, würde, falls sie um- fassend genug wäre, diese Data der Analyse zu unterwerfen, in ein und derselben Formel die Bewegung der größten Weltkörper und des geringsten Atoms zu- sammenfassen; nichts würde für sie unsicher sein, Zukunft und Vergangenheit würden vor ihren Augen gegenwärtig sein.** Man begreift wohl den Stolz der Gelehrten jener Zeit, welche glaubten, den Schlüssel zum Verständnis aller Vor- gänge in der Welt in der Hand zu haben.

^O !• £• WiECHBRT: Die Mechanik im Rahmen der allgemeinen Physik

Aber gerade damals, im Anfang des 19. Jahrhunderts, begannen neue Ge- danken, neue Erkenntnisse sich zu zeigen; heftige Kämpfe trugen Unsicher- heiten in den kühnen Bau der Wissenschaft hinein, und schließlich gingen die starren Formen der alten Herrlichkeit in Trümmer; man lernte einsehen, daß die Blicke keineswegs bis an das Ende der Welt getragen hatten: wo man einen Abschluß zu sehen gemeint hatte, eröffneten sich Ausblicke in neue Fernen. Begriff dar Den Hauptanlaß zu diesen Wandlungen, die sich bald schneller bald lang-

Arbeit. samer in langer Entwicklung vollzogen, können wir in der Entfaltung energe- tischer Gedanken erblicken. Äußerst lehrreich ist es, dabei zu beachten, wie lange es währte, bis die entscheidenden Begriffe recht herausgehoben, und bis passende Namen für diese gefunden wurden. Der Begriff der mechanischen Arbeit war in dem Prinzip der virtuellen Verrückungen herrschend, er spielte schon in den Gedankengängen von Descartes, Leibniz und anderen über die Erhaltung der Bewegung und der lebendigen Kraft eine bedeutsame Rolle, und trotzdem entzog er sich noch lange der allgemeinen Aufmerksamkeit. Erst die immer fortschreitende Anwendung der Dampfmaschinen im 18. Jahrhundert und die Entfaltung der Technik brachte hier die Wandlung. Man gewöhnte sich daran, die geleistete Arbeit nach Angaben eines Äquivalents im Heben von Gewichten zu kennzeichnen. Der Ingenieur und Professor Gustave Gaspard Coriolis (1792— 1843) schlug den Namen „mechanische Arbeit** vor, der Mili- tär und Professor der mechanischen Physik Jean Victor Poncelet (1788— 1867), der sich um die Anwendung der theoretischen Mechanik auf die Probleme der Praxis große Verdienste erwarb, führte eine bestimmte Maßeinheit, das „Meterkilogramm** ein. Für den Begriff Arbeit/Zeit hat die Physik auch heute noch keinen allgemein anerkannten Namen. Die Technik sagt „Leistung** oder Erhaltung „Arbeitsleistung** oder ,, Effekt**. Die Entwicklung des Begriffes des Arbeitsvor- ' rats knüpfte sich an den Gedanken der Erhaltung der Bewegung. Wir sahen, wie die Descartes sehe mathematische Formulierung dieses Gedankens Widerspruch fand und von Leibniz durch eine andere ersetzt wurde, welche aussagte, daß die Summe der lebendigen Kräfte konstant bleiben solle. In seinem Briefwechsel mit Leibniz schreibt Johann Bernoulli, die lebendige Kraft müßte besser,, Wir- kungsfähigkeit** („facultas agendi**, „pouvoir**) genannt werden; sie sei etwas Absolutes, Substantielles, was für sich besteht, für sich eine Menge ist und von nichts anderem abhängt. Es könne von der lebendigen Kraft nichts verloren gehen, was nicht in der hervorgebrachten Wirkung wieder erschiene. Wenn beim un- elastischen Stoß lebendige Kraft zu verschwinden scheine, so seien die Körper dabei komprimiert, und die Wiederausdehnung werde durch irgendeinen Wider- stand verhindert; die lebendige Kraft aber sei dabei nicht verloren, sondern sie werde nur zurückbehalten. Bernoulli fügt hinzu: ,, Dieses ist, was wir Erhal- tung der lebendigen Kraft nennen.** In aller Schärfe tritt hier hervor, daß mit der lebendigen Kraft nicht nur etwas gemeint ist, was der Bewegung eigentüm- lich ist, sondern etwas viel Allgemeineres, Dieses Allgemeinere, was von Ber- noulli als ,, facultas agendi'* bezeichnet wird, nennen wir heute ,, Energie**. Als lebendige Kraft bezeichnet Leibniz die Summe 2^ tn i;^ wobei m die Masse, v

Mechanische Arbeit. Erhaltung der Energie 3 1

die Geschwindigkeit anzeigt; diese Festsetzung entspricht schlecht dem Zu- sammenhang mit der mechanischen Arbeit, es müßte yZmt;* heißen. Im 18. Jahrhundert blieb aber doch die erste Festsetzung bestehen, Coriolis trat dann für die zweite ein, aber noch lange, bis über die Mitte des 19. Jahrhunderts hinaus, wurde daneben noch die erste gebraucht. Lagrange formulierte den Satz von der Erhaltung der lebendigen Kraft für die Mechanik. Danach folgt, daß der Zuwachs der lebendigen Kraft in jedem Zeitelement gleich der ge- samten Arbeit der angreifenden Kräfte ist. Wir können dies in der Formel

dT=^dA

ausdrücken, wenn dT den Zuwachs der lebendigen Kraft (in der Festsetzung von

Coriolis) und dA die gesamte Arbeit der angreifenden Kräfte bezeichnet. Sind

die Kräfte solcher Art, daß eine Funktion V der Lage der Punkte des Systems

besteht, deren Abnahme dV jederzeit die Arbeit dA der Kräfte angibt, sodaß

stets dA = dV ist, so folgt, daß die Summe der lebendigen Kraft und der

Funktion V konstant bleibt: ^ , rr

i + K = const.

Für die Beurteilung der Tragweite dieses Satzes ist es besonders wichtig zu be- achten, daß eine Funktion V sicher dann vorhanden ist, wenn die im System herrschenden Kräfte sämtlich Newtonsche Fernkräfte sind. Die eben hin- geschriebene Gleichung nennt Lagrange den Satz von der „Erhaltung der lebendigen Kraft**, obgleich dabei mit einer Änderung von T gerechnet wird. Wir dürfen wohl annehmen, daß sich hier der Einfluß der von Leibniz und Johann Bernoulli ausgesprochenen Gedanken über die allgemeinere Be- deutung der lebendigen Kraft äußert.

Die Erinnerung an den Gedanken der Erhaltung der Energie ist wohl nie- mals ganz verloren gegangen, aber es hat doch recht lange gewährt, bis er zur Herrschaft über das allgemeine wissenschaftliche Empfinden gelangte. Wenn die Pariser Akademie 1778 beschließt, in Zukunft sogenannte Erfindungen des ,,perpetuum mobile** nicht zu berücksichtigen, weil es unsinnig sei, immer- währende Bewegungen gewinnen zu wollen, so kommt dabei jener Gedanke nur in versteckter Weise zur Geltung. Gegenüber der alltäglichen Erfahrung, wel- che in zahllosen Beispielen die Vernichtung der Bewegung durch Reibung zeigt, muß der Erhaltungsgedanke schon recht kräftige Stützen finden, um sich durch- zusetzen. Hierzu kam es in entscheidender Weise erst im 19. Jahrhundert. Die dann benutzte Bezeichnungsweise ist sehr geeignet, unser Interesse zu erwecken. Der Ausdruck ,, lebendige Kraft** wird unter dem Einfluß der theo- retischen Mechanik auf den Fall der Bewegung beschränkt. Den allgemeineren Begriff von Leibniz und Bernoulli aber kennzeichnet man einfach mit dem Wort „Kraft**, also mit demselben Namen wie die bewegende Kraft im oi« Namen Sinne Newtons. So durfte sich die alte Vieldeutigkeit des Wortes Kraft gerade ^^/J^'y*^^. zu einer Zeit besonders geltend machen, wo Überlegungen und Untersuchungen von grundlegender Bedeutung die wissenschaftliche Welt erregten. Der rechte Eifer ist offenbar imstande, sich auch mit der unglücklichsten Bezeichnungsart ohne Schaden abzufinden. Erst nach der Mitte des 19. Jahrhunderts endete der

32 I* £. WISCHERT: Die Mechanik im Rahmen der allgemeinen Physik

unerquickliche Zustand, indem durch den Ingenieur und Professor Marquorn Rankine(i820— 1872) der schon von früheren Autoren gelegentlich benutzte Ausdruck „Energie** eingeführt wurde und allgemeine Anerkennung fand, sats von der Den Aus toß für das neue Wachs tum des Erhaltungsgedankens gab der Kamp f

de/£ner^e gcgcn die Stoff theorie der Wärme und der Sieg der mechanischen Wärmetheorie im in neuerer Zeit. 19. Jahrhundert. (Vgl. Artikel 5 u.32ff.) 1837 schrieb der Apotheker Karl Fried- rich Mohr (1806— 1879) in einer Abhandlung „Über die Natur der Wärme**: „Außer den bekannten 54 chemischen Elementen gibt es in der Natur nur noch ein Agens und das heißt Kraft. Es kann unter passenden Verhältnissen als Be- wegung, chemische Affinität, Kohäsion, Elektrizität, Licht, Wärme und Mag- netismus hervortreten, und aus jeder dieser Erscheinungen können alle übrigen hervorgebracht werden.** Hier haben wir den alten Erhaltungsgedanken in neuer Form. 1841 veröffentlichte der Professor der Chemie Justus Freiherr von Liebig (1803— 1873) ähnliche Erwägungen, 1842 schrieb der Arzt Julius Robert Mayer (18 14— 1878) in einer kurzen Arbeit, die als vorläufige Mit- teilung gedacht war, daß Fallkraft, lebendige Kraft und Wärme nur verschie- dene Formen ein und desselben Agens, der ,, Kraft**, seien. 1843 hielt der Pro- fessor der Physik William Robert Grove (181 1 1896) Vorträge über die „Verwandtschaft der Naturkräfte**, im gleichen Jahr veröffentlichte der Bier- brauereibesitzer und Gelehrte JohnPrescott Joule (18 18— 1889) auf Grund eigener Beobachtungen den Satz, daß mechanische Arbeit und Wärme gleicher Art seien, und knüpfte daran den Schluß, daß die Naturkräfte durch des Schöpfers „Werde** unzerstörbar seien. Auch der Inspektor der Wasserwerke von Kopen- hagen, Ludwig August Colding (1815— 1888) gelangte um dieselbe Zeit zu ähnlichen Folgerungen. Nun wuchsder Strom der Erkenntnis schnell an Breite und Tiefe. Die erste quantitative Feststellung der Äquivalenz von mechanischer Arbeit und Wärme gab Robert Mayer auf Grund Gay-Lussacscher Be- obachtungen in seiner Mitteilung von 1842, dann folgte 1843 Joule mit eigenen Messungen. Experimentelle Arbeiten über die Wandlung der Kraft, zunächst besonders von Joule, und eine große Zahl von theoretischen Arbeiten, zu- nächst besonders von Mayer, Joule, dem Professor C. H. A. Holtzmann (181 1 1865) und dem Arzt Hermann Ludwig Ferdinand Helmhol tz (1821— 1894; 1849 Professor der Physiologie, 1871 Professor der Physik) schlös- sen sich an.

Bemerkenswert ist ein wesentlicher Unterschied im Standpunkt gegenüber der „Kraft** (= Energie), den wir in den Arbeiten von Mayer und Helmholtz finden. Mayer betont vor allem die Einheit der Kraft; er erklärt ausdrücklich in seiner ersten Mitteilung, die ,, Kraft** sei stets die gleiche, nur die Form wech- sele; um Wärme zu werden, müsse die Kraft aufhören, Bewegung zu sein. Dem- gegenüber sehen wir, wie Helmholtz den dualistischen Standpunkt der klassi- schen Mechanik vertritt, indem er zwischen „lebendiger Kraft*' der Bewegung und „Spannkräften* 'unterscheidet. DenSatzdT d^ S. 31 nennt Helmholtz den „Satz der lebendigen Kraft*'; die Gleichung T + A^constf S. 31, welche bei Lagrange den Satz der Erhaltung der lebendigen Kraft darstellt, wird

EifaaltuDg der Eneigie. Fcmkräfte. ^^

„Satz von der Erhaltung der Kraft'* genannt. V stellt die „Summe der Spannkräfte' ' dar. In der späteren Namengebung von Rankineund William Thomson erhält von den beiden hier unterschiedenen Formen der Kraft die „lebendige Kraft" den Namen „kinetische Energie" und die „Summe der Spannkräfte" den Namen „potentielle Energie".

Der Satz von der Elrhaltung der Kraft, oder der Satz von der Erhaltung der Ec^aita« der Energie, wie wir von nun ab sagen wollen, wurde um die Mitte des 19. Jahrhun- reto^^rnkri^l! derts Allgemeingut der Wissenschaft. In einen Gegensatz zu der alten Fern- krafttheorie trat er aber zunächst noch nicht. H. Helmholtz wies 1847 darauf bin, daß aus der Femkrafttheorie der Satz von der Erhaltung der Energie folgt. Er meint, daß die Annahme der Allgemeingültigkeit der Femkrafttheorie und der Satz von der Erhaltung der Enei^e im wesentlichen einander gleichwertig seien.

So hatte denn das ersteEmpordringen der neuenEnergetik wohl den , , Wärme- stoff" beseitigt, aber die Physik der Newtonschen Schule noch nicht wankend machen können. Doch waren neue Angriffe schon vorbereitet: Die berühmten Theorien der Elektrizität von Ampere und Wilhelm Weber ließen sich noch allenfalls dem alten Schema einordnen, wenn auch recht f remdart^e Femkräfte und nicht minder fremdartige Formen der potentiellen Energie in den Kauf ge- nommen werden mußten, aber umwälzend Neues brachten dann die theoreti- schen Arbeiten, welche im Anschluß an die großartigen Untersuchungen Fara- days über elektrische und magnetische Erscheinungen der Professor der Physik James Clerk Maxwell (1831 1879) der Wissenschaft 1873 darbot. Maxwell wies auf die Lagrangeschen Bewegungsgleichungen zweiter Art (S. 74) hin. Aus diesen läßt sich ganz allgemein schließen, daß in einem mechanischen System bei stationären Bewegungszuständen die kinetische Energie genau dieselbe Rolle spielen kann wie eine potentielle Energie. PotaatieUe saer- Maxwell schloß nun, daß in Systemen mit elektrischen Strömen wegen dieser b^%aie bJ^ Ströme Bewegungen vor sich gehen, welche unseren Sinnen verborgen sind, und «««•»» erkurt. daß die kinetische Energie dieser Bewegungen, nicht aber, wie man bis dahin an- nahm, eine potentielle Energie für die elektrodynamischen Vorgänge maßgebend sei. Die verborgenen Bewegungen suchte er dabei nicht nur in den Stromleitern selbst, sondern überall im Raum, wo eine magnetische Erregui^ vorhanden ist. Er bemühte sich auch, Modelle mit Hilfe von Rädern und sonst der Vor- stellung gewohnten Hilfsmitteln zu konstruieren, welche die Wechselwirkung elektrodynamischer Systeme anschaulich machen sollten. Und Maxwell tat Bccitigmig der noch einen weiteren Schritt von nicht minder großer Tragweite: Er beseitigte *^^ '^™" die direkten Femkräfte für die elektrischen und magnetischen Erscheinungen Theorie dcrKick- und erklärte die Fernwirkungen durch die Annahme einer Übertragung von Ort Magnetili ** zu Ort im Räume mittels der elektrischen und magnetischen Felderregungen. Diese Felderregungen, die elektrischen und magnetischen Kräfte, wie man auch zu sagen pflegt, sollen nicht nur Bedeutung als Rechnungsgrößen haben, wie es älterenVorstellungen entsprochen hätte, sondern sollen physikalische ZuStands- änderungen des Mediums an den betreffenden Orten des Feldes anzeigen. Zu einem

K.d.G.nLiii,BdxPli]rsik 3

imas.

34 !• KWiechert: Die Mechanik im Rahmen der allgemeinen Physik

Erfolg höchsten Glanzes der neuen Ideen gestaltete sich die Maxwellsche elektrodynamische Lichttheorie. Es gelang Maxwell eine vollständige Theorie der Lichterscheinungen auf Grund der elektrodynamischen Gesetze zu geben, und er konnte sogar die Lichtgeschwindigkeit selbst aus elektrodynamischen Beobachtungen der Erfahrung genau entsprechend berechnen. (Vgl. Artikel

13, 14 u. 15.)

Wie Offenbarungen wirkten die Maxwell sehen Ausführungen, mit un- widerstehlicher Gewalt brachen sie sich Bahn. Ihr Siegeszug vernichtete die elektrischen und magnetischen Flüssigkeiten. Unter großen Gesichtspunkten fanden nun die gewaltigen &scheinungsgebiete der Elektrizität, des Magnetis- mus und des Lichtes eine feste Vereinigung. Die Schicksalsstunde der alten Vorstellungen direkter Fernkräfte war herangebrochen, und große Umwand- lungen begannen nun für die Mechanik und für ihr Verhältnis zur Physik, varborgan« All einem eindrucksvollen Beispiel war erkannt worden, daß innere Bewe-

Boweconf«!!. gu^gen Femkräfte und scheinbare potentielle Energie erregen konnten. Weitere Beispiele mannigfacher Art wurden aufgesucht; den verborgenen Bewegungen, welche man ja auch durch die mechanische Wärmetheorie schon kennen gelernt hatte, wurde erhöhte Aufmerksamkeit geschenkt. Von den dabei besonders be- teiligten Autoren mögen hier genannt werden H. Helmholtz und die Pro- fessoren der Physik Sir William Thomson (später Lord Kelvin, 1824— 1907), Joseph John Thomson (geb. 1857), Ludwig Boltzmann (1844— 1906). Auch mag ein sehr einfaches Beispiel für scheinbare potentielle Energie infolge von Bewegung kurz erwähnt werden. Man denke sich ein regenschirm- artiges Gestell ohne Bespannung, mit Massen an den Enden der langen Stäbe. Bei Rotation des Gestelles wird der Schiebering, wenn weitere Kräfte nicht ein- wirken, eine solche Stelle einnehmen, daß die Massen die weiteste Entfernung von der Achse erhalten. Wird der Schiebering nun aus der Ruhelage heraus- bewegt, sodaß die langen Stäbe mit ihren Massen gegen die Achse geneigt wer- den, so ergeben die Zentrifugalkräfte der Massen eine Kraft, welche den Schiebe- ring wieder zur Ruhelage zurückzuführen strebt: es ist also gerade so, ab ob eine elastische Kraft wirksam wäre. William Thomson konstruierte ähnliche Modelle, bei welchen die hier angenommene Rotation des Gestells durch Kreisel ersetzt wurde, die in die Speichen eingefügt wurden.

Biuiraa« Den Gedanken bot sich nun die lockende Möglichkeit, alle Kräfte und alle

^^^^J^l^** potentielle Energie durch Bewegung und Trägheit zu erklären. Besonders B«iregtuic«B. William Thomson, J. J.Thomson und der Professor der Physik Heinrich Rudolph Hertz (1857— 1894) bemühten sich um den Ausbau einer solchen Mechanik. H. Hertz wollte in streng systematischem Aufbau ohne die Un- klarheiten, welche er in den älteren Darstellungen der Mechanik, besonders in bezug auf die Begriffe der mechanischen Kraft und der Enei^e zu sehen meinte^

jcriftafr«i«- eine „kräftefreie** Mechanik schaffen. Erschreibt: „Wollen wir ein abgerundetes,

Mechanik tob Jj^ gj^j^ geschlossenes, gesetzmäßiges Weltbild erhalten, so müssen wir hinter den Dingen, welche wir sehen, noch andere, unsichtbare Dinge vermuten, hin- ter den Schranken unserer Sinne noch heimliche Mitspieler suchen . . .** Solche

Verborgene Bewegungen. Kinetische Mechanik 35

heimliche Mitspieler werden durch die Begriffe ,, Kraft** und ,, Energie** ange- zeigt. „Es steht uns aber noch ein anderer Weg offen. Wir können zugeben, daß ein verborgenes Etwas mitwirke, und doch leugnen, daß dieses Etwas einer besonderen Kategorie angehöre. Es steht uns frei, anzunehmen, daß auch das Verborgene nichts anderes sei als wiederum Bewegung und Masse, . . .** „Diese Auffassung ist nun eben unsere Hypothese . . .** „Hat aber jene Hypo- these die Fähigkeit, die geheimnisvollen Kräfte allmählich aus der Mechanik wieder zu eliminieren, so kann sie auch verhindern, daß dieselben überhaupt in der Mechanik eintreten . . .** ,,Dies ist der leitende Gedanke, von welchem wir ausgehen . . .** Für Hertz gibt es so nur die drei unabhängigen Grundbe- griffe Zeit, Raum und Masse. Das Wort Kraft wird in der eigentlichen Dar- stellung seiner Mechanik ganz vermieden; es ist nur die Rede von Bindungen der Beweglichkeit. Die Individualität dieser Bindungen ersetzt die Individuali- tät der Kräfte in den älteren Darstellungen der Mechanik. Zu bemerken ist da- bei freilich, daß die Hertzsche Elimination der mechanischen Kraft doch schließlich nur darauf hinauskommt, der Systematik zuliebe ein für die mensch- liche Auffassung sehr nützliches Zwischenglied zurückzudrängen. Als Funda- mentalprinzip wählt Hertz für seine Mechanik das Gau ß sehe Prinzip des klein- sten Zwanges bei Fortfall der angreifenden Kräfte. Das ,, Grundgesetz**, wie es sich dann darstellt, spricht er so aus: „Jedes freie System beharrt in seinem Zustand der Ruhe oder der gleichförmigen Bewegung in seiner geradesten Bahn." Dies Grundgesetz sagt aus, ,,daß, wenn der Zusammenhang des Systems einen Augenblick gelöst werden könnte, daß sich dann seine Massen in geradlini- ger und gleichförmiger Bewegung zerstreuen würden, daß aber, da solche Auf- lösung nicht möglich ist, sie jener angestrebten Bewegung wenigstens so nahe bleiben als möglich**. Die ,, Geschwindigkeit** der Bewegung eines Systems von Massenpunkten wird von Hertz so definiert, daß ihre ,, Gleichförmigkeit*' die Erhaltung der Energie ausspricht. Dabei ist zu beachten, daß die Energie des Systems gemäß den H er tzschen Annahmen allein durch die lebendige Kraft gegeben ist. Nehmen wir als ein einfaches Beispiel das eines einzelnen Massen- punktes : Wird er genötigt, auf einer gegebenen Fläche zu bleiben, so bewegt er sich mit gleichbleibender Geschwindigkeit auf der ,, geradesten** Linie, die hier durch die geodätische Linie dargestellt wird.

Die Mechanik, welche sich durch die geschilderten Bestrebungen ergibt Kinetische und die wir kurz die „kinetische Mechanik" nennen wollen , ist mit der ^«^*»*«*- klassischen Mechanik auf das engste verwandt; sie ist ja im Grunde nichts an- deres als die klassische Mechanik mit vereinfachten Grundannahmen. Wir kön- nen in ihr eine Weiterentwicklung der klassischen Mechanik in jener Rich- tung sehen, in welcher einst Descartes mit fehlerhaftem Rüstzeug vorzudrin- gen suchte. Die D es cart esschen Spekulationen mußten einstmals vor der Geisteskraft des großen Newton weichen; stellen wir uns auf den Standpunkt der kinetischen Mechanik, so sehen wir, wie ein merkwürdiges Schicksal es fügt, daß die Weiterentwicklung der Mechanik nach Newton zu den Grundgedanken desDescartes sehen Systems zurückführt. Die Fernkräfte Newtons sind zum

3*

36 I- E.WiECHKRT: Die Mechanik im Rahmen der allgemeinen Physik

Schein geworden. Zwar bleiben sie noch immer bequeme Formen für unsere Vorstellungen, aber sie sind nichts Ursprüngliches mehr, sondern erklären sich ganz im Sinne von Descartes als Folgeerscheinungen von Bew^ungen und deren Verkettungen.

Wir nahmen eben für den Augenblick Partei für die kinetische Mechanik; so wollen wir denn nun beachten, daß wohl viele, vielleicht die meisten unter den heutigen Physikern die Meinung vertreten werden, daß die kinetische Mechanik ebenso einen Abweg darstelle, wie einst die Spekulationen von Descartes. Jedenfalls muß anerkannt werden, daß es bisher nicht gelungen ist, ein sicheres Anzeichen für jene verborgene Bewegung und ihre Art zu finden, welche die Kräfte der Physik gemäß der kinetischen Mechanik verursachen sollen. Wir wollen auch nicht übersehen, daß die kinetische Mechanik zwar das Rätsel der „Kraft" beseitigt, aber nur indem sie uns vor ein neues Rätsel stellt: das der Bindungen der Beweglichkeit. Und wenn wir nun in unserer Betrach- tung der Entwicklung der Mechanik weitergehen, werden wir erfahren, daß in der neuesten Zeit ganz andere Zielpunkte als die der kinetischen Mechanik in den Vordergrund des Interesses gerückt sind. Triffheit, kum, Ih der klassischcn Mechanik erscheint die Trägheit als eine ursprüngliche ric^'dwrtnf"*'^ '^^S®^^^^^* ^^^ Materie; ihr Maß ist die Masse. Nach energetischer Anschau- netiMhen ungsweise entspricht der Trägheit eine Energie der Bewegung gegeben durch -f mv^, wenn m die Masse, v die Geschwindigkeit bezeichnet. Die Elektrodyna- mik in der Ausbildung, welche sie im Anschluß an Maxwell erhalten hat, lehrte eine andere Art der Bewegungsenergie kennen. Das elektrische Feld in der Um- gebung eines elektrischen Körpers stellt eine gewisse Menge von Energie dar. Nimmt der Körper eine Bewegung an, so wird die elektrische Erregung eine andere, und es tritt eine magnetische Erregung sowie eventuell eine Deforma- tion des Körpers hinzu. Zu schließen ist, daß die Gesamtmenge der Energie eine andere ist als bei Ruhe, und es ergibt die Differenz eine „kinetische Energie elektrodynamischen Urprunges**. Diese Energie erscheint bei Geschwindig- keiten, die klein gegenüber der Lichtgeschwindigkeit sind die aber für uns Menschen noch recht groß erscheinen können , gerade so wie die gewöhnliche kinetische Energie in der Mechanik proportional mit dem Quadrat der Geschwin- digkeit. So scheint denn ein elektrischer Körper wegen seiner Elektrisierung eine „Masse** zu besitzen. Diese „Masse elektrodynamischen Ursprungs** hängt mit der Feldenergie im Falle der Ruhe zusammen. Ist Wq die ,, Masse**, Eq die Feldenergie im Falle der Ruhe, c die Lichtgeschwindigkeit, so gilt die Be- zeichnung: I

AbMngigkeitder wobei p einen Zahlenfaktor bedeutet, der gleich i ist, oder doch nicht weit von i

Mawe eiektro. verschicdcn ist. Bei Geschwindigkeiten v, die nicht mehr als sehr klein gegenüber c

«prangt von der gelten können, wird der Zusammenhang zwischen der kinetischen Energie T und v

es win g ai j^Qj^^pü^ierter^ Wie er sich gestaltet, hängt auch davon ab, wie die Verteilung der

elektrischen Ladung in dem elektrischen Körper sich mit der Geschwindigkeit

ändert; daß eine solche Änderung überhaupt stattfindet, ist anzunehmen,

Elektromagnetische Erklärung der Trägheit 3y

weil die durch die Bewegung geänderten elektrodynamischen Felderregungen deformierende Kräfte zur Folge haben. Der Enderfolg ist hiernach nicht ohne Hypothesen zu übersehen. Wird der H. A. Lorentzschen Theorie (und zu- gleich auch der „Relativitätstheorie**) entsprechend die „Lorentz-Fitzge- raldsche Kontraktions- Hypothese** angenommen, von welcher sogleich die Rede sein wird, so folgt für die kinetische Energie E elektrodynamischen Ur- sprungs:

E '^ m^c

*(v^->

Nehmen wir ferner auch im Falle der durch die elektrodynamischen Vorgänge bedingten Trägheit für „Kraft** {F) und „Masse** (w), solche Definitionen an, daß die; Beziehung bestehen bleibt: Ejraft Masse x Beschleunigung in der Richtung der Kraft, und also wie in der klassischen Mechanik gilt:

dE = Fds = Fvdt ^= m-j^ vdt mvdv mdv^

—wobei dE der Zuwachs der kinetischen Energie im Zeitelement dt bedeutet, während das Wegelement ds zurückgelegt wird und die Geschwindigkeit um dv wächst , so folgt durch die Benutzung unserer Formel für E für die „Masse** m die Beziehung: ^yi

Die Masse ist hiernach von der Geschwindigkeit abhängig, verhält sich also wesentlich anders, als in der klassischen Mechanik für die Trägheit der Materie angenommen wird. Die durch m^ gegebene Masse bei sehr kleinen Geschwin- . digkeiten pflegt man die „Ruhemasse** zu nennen. Die Formeln für E und m zeigen, daß sowohl die kinetische Energie als auch die Masse unendlich groß werden, wenn die Geschwindigkeit bis zur Lichtgeschwindigkeit aufsteigt. Die „Trägheit** elektrodynamischen Ursprungs wächst also hierbei über alle Gren- zen hinaus. Um Mißverständnisse auszuschließen, soll hier noch erwähnt tlt...^ hi Rid&- werden, daß unsere Formel für m sich nur auf die Trägheit in der Bewegungs- ^/^/jTeV richtung bezieht. Die Trägheit in der Querrichtung ergibt sich von dieser ver- d"«- schieden, sodaß sich hier ein weiterer Unterschied gegenüber der einfachen An- nahme der klassischen Mechanik über die Trägheit der Materie ergibt. Ge- mäß der Lorentz-Fitzgeraldschen Hypothese wäre für die Querrichtung:

M ^

}/-$

Unpmog

Bedenkt man, daß gemäß den Lehren der neueren Elektrizitätstheorie höchst wahrscheinlich jedes materielle Atom elektrisch geladene Teilchen ent- *"" t^^^cu. hält, so folgt; daß jedenfalls ein Teil der „Trägheit** der materiellen Körper sich elektrodynamisch erklärt. Die Frage erhebt sich sofort, ob nicht etwa die ganze Trägheit elektrodynamischer Natur ist, und wenn dieses nicht der Fall sein sollte, könnte man doch vermuten, daß die Trägheit im Ganzen sich in ähnlicher

38 I- £. Wiechert: Die Mechanik im Rahmen der allgemeinen Physik

Weise erklärt, wie der elektrodynamische Anteil, indem zu diesem andere An- teile kommen, welche von anderen Kraftäußerungen herrühren (Gravitation, Kohäsion usw.). Aus allgemeinen Erwägungen auf Grund der ,, Relativitäts- Theorie**, von der im nächsten Kapitel noch die Rede sein wird, schließt der Professor der mathematischen PhysikAlbert Einstein (geb. 1 879), daß jedeEner- gie, welcher Art sie auch sein mag, in gleicher Weise Trägheit zur Folge haben muß, wie es eben für die elektrodynamische Energie dargelegt wurde. Wollten wir diese Hypothese annehmen, so wären unsere Formeln für Wo, nt und E allgemein gültig, und es würde insbesondere folgen, daß jedes Gramm der Materie im Fall der Ruhe eine Energiemenge im Betrage von c^ = 9. 10** Erg. = ca. 10^' Meterkilogramm = ca. 2. lo" Gramm- Kalorien darstellt, d. h. eine Energiemenge, wie sie bei der Verbrennung von 27, Millionen Kilo- gramm Steinkohle als Wärme abgegeben wird. Das ist gewiß eine gewaltige Menge, aber sie erscheint keineswegs besonders hoch, wenn man die Energie- mengen beachtet, welche beim radioaktiven Zerfall der materiellen Atome frei werden: Beim Zerfall von Radium z. B. nehmen die fortgeschleuderten Helium- atome so viel kinetische Energie mit sich, daß auf ein Gramm Helium dabei ca. 10" Erg. kommen.

So zeigt denn die Elektrodynamik die Möglichkeit, den Massenbegriff der klassischen Mechanik der Ursprünglichkeit zu entkleiden. Die „Trägheit** hört dabei auf eine Grenze zu sein, jenseits welcher in der Welt nichts Neues mehr zu erwarten wäre, sie bildet vielmehr unserer Erkenntnis ein Tor, durch welches wir in Weiten schauen, die in ihren Tiefen die Unendlichkeit der Natur ahnen lassen. Was bedeutet wohl jene Fülle der Energie, deren Begleiterscheinung die Trägheit ist ? An welche Formen ist sie gebunden? Wir fühlen deutlich, daß die atomistische Struktur der Materie mit diesen Fragen verknüpft ist. Nicht mehr die Masse erscheint nun als fundamentaler Begriff, wie die kinetische MMse and Kraft Mcchaulk annahm, sondern die Energie. Die Masse wird ebenso zu einem abge- ab Begleit- leiteten Begriff, wie die Kraft: die „Masse** erscheint als ein Faktor, der für die

ericneinungen o f h f

bei Energie- Energicumlagerungen maßgebend ist, welche Bewegungsänderungen be- gleiten, und die ,, mechanische Kraft** als ein Faktor, der für Energie- umlagerungen maßgebend ist, welche Lageänderungen begleiten. Die Me- chanik selbst wird zu einer Wissenschaft, welche von den Energieumlagerungen bei räumlichen Umlagerungen und Bewegungen der Materie handelt. Bei dieser Auffassung können wir von einer „energetischen Mechanik** sprechen. Die be- sondere Einfachheit der Grundlagen der Newtonschen und ebenso dann der klassischen Mechanik scheint nun auf der Einfachheit ihrer Annahmen über die Art des Energieumsatzes zu beruhen.

Im Anschluß hieran mag bemerkt werden, daß man sich in neuerer Zeit von verschiedenen Seiten her bemühte, den Energiebegriff in den Mittelpunkt der Mechanik und der Naturwissenschaften überhaupt zu stellen; so entstand die „Energetik". Mit Bezug auf die Mechanik ist hier zu nennen der Professor der Mathematik und mathematischen Physik Georg Helm (geb. 1851), Geltungsbereich Sind Wir bei dem nun gewonnenen Standpunkt, auf welchem die Masse

der klaMiicben Mechanik.

Eneigie als Fundamentalbegriff der Mechanik 3q

veränderlich scheint, gezwungen, anzuerkennen, daß die klassische Mechanik eine Wissenschaft ist, deren Grundsätze und Folgerungen nur in Annäherung gelten ? daß diese Grundsätze und Folgerungen immer weniger der Wirklichkeit entsprechen und sich schließlich ganz von dieser entfernen, wenn die Geschwindig- keiten wachsen und der Lichtgeschwindigkeit nahekommen? Gewiß, das alles muß ohne Frage zugestanden werden, solange wir die klassische Mechanik auf die sinnlich wahrnehmbare Materie beschränken. Aber ist dieses nötig ? Wenn wir zurückschauen in die Geschichte der Wissenschaft, so sehen wir, wie.Fresnel und seine Nachfolger bei der Ausgestaltung der Wellentheorie des Lichts, und wie Maxwell, der doch mit dem Althergebrachten so gründlich aufräumte, doch an den alten Grundsätzen der Mechanik sorgfältig festhielten. Wir finden dasselbe bei Hertz trotz allem Eifer, mit welchem er neue Bahnen suchte, und wir finden es auch bei den Forschern, welche heute für umwälzende Ideen ein- treten. So macht sich denn in der heutigen Physik die Ansicht geltend, daß die GrondgMotx klassische Mechanik bei der Formulierung ihrer Grundsätze zu Gesetzesformein uecht^J^ für das Naturgeschehen gekommen ist, welche eine bei weitem größere Bedeu- i»ö^««»jhondcs tung haben, als ihr nächstes Ziel, die Mechanik der sinnlich wahrnehmbaren der Phyuk. Materie, erheischt. Es ist anzunehmen, daß die klassische Mechanik zu diesem Erfolg gekommen ist, weil das „dynamische Grundgesetz**, wie wir es nannten, schon weitgehend auf energetische Gedanken sich stützt, und weil diese energetischen Gedanken bei einzelnen der mathematischen Formulierungen dann ganz zur Vorherrschaft gebracht sind. In Betracht kommen hier vor allem zwei von den erwähnten Formulierungen, nämlich diejenige in Lagrange- schen Gleichungen zweiter Art und das Harailtonsche Prinzip. (Vergl. auch den „Anhang**.) Bei beiden Formulierungen ist es möglich, den Funktionen, von welchen sie handeln, allgemeinere physikalische Bedeutung zu geben, als der Bewegung materieller Teile entsprechen würde. Selbst die Funktion T, welche für die Bewegung materieller Teile die kinetische Energie darstellt, kann im all- gemeineren Sinne als eine Funktion aufgefaßt werden, welche von dem physi- kalischen Zustande des Systemsund von der Geschwindigkeit der Zustandsände- rung in den verschiedenen Teilen des Systems abhängt. So kann man denn in bei- den Formulierungen nicht nur Formulierungen des Grundgesetzes der materiellen Mechanik sehen, sondern vielmehr Formulierungen eines Grundgesetzes, wel- ches die Wandlung der Energie in allgemeinen physikalischen Systemen dar- stellt. Daß die Gesetze dann auch speziell für die Bewegung im materiellen System unter den besonderen Annahmen der klassischen Mechanik gültig sind, ist bei diesem Standpunkt nichts weiter als ein Zeichen dafür, daß die Bewe- gungen materieller Systeme eben auch jenem Gesetz der Wandlung der Energie unterworfen sind.

Und die kinetische Mechanik ? Sollte die Zeit doch einst kommen, wo diese Kinetische Mechanik recht behielte und schließlich alles in der Physik sich als Bewegung Meciianik. „träger Massen** enthüllte? Der Referent will das nicht glauben, denn daß die Bindungen der Bewegung zusammen mit der Trägheit nicht die Grund- lage für das Naturgeschehen sein können, wird klar erwiesen durch das ewig

40 I- £. Wiechert: Die Mechanik im Rahmen der allgemeinen Physik

neue Wunder des Lebens mit seinem Empfinden, seinem Denken, seinem Wollen. Daß das Leben und die Bewegung innig verknüpft sind, erfahren wir ja fort- während: Wo aber hätte das Leben Raum, wenn Bindungen der Bewegung und Tr^heit alleinherrschend wären? Raum und Zeit Raum Und Zeit. Die Vorstellungen Über Raum Und Zeit nahm die klas-

"**MeS»S^.^*°^^^^® Mechanik gerade so wie Newton als etwas Gegebenes hin. Das 19. Jahr- hundert und unser beginnendes 20. Jahrhundert hat auch hier neues Leben gebracht.

Was ist „Ruhe**, was „Bewegung**, was eine „geradlinige**, ,, gleichmäßige** Bewegung, was eine „Rotation** ? Die Autoren, welche sich zunächst in neuerer Zeit mit diesen Fragen beschäftigten, sahen Schwierigkeiten nur darin, die Raum- beziehungen eines Zeitmomentes denen anderer Zeiten zuzuordnen. Die Fest- stellung der Raumbeziehungen in irgendeinem besonderen Zeitmoment schien ohne Bedenklichkeiten möglich, sie wurde jenen Autoren durch die Vorstellung eines starren Meßgerüstes (Koordinaten-Kreuz usw.) sofort gegeben.

Newton hatte sich den Raum selbst gewissermaßen körperlich gedacht. Nun ist aber ein Punkt des Raumes jedem anderen völlig gleich, keiner hat für die Vorstellung irgend etwas, was ihn charakterisiert. Einen bestimmten Raum- punkt in einem späteren Zeitpunkt wiedererkennen zu wollen, scheint daher be- denklich. Eine Zuordnung allein scheint möglich, diese aber verlangt die Be* inertuitysteme. zugnahme auf etwas Materielles. Die Mechanik setzt Bezugssysteme voraus, in welchen das Beharrungsgesetz gilt. Wir wollen solche Bezugssysteme mit Ludwig Lange „Inertialsysteme** nennen, und beginnen mit der Frage, wie Inertialsysteme aufzufinden sind. Es können dazu verschiedene mechanische Vorgänge gewählt werden. So wird z. B. durch den Umlauf eines Planeten um die Sonne in exzentrischer Bahn, wenn von den Störungen durch andere Himmelskörper abgesehen wird, ein Inertialsystem gegeben, denn es kenn- zeichnet der Schwerpunkt von Sonne und Planet einen festen Punkt, die große Achse eine feste Linie und die Bahnebene eine feste Ebene. Nun verursachen freilich die übrigen Weltkörper des Sonnensystemes Störungen, und also gibt die Berücksichtigung eines einzelnen Planeten nur in Annähe* rung ein Inertialsystem. Das Sonnensystem im ganzen wird beachtet werden müssen; aber auch dann ist das Ziel nicht vollständig erreicht, da ja auch die Weltkörper außerhalb des Sonnensystems von Einfluß sind. So sehen wir uns auf die ganze Welt verwiesen und erkennen, daß eine strenge Lösung des Problems unmöglich ist. Um der Vorstellung einen Anhalt zu geben, hat man vielfach rein gedankliche Konstruktionen von Inertialsystemen verwertet. William Thomson und P. G. Tait wiesen 1867 darauf hin, daß zwei von einem und demselben Raumpunkte gleichzeitig fortgeschleuderte, dann sich selbst überlassene materielle punktförmige Körper in der Folge durch ihre Ver- bindungslinie eine feste Richtung im Räume angeben. Denkt man sich vier sol- cher Punkte 0, A, B, C von einem und demselben Raumpunkte gleichzeitig fortgeschleudert, so hat man in den Verbindungslinien OA^ OB, OC drei Achsen gewonnen, die ein Inertialsystem bestimmen. Der Professor der mathema-

Raum und Zeit. Inertiakysteme 4 1

tischen Physik Heinrich Streintz (1848— 1892) benutzt den Newtonschen Gedanken, daß sich die Rotation eines Körpers durch Beobachtungen an diesem Körper selbst, ohne Rücksicht auf andere Weltkörper bestimmen lasse, und nimmt als Bezugssystem einen sich selbst überlassenen festen Körper ohne Rotation. Der Student Ludwig Lange (geb. 1863) bemerkt 1885, daß drei von einem Raumpunkte gleichzeitig fortgeschleuderte, dann sich selbst über- lassene materielle Punkte ein Inertialsystem bestimmen. Es ist lehrreich, seine das Wesentliche scharf hervorhebenden Formulierungen besonders zu beachten. Lange schreibt: „Definition L Inertialsystem heißt ein jedes Koordinaten- system von der Beschaffenheit, daß mit Bezug darauf drei vom selben Raum- punkte projizierte und dann sich selbst überlassene Punkte P, P', P' wel- che aber nicht in einer geraden Linie liegen sollen auf drei beliebigen, in einem Punkte zusammenlaufenden Geraden dahinschreiten. Theorem L Mit Bezug auf ein Inertialsystem ist die Bahn jedes beliebigen vierten sich selbst überlassenen Punktes gleichfalls geradlinig.*' Über die Zeitskala sagt Lange: ,, Definition II. Inertialskala heißt eine jede Zeitskala, in bezug auf welche ein sich selbst überlassener auf ein Inertialsystem be^^ogener Punkt gleichmäßig fortschreitet. Theorem IL In bezug auf eine Inertialzeitskala ist jeder beliebige andere sich selbst überlassene Punkt in seiner Inertialbahn gleichmäßig bewegt.**

Was ist es nun, was ein Inertialsystem vor anderen Bezugssystemen aus- AaMeidmai« zeichnet ? Auf die Schwierigkeiten, welche das Verständnis hier findet, wies ^^l^^^^' 1870 der Professor der Mathematik Carl Gottfried Neu mann (geb. 1832) hin. Er sagte in bezug auf den Galilei-Newtonschen Satz vom Beharrungs- vermögen der Bewegung: „In dieser Auffassung kann der Satz als Grundstein eines wissenschaftlichen Gebäudes, als Ausgangspunkt mathematischer Deduk- tionen unmöglich stehen bleiben. Denn er ist vollständig unverständlich. Wir wissen ja nicht, was unter einer Bewegung in gerader Linie zu verstehen ist; . . .** , , Jede Bewegung, welche mit Bezug auf einen Himmelskörper geradlinig ist, wird mit Bezug auf jeden anderen Himmelskörper krummlinig erscheinen.** C. Neu - mann kommt zu der Folgerung, daß sämtliche Bewegungen auf einen und den- selben Körper bezogen werden müssen, und schließt, ,,daß an irgendeiner un- bekannten Stelle des Weltraumes ein unbekannter Körper vorhanden ist, und zwar ein absolut starrer Körper, ein Körper, dessen Figur und dessen Dimen- sionen für alle Zeiten unveränderlich sind**. Diesen Körper nennt er den Körper „Alpha**, und auf ihn sollen nun alle Bewegungen bezogen werden. So sehr man bereit war, die Bedenken von C. Neu mann in bezug auf die gewöhnliche Formulierung des Satzes der Beharrung der Bewegung anzuerkennen, so konnte man sich doch mit der Hypothese des Körpers Alpha nicht befreunden. Der Professor der Physik, später Professor der Philosophie, Ernst Mach (geb.1838) Machgogon den wandte sich in seinen historisch-kritischen Studien über die Mechanik mit Leb- ^J^^^e ab»*^" haftigkeit gegen die Vorstellung eines „absoluten** Raumes und einer „abso- z«»*- luten** Zeit : Es gäbe nur relative Bewegung. Auch die sog. „absolute" Rotation, etwa die der Erde, sei eine Täuschung, es handele sich dabei um eine Drehung rela- tiv zur übrigen Welt. Von dieser übrigen Welt dürfe man niemals absehen. Das

^2 I- £. WiECHERT: Die Mechanik im Rahmen der allgemeinen Physik

Verhalten eines Körpers, der scheinbar sich selbst überlassen ist, werde in Wirk- lichkeit durch seine Wechselwirkung mit den übrigen Weltkörpern bestimmt. So bezieht denn Mach das Beharrungsgesetz auf die gesamte Welt, und um die- sen Gedanken durchführen zu können, betrachtet er mit Vorliebe die Hypothese, daß für das Beharrungsgesetz der Einfluß der Massen unabhängig von der Ent- fernung sei. Dann wird der Fixsternhimmel im ganzen genommen entscheiden, und dadurch soll sich dann z. B. erklären, daß die terrestrischen Beobachtungen über die Drehung der Erde mittels des Fo u c au It sehen Pendels ebendieselben Resultate ergeben, wie die astronomischen Beobachtungen der relativen Dre- hung der Erde gegen den Fixsternhimmel. Welcher Art freilich diese Wechsel- beziehungen zwischen den Massen der Welt sein sollen, die im Beharrungsgesetz zutage treten, und wie wir uns mit der doch recht seltsam anmutenden Vorstel- lung einer von der Entfernung unabhängigen Wechselwirkung befreunden sol- len, darüber sagt uns Mach nichts. Da ist es zu beachten, daß Mach noch auf eine zweite Möglichkeit hinweist, die Annahmen der Mechanik mit dem Gedanken von der Relativität aller Bewegungen in Einklang zu bringen: Man müßte an ein den Weltraum erfüllendes Medium denken und alle Bewegung auf dieses be- ziehen. Die Vorstellung eines solchen Mediums wäre ,, naturwissenschaftlich noch immer wertvoller, als der verzweifelte Gedanke an den absoluten Raum". Mach spricht hier das Wort „Äther" nicht aus, wohl wegen der philosophisch bedenklichen Vergangenheit dieses Wortes; nach dem Sprachgebrauch der Physik wäre es aber durchaus am Platz. Man könnte in dem Äther dann einen Ersatz für den „Körper Alpha" von Carl Neumann sehen. Bedeatnng Überschaueu wir alle diese Diskussionen, so wird der Blick geschärft für die

dwBeh^^g Erkenntnis, daß das Gesetz der Beharrung der Bewegung in zwei gegensätz- der Bewegung. Uchcn Richtungcu außerordentlich wichtige Eigentümlichkeiten des physika- lischen Weltgeschehens anzeigt. Einerseits scheinen die einzelnen materiellen Körper in bezug auf ihre Bewegung eine gewisse Selbständigkeit zu haben; wohl bestehen Wechselwirkungen, aber diese machen den Eindruck von Zutaten, die man sich auch wegdenken kann. Die scheinbare Selbständigkeit erklärt es, daß so viele Autoren nicht zögerten, von „sich selbst überlassenen" Körpern zu sprechen. Anderseits zeigt das Beharrungsgesetz gemäß den beiden Theoremen von Ludwig Lange an, daß in Zeit und Raum etwas Gemeinsames alle ma- teriellen Körper verbindet. So können die Newtonschen Annahmen des abso- luten Raumes und der absoluten Zeit als Versuche angesehen werden, das gemein- same Band der Vorstellung näher zu bringen. Ein Körper, der sich selbst über- lassen ist, ist bei dieser Anschauung nur noch dem Raum und der Zeit über- antwortet. Raum und Zeit für sich genommen bestimmen schon die Inertial- systeme. Die Konstruktionen dieser Systeme, welche wir kennen lernten, die- nen nur dazu, sie dem Menschen sinnenfällig zu machen. Wer sich auf den Standpunkt von E. Mach stellt, wird sich weigern, dem Raum und der Zeit hier die Vermittlerrolle zuzuerkennen, und wird nach einer substantiellen Verbindung suchen. Er wird behaupten, daß etwas Substantielles, dem die sinnlich wahrnehmbare Materie auch zugehört, die Inertialsysteme bestimme.

Absolute und relative Beweg^g. Inertialfeld. Äther 43

Aber welcher Art die Verbindungen nun auch sein mögen, jedenfalls be- stehen sie, und bewirken, daß in jedem Raumgebiet die Inertialsysteme vor andern Bezugssystemen ausgezeichnet sind. Um für jede Stelle des Raumes das- jenige zu kennzeichnen, was die Inertialsysteme auszeichnet, wird der Referent im folgenden den Namen „Inertialfeld'' gebrauchen. Dieses Inertialfeld stellt also inertiaifeid. z. B. für jede Raumstelle fest, was Drehung ist und was nicht. Nach Newton wäre das Inertialfeld durch den absoluten Raum im Verein mit der absoluten Zeit bestimmt, nach Mach durch substantielle Verbindungen. Beachten wollen wir aber schon hier, daß unter allen Umständen jenes große Rätsel übrig bleibt, welches dem Menschen die Beziehungen von Raum und 2^it zur Materie ver- hüllt.

Neue Anregungen für die Entwicklung der physikalischen Vorstellungen über Raum und 2^it hat die Elektrodynamik gegeben. Wir erkannten soeben, daß das Inertialfeld an irgendeiner Stelle im Raum im wesentlichen unabhängig scheint von der Materie, welche dort oder in der Nachbarschaft vorhanden ist. Bei dem elektrodynamischen Feld mit seinen elektrischen und magnetischen Eiektrodyna- Erregungen könnte man, wenn man dem unmittelbaren Anschein trauen wollte, °"^®* ^•^^• zunächst annehmen, daß die Verhältnisse durchaus anders lägen. Aber die neuen Erfahrungen haben doch dahin geführt, diesen Anschein als eine Täuschung zu erkennen. Wenn auch z. B. das Licht innerhalb der Materie sich wesentlich anders ausbreitet, als im „leeren" Räume, so gibt es doch gute Gründe (geboten z. B. durch die Fizeauschen Versuche, vgl. Artikel 34), welche darauf hindeuten, daß der Einfluß der den Raum erfüllenden sinnlich wahrnehmbaren Materie dabei nur indirekter Art ist: Unter Einwirkung der Felderregungen des Lichtes verschieben sich elektrische Teilchen sowie vielleicht magnetische Elemente im Inneren der Materie, und erst durch diese Verschiebungen erfolgt die Beein- flussung des Lichtes. So hat man sich denn in neuerer Zeit daran gewöhnt, das elektrodynamische Feld als etwas zu betrachten, was von der Materie und ihren Bewegungen nicht direkt, sondern nur indirekt abhängt. Der Professor der Physik Hendrick Antoon Lorentz (geb. 1853) hat diese Erfahrung in die kurze Formel gebracht: „Der Äther ruht.** Er nimmt „DerÄthcmiht." dabei für die elektrodynamischen Erregungen gemäß der durch die Wellen- theorie des Lichts seit alten Zeiten gegebenen Sitte einen besonderen Träger an, ein Medium, welches alle Materie durchdringend, die ganze Welt erfüllt, und benützt für dieses Medium den ebenfalls seit alten Zeiten üblichen Namen „Äther**. Ebcperimentelle Erfahrungen (gegeben besonders durch den be- rühmten,,MichelsonschenVersuch**,vgl.Artikel 34) haben nun aber gezeigt, daß Michei^Mcher die fortschreitende Bewegung der Erde gegen das elektrodynamische Feld (also *""^ ' gegen den „Äther**) auch da nicht hervortritt, wo man dies zunächst erwarten müßte. Um den Widerspruch zu lösen, vor den man sich so gestellt sah, wurde von H. A. Lorentz (und unabhängig auch von dem Professor der Physik George Francis Fitzgerald, 1851 1901) die Hypothese erdacht, daß alle Körper bei der Bewegung gegen den Äther in der Richtung der Bewegung eine Verkürzung erfahren („Lorentz- Fitzgerald sehe Kontraktion**.) Die ^^^^^'^^^

traktion.

44 I* E.WIBCHERT: Die Mechanik im Rahmen der allgemeinen Physik

weitere Ausführung dieses Gedankens führte H. A. Lorentz zu einer Theorie der Elektrodynamik, welche höchste Bedeutung auch für die Mechanik und ins- besondere für die Entwicklung der Vorstellungen von Raum und 2^it gewon- nen hat. Diese Theorie wird in Artikel 15 dieses Bandes der ,, Kultur der Ge- genwart'* dargelegt werden, so ist hier nur auf die Interessen der Mechanik Rück- sicht zu nehmen. Für die Verkürzung in der Richtung der Bewegung wird

das Verhältnis I : Yl [vjcY angenommen, wenn v die Geschwindigkeit der relativen Bewegung gegen den Äther, c die Lichtgeschwindigkeit bedeutet. Eiektrodyiiamik Hierzu gehört die vorhin angegebene Änderung der Trägheit elektrodynami- ^J^^^^^ sehen Ursprungs. In einem sich gegen den Äther bewegenden System spielen gen den Äther sich dann für einen mitbewegten Beobachter alle elektrodynamischen Vorgänge gerade so ab, wie bei Ruhe gegen den Äther. Dies gilt aber nur für den An- schein, in Wirklichkeit bestehen sehr wesentliche Unterschiede. So sind die Dimensionen aller Körper verändert; der Beobachter merkt das deswegen nicht, weil sein eigener Körper und seine Maßstäbe denselben Änderungen unterworfen sind. Auch der zeitliche Verlauf der Vorgänge ist ein anderer; es geschieht nämlich alles in einem solchen Verhältnis langsamer, daß die ent*

sprechenden Zeiten bei Bewegung und bei Ruhe sich wie i : Vi (ü/^)* verhalten. Was ferner dem Beobachter an zwei verschiedenen Raumstellen als gleichzeitig erscheint, wenn er in gewohnter Art Lichtsignale oder elektrische Signale oder irgend sonst welche elektrodynamischen Vorgänge zum Stellen der Uhren wählt, ist es in Wirklichkeit nicht: die,, Ortszeit", wie H. A.Lorentz sagt, wird dabei in anderer Weise aufeinander bezogen, wie im Falle der Ruhe. Im Hin- blick auf das Folgende scheint es nützlich, sich in der Hauptsache wenigstens zu vergegenwärtigen, wie die Verschiedenheit in der Auffassung der räum- lichen und zeitlichen Verhältnisse sich mathematisch darstellt. Im Falle der

••

Ruhe des Bezugssystemes gegen den Äther seien x^ y, z, t die Raumkoordinaten- und die Zeit; es möge nun ein Koordinatensystem ^, /, /, 1f hinzugenom- men werden, welches gegenüber dem ersten in gleichmäßiger Bewegung mit der Geschwindigkeit v parallel der jj-Achse begriffen ist, und welches so ge- wählt ist, daß es dem Beobachter für die Beurteilung der Dimensionen der Körper und des Verlaufes der elektrodynamischen Vorgänge dem System x^ y, 0, / gleichwertig erscheint. Es bestehen dann die Beziehungen:

V /rx ^ "^ ^* J Z'-Vt ., ~if*'

' y->, 1/^ )^-S

wenn die Achsen ^, y', / parallel den Achsen ^, y, ä, gelegt werden und wenn über die (gleichgültigen) Anfangspunkte für die Koordinaten passend verfügt wird. ( bedeutet dabei die Lorentzsche „Ortszeit". Den durch die Formeln (L) angezeigten Übergang von einem zum andern Koordinatensystem pflegt man nach H. Poincar6 die „Lorentz -Transformation'* zu nennen. Ein ganz einfaches Beispiel genüge, um die Bedeutung der Transformation zu zei- gen. Ein materieller Körper, der bei Ruhe im System x^ y, «, / die Gestalt einer

Gleichwertige Koordinatensysteme. Relativitätstheorie ^j

Kugel zeigt, nimmt wegen der Lorentz- Fitzger aidschen Kontraktion bei einer Bewegung gegen den Äther, welche ihn im System ^, y', $! ^ i als ruhend er- scheinen läßt, eine solche Gestalt an, daß er sich nun in diesen Koordinaten als Kugel von derselben Größe darstellt, wie vorhin im System ^, y, ar, i.

Wie die Elektrodynamik, so nimmt auch die klassische Mechanik an, daß es gleichwertige Koordinatensysteme gibt; aber da sie die Lorentz-Fitz- geraldsche Kontraktion nicht kennt und nicht mit verschiedenen Systemen der Ortszeit rechnet, treten für sie an Stelle von (L) die Gleichungen:

{N) c(f z= X, y = y, ff ^z vt.i ^U

Um den Gegensatz der durch (L) und durch {N) dargestellten Beziehungen bequem bezeichnen zu können, hat man auch für die durch {N) dargestellte Transformation der Koordinaten einen besonderen Namen gewählt, und zwar pflegt man hier von der „Newton-Transformation** zu sprechen.

Die geschilderte Elektrodynamik eines in Bewegung befindlichen Systems Eine Hypothese, berücksichtigt die Änderung der „Masse** bei der Bewegung, soweit diese ^^'^f^j™ ^^*^' Masse elektrodynamischen Ursprungs ist. Wollte man den Gedanken hegen, ^®?f^®*' "J" daß alle „Masse** in derselben Weise von der Bewegung gegen den Äther die Beweguagr' abhängig ist, wie die elektrodynamisch verursachte, und wollte man Ent- "j^ Irbwaen- ^ sprechendes auch von allen Naturkräften annehmen, so würde sich die Folgerung ergeben, daß einheitlich alle Naturvorgänge durch die Bewegung gegen den Äther in einer Weise beeinflußt werden, welche den mitbewegten Beobachter jedes Mittels beraubt, irgend etwas von diesem Einflüsse zu bemerken, solange er nicht Systeme mit anderer relativer Bewegung zum Vergleich heranzieht. Mathematisch heißt dies, daß sich im System ^, y, 2^, ( bei der Loren tz-Transformation (L) alles gerade so abspielen würde wie im System x^ y, £r, U Und noch mehrl In der Veröffentlichung von 1905, in welcher A. Einstein seine „Relativitätstheorie** darlegte, wies er darauf hin, daß unter den genannten Annahmen auch die Vergleiche zweier oder beliebig vieler Systeme mit beliebigen relativen Bewegungen nicht die Möglichkeit bie- ten würden, über die Bewegung relativ zum Äther sofern man einen solchen annimmt bestimmte Aussagen zu machen. Jeder Beobachter könnte mit gleichem Recht für sich selbst Ruhe oder jede beliebige Geschwindigkeit gegen den hypothetischen Äther annehmen. Um dies z. B. für den Fall der Beobach- tung der Änderung der Dimensionen und der Geschwindigkeit des Ablaufs von Naturvorgängen einzusehen, ist zu beachten, daß bei den Urteilen, die ein Be- obachter über irgendwelche Erscheinungen fällt, stets auch seine eigene Auf- fassung über Gleichzeitigkeit mit zur Geltung kommt, indem er die Lorentz- sche „Ortszeit** verwertet. Die Folge hiervon ist, daß von zwei Beobachtern, die sich auf zwei Körpersystemen befinden, welche in relativer Bewegung be- griffen sind, beide genau die gleichen Änderungen zu sehen meinen, wenn sie das fremde System mit dem eigenen vergleichen. Die so sich einstellende vollstän- dige Symmetrie der Erscheinungen vereitelt dann jeden Schluß auf relative Be- wegung der Systeme gegen den Äther. Bei der Loren tz-Transformation (L)

46 1- E.WiECHERT: Die Mechanik im Rahmen der allgemeinen Physik

tritt dies darin zutage, daß bei der Auflösung der Gleichungen nach den X, y, 2, t dieselben Gleichungen hervorgehen, mit dem Unterschied allein, daß die Xf y, ä, t mit den ^, /, «', f vertauscht erscheinen. Vergleich der Unter solchen Umständen wäre es bei unseren Annahmen auch nicht mög-

dcTAbu^ef <ter l^ch f estzustcUcn, in welchem von zwei physikalischen Systemen, die sich relativ inTrt^^^n zueinander gleichförmig bewegen, die Naturvorgänge schneller oder langsamer reutiver Bewe- Verläufen. Ein solcher Vergleich wird erst möglich, wenn der Bewegungszustand *^** wenigstens in einem der beiden Systeme wechselt, und zwar so wechselt, daß die Systeme von 2^it zu Zeit in die gleiche relative Lage kommen. Dann kann jedes- mal, wenn dies geschieht, der Vergleich unter denselben Bedingungen von neu- em vorgenommen werden, und es ergibt sich so ein einwandfreier Vergleich des Fortschrittes der Naturvorgänge in den Zwischenzeiten. Setzt man einen ver- hältnismäßig so langsamen Wechsel des Bewegungszustandes voraus, daß dieser Wechsel als solcher keine Störung verursacht, so ergibt sich folgender höchst merkwürdiger Schluß: Werden zwei Systeme verglichen, von denen das eine seinen Bewegungszustand unverändert beibehält -- etwa, weil es „sich selbst überlassen** bleibt während das andere seinen Bewegungszustand ändert, so zeigt sich der Fortschritt der Naturvorgänge auf dem System mit wechselnden Bewegungszuständen langsamer als in dem mit gleichbleibendem Bewegungs- zustand. Schon A. Einstein machte hierauf in seiner ersten Veröffentlichung 1905 über das Relativitätsprinzip aufmerksam, indem er dabei speziell den Fall zweier ,, Uhren** als Vergleichssysteme ins Auge faßte (,,Einsteinsches Uhren- experiment**). Einst einist dann aber bei seinenspäteren Darstellungen der Theo- rie zunächst gar nicht wieder auf diese Schlüsse zurückgekommen. In den Aus- führungen des Professors der Mathematik Hermann Minkowski (i 864-— 1 909) über die Relativität von Raum und Zeit werden die Schlüsse zwar nicht direkt for- muliert, aber sie sind den mitgeteilten Formeln (über die „Eigenzeit**) sogleich zu entnehmen. Dieses tat in Vorträgen und in einer gedruckten Abhandlung 191 1 der Referent (geb. 1861, Professor der Geophysik), und etwa zur gleichen Zeit wurden die Schlüsse auch von dem Professor der Physik Paul Langevin ver- wertet. Beide Autoren knüpften Scherze an, die geeignet scheinen, das Wesent- liche in klares Licht zu setzen. Der Referent bemerkte in seinen Vorträgen im März und Mai 191 1, daß man auf Reisen gehen müsse, um jünger zu bleiben. P. Langevin in seiner im Juli 191 1 erschienenen Veröffentlichung schrieb, man müsse sich im Laboratorium tummeln, um jünger zu bleiben. Als „physi- kalische Systeme** werden hier in beiden Fällen Menschen genommen. Auch deren körperliches und geistiges Leben müßte den von uns gemachten Annah- men gemäß in ganz gleicher Weise von dem Bewegungszustand beeinflußt wer- den, wie jeder andere Vorgang in der Natur. Ätherhypotheso H. A. Lorcntz ist bei seinen Untersuchungen der Frage, welche Annah-

''"'^ prtori^*^" ^^^ gemacht werden müssen, damit auf Systemen in relativer Bewegung die Vorgänge für die mitbewegten Beobachter in gleicher Weise zu verlaufen schei- nen, stets von der Ätherhypothese ausgegangen. Die von den Beobachtern auf den verschiedenen Systemen wahrgenommene Gleichheit des Verlaufs war für

Relativitatsprinzip ^y

ihn darum nichts weiter als ein Schein. Dieser Ansicht stellte A. Einstein 1905 in dem „Relativitätsprinzip** eine wesentlich andere gegenüber, welche außer- ordentliches Aufsehen erregte und begeisterte Anhänger fand. Nach diesem Prinzip sollen die verschiedenen Auffassungen der räumlichen und zeitlichen Verhältnisse von Beobachtern auf Systemen, welche in relativer Bewegung sind, nicht nur scheinbar, sondern wirklich gleichwertig sein. Wie die „Bewe- gung**, so soll hiernach auch die ,, Gleichzeitigkeit** an verschiedenen Orten nichts Absolutes, sondern nur etwas Relatives sein, was sich den verschiedenen Beobachtern verschieden darstellt. Der Äther wird als eine unnötige, störende und darum zu verwerfende Vorstellung bezeichnet. Die Energie soll etwas Selbständiges sein, was eines besonderen Trägers nicht bedarf. In bezug auf die Lichtstrahlung sagt Einstein 1909, es ,, erscheint ein nicht von Strah- lung durchsetzter, von ponderabler Materie freier Raum wirklich als leer**. Und nicht nur eine andere theoretische Anschauung der Dinge bringt Einstein, er lehrt auch sachlich neue Folgerungen. Das Relativitätsprinzip soll alle Na- turgesetze ohne Ausnahme in genau gleicher Weise umfassen. Wenn wir also z. B. bei dem früheren Standpunkt es nur als möglich bezeichnen durften, daß die Masse im ganzen sich bei Bewegungsveränderungen so verhielte wie der elektrodynamische Anteil, so wird die Gleichheit des Verhaltens jetzt zu einem Naturgesetz, von dem es keine Abweichung gibt. Die Einst einschen Gedan- ken haben unzweifelhaft manches Lockende an sich: Der reizvolle Ausblick einer Raumzeitanschauung tut sich auf, welche neue, tiefgründige Erklärungen über den Zusammenhang der Naturvorgänge zu bieten scheint. Dennoch gibt es unter den heutigen Physikern viele und der Referent gehört zu diesen , welche den Einstein sehen Untersuchungen zwar gern die Anerkennung einer großen Bedeutung für die Klärung der Anschauungen zollen, ihnen auch heu- ristischen Wert zuerkennen, welche aber doch meinen, daß für das Verständnis der Erscheinungen die Ätherhypothese einfacher und naturgemäßer erscheint als das Einst einsehe Relativitätsprinzip. Dieser Standpunkt soll hier vom Referenten vertreten werden. In dem Artikel 34 dieses Bandes wird dann der Leser Gelegenheit haben, den Standpunkt von A. Einstein durch ihn selbst vertreten zu sehen.

Zu beachten ist, daß die Relativitätstheorie selbst eine Entwicklung durch- gemacht hat. Die Schwierigkeiten, welche sich ergaben, die Gravitation dem ursprünglichen System einzuordnen, haben A. Einstein später dahin geführt, in jener älteren Theorie nur eine mathematische Darstellung von näherungs- weiser Gültigkeit zu erblicken. Er unterscheidet demgemäß zwischen einem Äiteronndneaere „älteren" oder „gewöhnlichen** und einem „neueren** Standpunkt gegenüber S^rirlön. dem Relativitätsprinzip. Die ältere Theorie wurde von H. Minkowski zu einer «tein-Minkowiki- hohen mathematischen Formvollendung gebracht. H. Minkowski war es auch, tbeone. der mit kühnem Mut die äußersten Konsequenzen der Theorie für eine neue Raumzeitanschauung zog und so sehr viel zum Ruhm der Theorie beitrug. Der Referent vermag nicht sicher zu beurteilen, wie weit A. Einstein sich den Minkowskischen Standpunkt zu eigen gemacht hat. Es wird darum im

48 I* E.WIECHERT: Die Mechanik im Rahmen der allgemeinen Physik

folgenden diejenige Theorie, welche sich im Anschluß an die Aufstellung des Relativitätsprinzips durch Einstein zunächst entwickelte, die E in- st ein -Mi nkowskische Theorie genannt werden. Wir wollen ferner Ätherhypothete uoch beachteu, daß ein Prinzip über Raum und Zeit selbstverständlich nicht ''priJrip^dw^ im allgemeinen für oder gegen das Bestehen eines Mediums, wie es der Äther •prechoa wn- g^jn goU^ sprechcu kann. Das Prinzip könnte nur gewisse Bewcgungszustän- de dieses Mediums gegenüber der übrigen Welt ausschließen. Ebenso selbstver- ständlich ist das etwaige Vorhandensein des Äthers durchaus verträglich mit dem Relativitätsprinzip, sofern nur der Bewegungszustand des Äthers nicht mit diesem Prinzip in Widerspruch ist. So haben also die beiden Fragen, ob die Hypothese des Relativitätsprinzips zutrifft und ob ein Äther besteht, zunächst nichts Gegensätzliches, sie haben rein sachlich genommen überhaupt nichts miteinander zu schaffen. Der Zusammenhang für die menschliche Erkenntnis wird erst dadurch gegeben, daß die Anhänger der einen Hypothese die andere für unnötig und für irreführend erklären. H. Minkowski bietet ein Beispiel dafür, daß man. das Relativitätsprinzip annehmen kann, ohne doch die Äther- hypothese zu verwerfen, verknäpfungvon Äthcrhypothese und Relativitätsprinzip. Wir erkannten schon, Raum and Zeit, j^^ß ^^^ Hinweis auf einen Raumpunkt in der Welt ohne einen Hinweis auf einen bestimmten Zeitpunkt keinen Sinn hat. So scheinen denn Raum und Zeit fest miteinander verknüpft. Dieses ist gerade durch die Diskussion über das Ein- steinsche Relativitätsprinzip klar geworden, und H. Minkowski hat es be- sonders scharf formuliert: „Von Stund' an sollen Raum und Zeit zu Schatten herabsinken und nur noch eine Art Union der beiden soll Selbständigkeit be- wahren.'* So sagt denn Minkowski auch in bezug auf das Relativitätsprinzip oder, wie er sich ausdrückt, in bezug auf das „Relativitätspostulat**: „Indem der Sinn des Postulats wird, daß durch die Erscheinungen nur die in Raum und Zeit vierdimensionale Welt gegeben ist, aber die Projektion in Raum und Zeit noch mit einer gewissen Freiheit vorgenommen werden kann, möchte ich dieser Behauptung den Namen Postulat der absoluten Welt (oder kurz Welt- postulat) geben.** Bis hierher werden wohl alle heutigen Physiker gern gehen. Der Unterschied in der Bewertung des Relativitätsprinzips tritt erst auf, sobald es sich um die Feststellung der Grenzen in der Freiheit der Projektion der abso- luten Welt handelt.

So müssen wir also die drei Raumkoordinaten mit der Zeitkoordinate ver einigen, um etwas Bestimmtes für die Welt zu erhalten. Was sich dann ergibt, Ranmzeitpankt. heißt ciu „Raumzcitpuukt** (oder ein „Weltpunkt**, wie Minkowski in seiner farbenkräftigen Sprache sagte). Diese Raumzeitpunkte bilden die eigentlichen Elemente des Inbegriffes von Raum und Zeit; ihre Gesamtheit stellt sich dar als eine vierfach unendliche Mannigfaltigkeit. Ein materieller Punkt, das heißt ein Punkt, den wir uns durch Bezugnahme auf Materie gekennzeichnet denken, möge ins Auge gefaßt werden. Ein 2^itpunkt in seinem Schicksal bezeichnet einen Raumzeitpunkt und sein Schicksal in einem Zeitraum eine Aufeinander- Raam«eitimic. folge von Raumzeitpunktcu, eine „Raumzeitlinie** (eine „Weltlinie*' nach Min-

Raumzeit-Mannigfaltigkeit; Schreitung 4q

kowski). Für den Fortschritt von einem gegebenen Raumpunkt aus unter- scheidet man in der gewöhnlichen dreidimensionalen Raumgeometrie verschie- dene „Richtungen**. Der Referent hat in seiner Arbeit von 191 1 den Namen „Schreitung*' vorgeschlagen für jenen Begriff, welcher in der vierfachen Raum- Scbrcitong. Zeitmannigfaltigkeit das Analogon zur „Richtung** bildet. Denken wir uns zwei materielle Punkte beieinander» die eine Zeit lang beieinander bleiben, so be- schreiben sie währenddessen die gleiche Raumzeitlinie und haben also stets die gleiche Schreitung; gehen sie dann in einem gewissen Zeitpunkt ihres Schicksals auseinander, so heißt dies, daß die „Schreitung** in diesem Zeitpunkte verschie- den wird. In diesem besonderen Fall bedeuten gleiche Schreitungen relative Ruhe, verschiedene Schreitungen relative Bewegung. Da man in der ge- wöhnlichen Raumgeometrie bestimmte Richtungen in verschiedenen Raum- punkten als gleich (oder parallel) bezeichnet, so wird man zu dem Versuch ge: führt, auch verschiedenen Raumzeitpunkten„gleiche** Schreitungen zuzuordnen. »Gimche" Es scheint selbstverständlich, bei einem Körper von nicht merklicher Ausdeh- '** nung, der „sich selbst überlassen** ist, die Sghreitung als gleichbleibend zu be- zeichnen, und ebenso scheint es selbstverständlich, bei verschiedenen sich selbst überlassenen Körpern die Schreitungen dann gleich zu nennen, wenn die Körper keine relative Bewegung besitzen. Jedem Inertialsystem entspricht dann eine be- stimmte Schreitung und umgekehrt. Jeder Punkt, der sich in einem Inertial- system mit einer nach Größe und Richtung gleichbleibenden Geschwindigkeit bewegt, bezeichnet eine gleichbleibende Schreitung; alle Punkte, die in einem Inertialsystem gleich große und parallel gerichtete Geschwindigkeiten haben, bezeichnen dieselbe Schreitung. Dies alles entspricht genau dem Vorstellungs- kreis der gewöhnlichen Mechanik. Wir haben die Bedenken, welche sich daran Bedonken. knüpfen, schon kennen gelernt, und wissen daher, daß es sich hier um versteckte Voraussetzungen handelt, welche auf die Verkettungen der Erscheinungen in der Welt nicht Rücksicht nehmen, und welche deshalb theoretisch und prak- tisch nur mit Einschränkungen Gültigkeit beanspruchen können.

Zu den wichtigsten Ergebnissen der neueren Physik gehört die Folge- Licbt- rung, daß die elektrodynamischen Erregungen, auch die des Lichtes, sich im * ** **"* sogenannten leeren Räume in Schreitungen ausbreiten, die von den Schrei- tungen der Materie, insbesondere der Lichtquellen nicht abhängen. Auch die Gravitation hat bisher keinen merklichen Einfluß erkennen lassen. So scheinen also bei dem heutigen Standpunkt der Wissenschaft die Lichtschreitungen an jeder Raumstelle ein gegenüber der Materie selb- ständiges, festgegebenes System in der Natur zu sein. Die von der Elektro- unt©iücbtgebict dynamik beeinflußte Auffassung vom Wesen der Materie glaubt weiter anneh- scbroitangen. men zu dürfen, daß die materiellen Körper in dem uns bekannten Zustand nur in Unterlichtgeschwindigkeiten auftreten können, das heißt in Schreitungen, welche innerhalb des Gebietes liegen, das durch die elektrodynamischen Schrei- tungen abgegrenzt wird. Es soll ein ins Unendliche gehender Aufwand von Ener- gie nötig sein, um die Materie aus den uns vertrauten Schreitungen bis in un- endliche Nähe der Lichtschreitungen zu bringen. Die Lichtschreitungen erhal-

K. d. G. m. ni^Bd X Pbytik 4

50 I* E.WIECHERT: Die Mechanik im Rahmen der allgemeinen Physik

ten so die Bedeutung von Grenzen; wir wollen das abgegrenzte Gebiet von Schreitungen im folgenden als „Unterlichtgebiet** bezeichnen. Als Inertial* Systeme im gewöhnlichen Sinne des Wortes können nur solche Systeme auf- treten, deren Schreitungen im Unterlichtgebiet liegen. Den Hinweis auf die so dargelegte Bedeutung der Schreitungen für die neueren theoretischen An- schauungen hat der Referent in seiner Arbeit von 191 1 gegeben. Hier wollen wir nun noch die Bemerkung hinzufügen, daß an jeder Stelle des Raumes etwas wirksam sein muß, was die Lichtschreitungen auszeichnet; dieses Auszeich- Tenninaifeid. nende soU Weiterhin das „Terminalfeld** genannt werden. Das Terminal- feld spielt offenbar eine ganz ähnliche Rolle wie das Inertialfeld (S. 43), und es liegt sehr nahe, einen engen Zusammenhang zwischen beiden Feldern zu ver- muten. Gegennis dar In der thcoretischcn Auffassung der bezeichneten Erscheinungen stehen

ÄtherhJpothMo sich nun die beiden Ansichten, welche der Ätherhypothese und dem Relativitäts- Bt^^MtaJc^iki- P''^^2*P entsprechen, schroff gegenüber. Der Unterschied der Ansichten kann da- tchen Reia. bei so gedeutet werden, daß die Anhänger der Ätherhypothese in ihrer gewöhn- lichen Form die Ursache des Terminalfeldes in dem Vorhandensein eines be- sonderen Mediums sehen, welches die Welt erfüllt, während die Anhänger der Einstein-Minkowskischen Relativitätstheorie sie in einer Verkettung von Raum und Zeit suchen. Um das klarzustellen, scheint es nützlich, hier zunächst die beiden Theorien in einigen charakteristischen Einzelheiten zu vergleichen und dann erst in den allgemeinen Überlegungen fortzufahren. So wird es mög- lich, die recht schwierige Aufgabe der Vorstellungskraft etwas zu erleichtern. Für den Vergleich sollen zur Sprache kommen die Signalübertragung, der Be- griff der Gleichzeitigkeit und die Geschwindigkeit des Ablaufs von Naturvor- gängen. Signal- Für die Besprechung der Signalübertragung verwerten wir ein besonderes

'**'"'' Gedankenexperiment. Es sei ein Spiegel auf dem Mond aufgestellt, welcher das Licht zurücksendet, das von der Erde aus mittels eines Scheinwerfers hinge- schickt wird. Ein von der Erde abgesandtes Signal wird dann nach 27, Se- kunden wieder zurückkehren. Die Äthertheorie sagt, daß die Geschwindigkeit der Fortpflanzung der Lichterregungen durch die Eigenschaften ihres Trägers, des Äthers, bestimmt werde, und daß sich deshalb bei der gegebenen Ent- fernung zwischen Erde und Mond für das Zeitintervall gerade die Größe von 27, Sekunden einstellt. Ganz anders lautet der Schluß der Einstein- Minkowskischen Relativitätstheorie: Die Größe des Zeitintervalls 27» Se- kunden — wird bestimmt außer durch den Abstand von Erde und Mond durch die angenommene Eigenart von Raum und Zeit. Infolge dieser Eigen- art kann für Übertragungen von Erregungen bei Naturvorgängen nur ein gewisser Bereich von Schreitungen in Betracht kommen. Die elektrodyna- mischen Erregungen nun, also auch die des Lichtes, gehen in den Grenzschrei- tungen jenes Bereiches vorwärts. Die 272 Sekunden bei unserem Gedanken- experiment haben hiernach eine Bedeutung, welche über den speziellen Fall der Lichtbewegung weit hinausgeht: sie ergeben den unteren Grenzwert für

Vergleich von Ätherhypothese und Relativitätsprinzip j i

den Hin- und Hergang eines Signals überhaupt; es ist wegen der Eigen- art von Raum und 2^it naturwidrig, daß irgendeine Signalübertragung, welcher Art sie auch sein mag, bei der gegebenen Entfernung von Erde und Mond ein noch kürzeres Zeitintervall umfassen könnte. Die Gegner des Re- lativitätsprinzips werden die Ansicht als höchst unbefriedigend bezeichnen, daß das Intervall außer durch den Abstand von Erde und Mond durch eine uns Menschen verborgene eigenartige Verbindung von Raum und Zeit gerade auf die Länge von 2Vs Sekunden gebracht werden soll.

Das Relativitätsprinzip sagt, daß die „Gleichzeitigkeit** nur ein relativer Gieich*©itigkeit. Begriff sei; von zwei Ereignissen an verschiedenen Orten der Welt soll je nach der Schreitung, in welcher sich der Beobachter befindet, bald das eine Ereignis bald das andere als das frühere erscheinen können. Hierzu ist nun aber Folgen- des wohl zu beachten, was bei den Darstellungen der Relativitätstheorie meist übersehen wird: Das Gesagte darf durchaus nicht etwa auf irgend zwei beliebige Ereignisse angewandt werden, sondern es gilt nur mit sehr großer Beschränkung. Nehmen wir wieder das Beispiel von Erde und Mond. Auch nach der Relativi- tätstheorie trifft das Lichtsignal „später** auf dem Monde ein, als es von der Erde abgesandt wird, und „früher**, als es wieder zur Erde zurückkommt: nur innerhalb der aVj Sekunden bleibt die „Gleichzeitigkeit** relativ. Im allgemei- nen tragen je 150 km der Entfernung zwischen zwei Orten je ^/looo Sekunde zu der Unbestimmtheit in der Gleichzeitigkeit bei und nicht mehrl Weshalb diese merkwürdige Beschränkung? Die Relativitätstheorie belehrt uns, die Be- schränkung werde durch die uns verborgene Verkettung von Raum und Zeit verursacht, die Äthertheorie dagegen behauptet, die Beschränkung sei eine Fol- ge der Verkettung der Materie mit dem Äther.

Auch in bezug auf die Abhängigkeit der Ablauf geschwindigkeit der Natur- Go«cbwindigkeit Vorgänge von der Schreitung sind die Auffassungen der Relativitätstheorie und Natorvorgange. der Äthertheorie sehr charakteristisch verschieden. E^ möge zunächst noch be- sonders darauf hingewiesen werden, daß die Änderung der Ablaufsgeschwindig- keit erst dann erheblich wird, wenn die relativen Geschwindigkeiten der Bewe- gungen der Lichtgeschwindigkeit einigermaßen nahe kommen. Denken wir uns einen Reisenden im Weltraum, der einen Kreis mit einer Geschwindigkeit be- schreibt, welche von der Erde aus beurteilt sich von der Lichtgeschwindigkeit nur noch um drei Prozent unterscheidet, so wird die Ablaufsgeschwindigkeit der Naturvorgänge im Gefährt des Reisenden auf V* herabgesetzt. Wenn also die Kreisbahn solche Dimensionen hat, daß das Gefährt in je lOO Erdjahren an der Erde vorüberkommt, so wird der Reisende jedesmal nur soweit gealtert sein, als hätte er 25 Jahre auf der Erde verlebt. Nach der Äthertheorie erkennt man hier sehr eindrucksvoll, wie die relative Bewegung gegen den Äther den Ablauf der Naturvorgänge träger macht. Die Relativitätstheorie behauptet, daß die verschiedenen Schreitungen, sofern sie für die Bewegung überhaupt mögUch sind, in jeder Hinsicht physikalisch völlig gleichwertig seien. Wie ist es mög- lich, diese Behauptung mit der eben beschriebenen Folgerung in Einklang zu bringen? Hören wir, wieder Professorder Physik Max v. Laue (geb. 1879), einer

4*

52 I* E.WmcHERT: Die Mechanik im Rahmen der allgemeinen Physik

der besonders eifrigen Verfechter der Relativitätstheorie, sich dieser Frage gegenüberstellt. Es genügt für unseren Zweck, wenn wir die Erde und das Ge- fährt im Weltenraum als ,, Punkte" ansehen und annehmen, daß diese Punkte bei dem jedesmaligen Aneinander-Vorüberfahren von Erde und Gefährt für ei- nen Augenblick zusammenfallen. Die beiden Punkte beschreiben dann ver- schiedene ,, Raumzeitlinien" (,, Weltlinien"), die beim jedesmaligen Zusammen- treffen einen „Raumzeitpunkt** („Weltpunkt**) gemeinsam haben. Die beiden Raumzeitlinien bilden dann inder vierfachen Raumzeitmannigfaltigkeit zwischen je zwei der gemeinsamen Raumzeitpunkte zwei verschiedene Verbindungswege. Die Verschiedenheit des Alterns der Bewohner der Erde und des Gefährtes in unserem Beispiele zeigt dann nachM. v. Laue nur an, daß die beiden Verbin- dungswege in der Raumzeitmannigfaltigkeit verschieden „lang** sind. Es soll dieses genau dem analogen Fall in der gewöhnlichen Geometrie entsprechen, wo ja zwischen zwei Raumpunkten ebenfalls verschieden lange Verbindungs- linien möglich sind. Phjrsiker vom Standpunkt des Referenten werden durch diesen Hinweis nicht günstiger gestimmt werden, denn er zeigt ihnen nichts weiter als eine mathematische Analogie, und es ist eine wohlbekannte Erfahrung, daß nicht nur ähnliche sondern sogar gleiche mathematische Sätze und Formeln in verschiedenen Teilen der Physik sehr verschiedeneBedeutung haben können. Abwiut Wenn wir nun daran gehen, unsere allgemeinen Überl^ungen wieder anf-

and relativ. 2unehmen, scheint es wichtig, zunächst den Begriffen absolut und relativ etwas Aufmerksamkeit zu schenken. Die Verwendung dieser Worte in der Wissen- schaft hat immer etwas Gefährliches, da man ihnen sehr verschiedenartige Bedeutung zugeschrieben hat. Sollen Mißverständnisse oder leere Wortstreitig- keiten vermieden werden, so ist stets Sorgfalt des Autors und guter Wille des Aufnehmenden vonnöten. Wir betrachten einige einfache Beispiele. Es hat einen brauchbaren Sinn, wenn ich von einem bestimmten Menschen, den ich ins Auge fasse, sage, seine Größe sei etwas Absolutes, und damit meine, daß jener Mensch für sich schon eine gewisse Größe besitzt. Wenn ich nun aber von jenem Menschen sage, er sei „groß**, oder er sei „klein", so vergleiche ich, und seine Größe** erscheint nun als etwas Relatives. So kann auch die jeweilige Schrei - tung eines Körpers als etwas Absolutes bezeichnet werden; handelt es sich aber um ihre Kennzeichnung, so ist es bequem, zu vergleichen, und anstatt der Schrei- Newton» ^^^S erscheint dann die „Geschwindigkeit" als etwas nur Relatives. New- absoiuter Raom. tousagtc: „Der absolute Raum bleibt vermöge seiner Natur und ohne Bezieh- ung auf einen äußeren Gegenstand stets gleich und unbeweglich.** Auf diesen absoluten Raum bezieht Newton nun „Ruhe** und „Bewegung** der Körper. So erscheinen diese als relativ gegen den absoluten Raum. Trotzdem ist es Sitte, sie bei der Newtonschen Vorstellungsweise als absolute Begriffe zu be- zeichnen; es wird dann daran erinnert, daß Ruhe und Bewegung für einen ein- zelnen materiellen Körper schon dann etwas Bestimmtes sein sollen, wenn auf andere materielle Körper keine Rücksicht genommen wird. Man unterschei- det dann zwischen absoluter Ruhe (relativ gegen den absoluten Raum) und relativer Ruhe (relativ gegen einen bestimmten anderen Körper).

Absolut und relativ

53

Bei der Newtonschen Vorstellung des absoluten Raumes und der abso-Konunteif&rdas luten 2^it ist genau genommen keine Schreitung einer anderen physikalisch TO^Sdu'^R^ gleichwertig, denn jede andere Schreitung stellt einen anderen Bewegungs- ^**y«f**^^'^^«f* zustand dar. Nun weisen aber die Newtonsche Mechanik und die klassische Mechanik keine Unterschiede irgendwelcher Art zwischen den verschiedenen Schreitungen nach, und es stellt sich daher die Ansicht ein, daß für das Welt- geschehen nichts geändert würde, wenn alle Körper gleichzeitig ein und dieselbe Zusatzgeschwindigkeit erhielten, so daß alle Relativgeschwindigkeiten unge- ändert blieben. Hegt man diese Meinung, und beachtet, daß die Relativbewe- gungen auch dann nicht geändert würden, wenn die ganze Körperwelt einheit- lich plötzlich eine Zusatzdrehbewegung um irgendeine Achse im Weltenraume erhielte, so fällt auf, daß trotzdem nach der Newton sehen Anschauung in diesem Falle eine wesentliche Änderung im Ablauf des Weltgeschehens erwartet werden müßte. Wir haben schon erfahren, wie E. Mach sich gegen diesen Schluß wen- det, indem er die Newtonsche Annahme des absoluten Raumes verwirft und nur relative Bewegungen der Körper der Welt unter sich als wesentlich gelten läßt. Den beiden Ansichten entsprechend, welche sich so einander gegenüber- Aiwoiattheonc stellen, wollen wir „Absoluttheorie** und „substantielle Relativitätstheorie** °RdItiTitit»* * unterscheiden. Eine Theorie soll als Absoluttheorie oder als substantielle Rela- *^«>rf«- tivitätstheorie gelten, je nachdem sie die Erklärung für das Bestehen des Iner- tialf eldes (und des Terminalfeldes) in der Eigenart von Raum und Zeit unabhängig von dem substantiellen Inhalt der Welt sucht, oder in Wechselbeziehungen zwischen Dingen in der Welt. Wer Inertialfeld (und Terminalfeld) durch die Annahme des Äthers erklärt, verwendet hiernach eine substantielle Relativitäts- theorie. — Der Zusatz „substantiell** schien bei der Festsetzung der Bezeich- nung für die jetzt gemeinte Relativitätstheorie geboten, einmal, weil ja eine Absoluttheorie, wie wir eben sahen, in gewissem Sinne auch eine Relativitäts- theorie darstellt, und dann, weil eine Unterscheidung von der durch Einstein angeregten Relativitätstheorie notwendig ist.

Richten wir nun die Aufmerksamkeit auf ein begrenztes System materi- «ch selbst eller Körper, welches, wie z. B. unser Sonnensystem, von den übrigen Körpern matenXr der Welt nicht merklich beeinflußt scheint. An dem Platz, den das System ein- System, nimmt, ist dann nach unseren Überlegungen das Inertialfeld durch die Welt im ganzen bestimmt, sei es durch Raum und 2^it, oder durch den substantiellen Inhalt der Welt, wobei das ins Auge gefaßte Körpersystem nur einen unmerklichen Anteil hat. Wenn alle materiellen Körper des Systems aber nicht die übrigen Körper der Welt -— gleichzeitig eine gleich große Zusatzgeschwindigkeit parallel einer bestimmten Richtung erhielten, so würden nach den Anschauungen der klassischen Mechanik weiterhin im Systeme alle Vorgänge genau so verlaufen wie vorher, vorausgesetzt, daß wir sie nun auf ein Koordinatensystem beziehen, welches mit dem früheren durch eine der Zusatzgeschwindigkeit entsprechende N e w t o n - Transformation {N), S. 45, verbunden ist. Die beiden Koordinaten- systeme erscheinen also trotz ihrer verschiedenen Schreitungen als physi- kalisch gleichwertig. Benutzen wir die Newtonsche Vorstellung des absoluten

j^ I. E.WiECHERT: Die Mechanik im Rahmen der allgemeinen Physik

Raumes, so darf die Gleichwertigkeit nicht mehr mit voller Sicherheit ange- nommen werden, denn die Schreitungen der beiden Koordinatensysteme stellen ja dann einen verschiedenen Bewegungszustand gegen den absoluten Raum dar und erscheinen so streng genommen physikalisch verschieden. Machen wir uns nun gar die Vorstellungen der substantiellen Relativität zu eigen, so ist ganz gewiß auf eine physikalische Ungleichwertigkeit zu schließen, denn die ver- schiedenen Schreitungen bedeuten gegenüber der Welt im ganzen zweifellos

Gleichwertigkeit etwas Verschiedenes. So erkennen wir, daß schon bei einer Absoluttheorie die verschiedenen Annahme der völligen Gleichwertigkeit der verschiedenen Inertialsysteme

in^Fr^i^ut* a^ ^^^^^ beliebig ins Auge gefaßten Platz in der Welt bedenklich ist, daß diese Annahme aber bei einer substantiellen Relativitätstheorie durchaus nur als ein vorläufiger, besonders einfacher Ansatz angesehen werden darf. Die all- gemeine Gültigkeit des Gesetzes der Beharrung der Bewegung in der gewöhn- lichen Form und des Kraftwirkungsgesetzes oder des Äquivalents dieses Ge- setzes bei energetischer Betrachtungsweise wird durch diese Überlegungen in Frage gestellt.

Die Berechtigung unserer Bedenken wird durch die Schlüsse bestätigt, zu welchen die Mechanik gelangt, wenn sie den Lehren der Elektrodynamik folgt. Die verschiedenen Bezugssysteme, welche durch die Newton -Transfor- mation verbunden sind, erscheinen dann physikalisch ungleich und die Aus- zeichnung der Lichtschreitungen muß anerkannt werden. Für den Platz in der Welt, an welchem sich das von uns betrachtete Körpersystem befindet, wird nun nicht allein das Inertialfeld, sondern auch das Terminalfeld durch die Welt im ganzen bestimmt, und beide Felder sind für die Vorgänge in dem Körper- system von entscheidender Wichtigkeit. In der Deutung der Ursachen schei- den sich nun wieder Absoluttheorie und substantielle Relativitätstheorie in weitem Maße.

Wir wollen uns zunächst der Absoluttheorie zuwenden. Man kann die

Sachlage so ansehen, daß durch die anfänglichen Arbeiten von A. Einstein ein

Weg gewiesen wurde, den Standpunkt der Absoluttheorie trotz der Erfahrungen

beizubehalten, welche die Elektrodynamik gebracht hat. Es erscheint dabei als

Ziel, die Absoluttheorie auf eine weit höhere Stufe zu stellen, als dies bei den

früheren Raumzeitanschauungen möglich schien. H. Minkowski brachte

Prinxip hier die Vollendung. Wir wollen zunächst beachten, in welcher Weise

***i^|^n7*' Einstein den Namen Relativität gebraucht. Er führt sein ,,Relativitäts-

Einstein«. prinzip** bci der ersten Veröffentlichung 1905 so ein: „Beispiele ähnlicher Art,*'

„führen zu der Vermutung, daß dem Begriff der absoluten Ruhe nicht

nur in der Mechanik, sondern auch in der Elektrodynamik keine Eigenschaften der Erscheinungen entsprechen, sondern daß vielmehr für alle Koordinaten- systeme, für welche die mechanischen Gleichungen gelten, auch die gleichen elektrodynamischen und optischen Gesetze gelten. . . .** 1907 stellt er das Re- lativitätsprinzip so dar: „Die Naturgesetze sind unabhängig vom Bewegungs- zustand des Bezugssystemes, wenigstens falls letzterer ein beschleunigungsfreier ist.** Was unter beschleunigungsfrei zu verstehen ist, wird nicht näher erklärt;

Inertialsysteme gleichwertig? Relativitätsprinzip ^5

wir werden so offenbar auf die Inertialsysteme verwiesen. Es ist bedeutsam, daß bei den Einst einschen Formulierungen des Relativitätsprinzips das System der klassischen Mechanik mit umfaßt wird und so der Unterschied der alten und neuen Anschauungen zunächst gar nicht hervortritt. Hier erkennen wir schon, daß enge verwandtschaftliche Beziehungen zwischen diesen Anschauungen be* stehen bleiben können. Der Sinn des Prinzips ist nach den zitierten Darstel- lungen der, daß das Raumzeitbezugssystem der Physik nichts fest Bestimmtes sein soll, sondern daß unendlich viele gleichwertige Bezugssysteme vorhanden sein sollen; dies eben ist zu verstehen, wenn gesagt wird, das Raumzeitbezugs- system sei nichts absolut Gegebenes, sondern etwas Relatives. Das Hauptge- wicht ist dabei auf den Umstand zu legen, daß die Gleichwertigkeit der ver- Die Gicich- schiedenen Bezugssysteme in jeder Hinsicht, für durchaus alles Naturgesche- ^tx%^^n^ hen gelten soll. Die Betonung dieser Eigenart hat das Ergebnis gehabt, daß das ^^^^^ Relativitätsprinzip von vornherein einen übersinnlichen, transzendenten Cha- Naturge«:hoh©n rakter erhielt und bei konsequenter Ausführung der Folgerungen zu einer Abso- luttheorie führte. Den Höhepunkt dieser Entwicklung erreichte die Theorie in H. Minkowski. Dieser Autor stellte 1908 das Relativitätsprinzip oder das „Relativitätspostulat**, wie er es nannte, so dar: „Man kann aus der Gesamtheit der Naturerscheinungen durch sukzessiv gesteigerte Approximation immer ge- nauer ein Bezugssystem x, y, z, t, Raum und Zeit, ableiten, mittels dessen die Erscheinungen sich dann durch bestimmte Gesetze darstellen. Dieses Bezugs- system ist dabei aber durch die Erscheinungen keineswegs eindeutig festgelegt. Man kann das Bezugssystem noch entsprechend den Transformationen der ge- nannten Gruppe Gc beliebig verändern, ohne daß der Ausdruck der Natur- gesetze sich dabei verändert.** Die hier erwähnte Gruppe Gc heißt wohl auch die „Lorentz- Gruppe**; sie umfaßt alle die Raumzeitkoordinatensysteme, welche durch die Lorentz -Transformation (L), S. 44, miteinander verbun- den sind. Minkowski betont nun ganz besonders, daß nicht nur die Zeitauf- Nach Minkowski fassung sondern auch die Raumauffassung (entsprechend der verschiedenen ^^ ^icht

eio*

Auffassung von Ruhe und Bewegung, dem verschiedenen Anschein der Körper- ^•"*** bestimmt, gestalten usw.) relativ erscheint: ,, Hiernach würden wir in der Welt nicht mehr den Raum, sondern unendlich viele Räume haben, analog wie es im dreidimen- sionalen Räume unendlich viele Ebenen gibt. Die Dreidimensionalgeometrie wird ein Kapitel der vierdimensionalen Physik.** Minkowski sagt weiter: ,, Lorentz nannte die Verbindung f von x und /Ortszeit des gleichförmig be- wegten Atoms und verwandte eine physikalische Konstruktion dieses Begriffes zum besseren Verständnis der Kontraktionshypothese. Jedoch scharf erkannt zu haben, daß die Zeit des einen Atoms ebensogut wie die des anderen ist, das heißt, daß t und f gleich zu behandeln sind, ist erst das Verdienst von A. Ein- stein. Damit war nun zunächst die 2^it als ein durch die Erscheinungen ein- deutig festgelegter Begriff abgesetzt. An dem Begriff des Raumes rüttelten weder Einstein noch Lorentz** .... „Über den Begriff des Raumes in ent- sprechender Weise hinweg zu schreiten, ist auch wohl nur als Verwegenheit mathe- matischer Kultur einzu taxieren.** Zu dieser ,, Verwegenheit** will uns nun Min-

56 I* E.WIECHBRT: Die Mechanik im Rahmen der allgemeinen Physik

kowski führen. Sein Gedankengang ist folgender: in der Natur gegeben ist die vierdimensionale Raumzeitwelt, die von dem Autor, wie wir schon erfuhren (S. 48), die „absolute Welt** genannt wird. Diese absolute Welt „projiziert sich** in der menschlichen Auffassung so, daß dabei die Vorstellungen von Raum und Zeit entstehen. Für die Projektion bleibt dabei noch eine gewisse Freiheit. Früher glaubte man gemäß den Lehren der klassischen Mechanik, daß die mög- lichen Projektionen durch die Newton -Transformation zusammengefaßt wür- den, so daß „Raum** und „Zeit** sich als getrennte Gegenstände der Vorstellung darstellten. Nach den Lehren der Elektrodynamik wäre aber anzunehmen, daß bei den verschiedenen Projektionen stets Änderungen in der Auffassung der Zeit und Änderungen in der Auffassung des Raumes miteinander verknüpft seien und zwar in solcher Weise, daß nicht die Newton-Transformation, sondern die Loren tz-Transformation die möglichen Projektionen zusammenfaßt. Hier sehen wir die neue Relativitätstheorie auf dem Gipfel der Abstraktion. Wir wer- den darauf hingewiesen, ihre Grundlagen im Transzendenten zu suchen, näm- lich in jenen raumzeitlichen Beziehungen, welchen alles Sein in der Welt unter- Die Eintteiii- worf cn ist. Die Theorie stellt sich so nach unserer Bezeichnungsweise als eine ^R^^tiT^ Absoluttheorie dar. Der Referent ist nicht im Zweifel darüber, daß gerade der theorieak Charaktcrzug des Absoluten wesentlich dazu beigetragen hat, der Theorie aufgefaßt. Frcunde zu erwerben. Wenn der Referent persönlichen Eindrücken trauen darf, so möchte er meinen, daß unter den Gelehrten vornehmlich diejenigen mit aus- geprägten mathematischen N eigungen dieser Eigenart der Einstein-Minkow- skischen Theorie besonders hold sind. Diejenigen dagegen, welche mehr ge- wohnt sind, das Augenmerk auf die Fülle der Einzelerscheinungen in der Welt zu richten, scheuen sich, hier schon die Grenzen des Transzendenten anzuerkennen, und sind darum mehr geneigt, nach einer Stütze in der Ätherhypothese zu suchen. Die rabttantaeUe Die Substantielle Relativitätstheorie muß zur Erklärung der Auszeich- thw.ri^*!?^«» iiung der Inertialsysteme und der durch die Loren tz-Transformation verbun- Ätherbypothese. deueu Raumzeitbezugssystcmc Verkettungen zwischen den Körpern annehmen. Unvermittelte Fernwirkungen sind nach den heutigen Anschauungen der Physik auszuschließen, also muß an Mittel der Übertragung, an substantielle Brücken, gedacht werden. Durch diese Brücken muß für jede Stelle des Raumes und zwar sowohl innerhalb wie außerhalb der sinnlich wahrnehmbaren Materie ein gewisser Zustand geschaffen werden, der an dieser Stelle das Inertialfeld und das Terminalfeld bestimmt. Dieser Zustand muß z. B. feststellen, in wel- chen Schreitungen das Licht gehen kann. So sind wir genötigt, einen Inhalt der Welt anzuerkennen, der überall vorhanden ist, auch dort, wo keine sinnlich wahrnehmbare Materie sich bemerkbar macht, und der innerhalb der sinnlich wahrnehmbaren Materie weder von der besonderen Art dieser Materie noch von ihren physikalischen Zuständen, noch von ihren Bewegungen merklich abhängt. Ist nun aber ein solcher Inhalt vorhanden, so wird es auch erlaubt sein, ihn zu bezeichnen, etwa mit dem Wort „Äther**. Dabei ist ganz gleichgültig, wie man sich diesen Äther denkt, ob als eine Anhäufung von Stoff mit ,, Zuständen** oder

Relativitätsprinzip und Ätherhypothese 57

als eine Anhäufung von Energie in besonderen „Formen**. Seit die Energetik versucht, die Materie als Energie und die Energie materiell aufzufassen, ist zwischen beiden Anschauungen kein grundsätzlicher Unterschied mehr. So ist denn der Referent der Ansicht, daß die substantielle Relativitätstheorie, wenn sie den Erscheinungen gerecht werden will, ganz sicher in irgendeiner Form zur Äthervorstellung führen muß. Es bleibt nur die Frage offen, wie dieser Äther zu denken ist, und es bleibt der müßige Streit über die Berechtigung der Verwen- dung des Wortes „Äther**. Denkbar ist auch ein Standpunkt, auf dem man das Inertialfeld durch die Newtonsche Annahme des absoluten Raumes und der absoluten Zeit, und das Terminalfeld durch die Ätherhypothese zu erklären versucht.

Wer zur Ätherhypothese sich entschließt und eine Absoluthypothese über Ätherhypothesc Zeit und Raum vermeiden will, könnte doch die Gesetze als gültig annehmen, "* g«set«e. die dem Relativitätsprinzip zunächst entsprechen. Aber freilich entstehen für die Vorstellung ernste Schwierigkeiten, weil dem Prinzip von seinen Anhängern ein radikaler Charakter beigelegt zu werden pflegt, indem die völlige Gleichwertig- keit der verschiedenen Raumzeitbezugssysteme in jeder physikalischen Hin- sicht verlangt wird. Der Einheitlichkeit in dem Verhalten der Naturer- scheinungen, welche das Prinzip dann bedingungslos ausspricht, müßte doch auch in der Natur etwas Einheitliches entsprechen. Nun haben wir es aber in der Natur nicht einzig und allein mit der engeren Elektrodynamik zu tun : So einfach liegt die Sache jedenfalls nicht. Da die Kräfte, welche die materiellen Körper zusammenhalten, sich bestimmt nicht rein elektrodynamisch er- klären lassen, scheint es sogar durchaus unerlaubt, die Möglichkeit außer acht zu lassen, daß die Energie der Bewegung vielleicht nicht rein elektro- dynamischer Natur ist, und daß also die „Masse** sich nicht vollständig elektrodynamisch erklärt. Femer ist die Gravitation von den elektrodynami- schen Fernkräften wesentlich verschieden, wenn auch vielleicht, sogar wahr- scheinlich, Zusammenhänge bestehen. So erscheint es vom Standpunkt der substantiellen Relativitätstheorie als eine recht künstliche, wenig vertrauens- würdige Hypothese, daß die Raumzeitkoordinatensysteme der Elektrodynamik und die sich anschließenden Gesetze nun für alle Naturerscheinungen in ganz gleicher Weise bindend sein sollten. Auch wenn man also die Ätherhypothese annimmt, sieht man sich durch das Relativitätsprinzip, wenigstens wenn die- sem die übliche radikale Bedeutung zugeschrieben wird, doch zu einer Ab- soluthypothese über Raum und Zeit gedrängt.

Es wurde schon erwähnt, daß die Einsteinsche Relativitätstheorie durch wettcr- ihren Begründer selbst neuerdings eine Weiterentwicklung erfahren hat. Es ist deriuülti^iL». interessant zu beachten, daß dabei offenbar unter dem Einfluß Machscher '^^^^^"""^ Spekulationen, die zitiert werden Elemente in die Theorie aufgenommen worden sind, welche eine weitgehende Annäherung an die substantielle Relativi- tätstheorie bedeuten. Einstein beschränkt sich auf eine mathematische Dar- stellung der Gesetze und vermeidet alle theoretischen Spekulationen, die dar- über hinausgehen. 191 2 formuliert er das Relativitätsprinzip mit Rücksicht auf

5 8 I- E.Wulchert: Die Mechanik im Rahmen der aligemeinen Physik

seine neuen Überlegungen so: „E^ sei Z ein von allen übrigen physikalischen Systemen (im Sinne der geläufigen Sprache der Physik) isoliertes System, und es sei Z auf ein solches Koordinatensystem K bezogen, daß die Gesetze, welchen die räumlich-zeitlichen Änderungen von Z gehorchen, möglichst einfache werden, dann gibt es unendlich viele Koordinatensysteme, in bezug auf welche jene Ge- setze die gleichen sind, nämlich alle diejenigen Koordinatensysteme, die sich relativ zu K in gleichförmiger Translationsbewegung befinden.** Wir erken- nen hier zunächst, daß Einstein seinem Prinzip auch jetzt wieder eine solche Form gibt, daß es ohne weiteres auch für die klassische Mechanik gilt, und daß so der Unterschied des neuen Standpunktes gegenüber dem der klassischen Mechanik nicht hervortritt. Für das Folgende ist es wichtig, im Sinne zu behalten, worin der Unterschied besteht: Bei dem Standpunkt der klassischen Mechanik sind alle mathematisch möglichen gleichförmigen Translationsbewegungen ohne Ausnahme erlaubt, nach dem neuen Standpunkt aber nicht alle mathe- matisch möglichen, sondern von diesen nur ein gewisser Bereich. Bei der vom Referenten benutzten Bezeichnungsweise kann man sagen, daß nach dem neuen Standpunkt nur Koordinatensysteme erlaubt sind, deren Schreitungen im Unterlichtgebiet liegen; in der Tat, wollte man auch Überlichtschreitungen zu- lassen, so würde ja z. B. die „Ruhe** eines materiellen Körpers in bezug auf das Koordinatensystem als ein physikalisch unmöglicher Zustand erscheinen. Worauf nun A. Einstein bei seiner neuen Formulierung des Prinzips besonders Gewicht legt, ist der Hinweis auf die „übrigen physikalischen Systeme**. Diesen wird durch Vermittelung der Gravitation ein Einfluß auf die Gestaltung der Raumzeitsysteme zugeschrieben, in bezug auf welche die Naturgesetze die glei- chen sein sollen. In der vom Referenten gewählten Bezeichnungsweise kann man sagen, daß die Lichtschreitungen nichts absolut Gegebenes sein sollen, Annäbarungan sondcm etwas, was von den übrigen Körpern der Welt abhängt: das Ter- *Re"ti^^,. **minalfeld soll durch die Gravitation mitbestimmt werden. Dies ist offenbar theorio. gan2 im Sinne der substantiellen Relativitätstheorie gedacht. Wenn man nun aber soweit geht und überdies noch beachtet, daß für jede Stelle in der Welt innerhalb der Gesamtheit der mathematisch möglichen Schreitungen so außerordentlich weitgehende Unterschiede bestehen, daß ein Teil der Schrei- tungen für die Bewegung der materiellen Körper in der uns bekannten Form in Betracht kommen kann, der andere Teil aber gar nicht, so ist es nach dem Empfinden des Referenten sehr schwer, dem Schluß auszuweichen, daß eben unter dem Einfluß der übrigen Welt alle Schreitungen untereinander physika- lisch ungleich sind und also das gleiche auch für die verschiedenen Raumzeit- bezugssysteme gilt, welche man den verschiedenen Schreitungen zuordnen kann. Dabei ist es ganz gleichgültig, ob es dem Menschen gelungen ist oder gelingen wird, Mittel der Unterscheidung zu finden oder nicht. Ver- steht man sich zu solchen Schlüssen, so wird es sofort zweifelhaft, ob über- haupt erwartet werden kann, daß Koordinatensysteme aufgefunden werden kön- nen, die verschiedenen Schreitungen angehören, und denen gegenüber trotzdem die Naturgesetze in ihrer Gesamtheit die gleichen sind. - Doch wie dem nun

Neuere Relativitätstheorie. Gravitation unerklärt

59

auch sein mag, hier sind wir eben in einem Gebiete, wo die Ansichten der ver- schiedenen Autoren heute auseinander gehen. Aus der Annäherung aber, welche AusbUck. die Einsteinsche Theorie jetzt an jenen Gedankenkreis zeigt, der zur Aufstei- lung der Atherhypothese führt, möchte der Referent gern die Hoffnung schöp- fen, daß bei recht weiter Auffassung auch der Atherhypothese die beiden von so verschiedenen Ausgangspunkten begonnenen und ganz entgegengesetzt schei- nenden Wege doch schließlich in erfreuliche Nähe führen werden.

Die Gravitation. Wir. sahen, wie die Gravitation einst für die Entwick- Gravitation lung der Mechanik und damit der Physik überhaupt sehr große Bedeutung ge- wann. Im Gegensatz dazu ist es sehr merkwürdig zu beobachten, daß alle Ver- suche seit jener Zeit, über die Newtonschen Gesetze hinaus in der Erkenntnis der Erscheinungen der Gravitation irgendwelche Fortschritte zu erzielen, durch- aus erfolglos gewesen sind. Nichts ist seither erreicht worden als Spekulationen, die bei allem Interesse, welches sie erwecken können, doch rein hypothetisch geblieben sind.

Weder astronomische noch irdische Beobachtungen haben irgendwelche Abweichungen sichere Andeutungen gegeben, daß merkliche Abweichungen von den Newton- ^chen Ge^txen sehen Gravitationsgesetzen bestehen. Besonders wichtig für uns ist die Frage "®^* gefondon. nach der Fortpflanzungsgeschwindigkeit. Aus astronomischen Beobachtungen ist von verschiedenen Autoren, zuerst von Laplace, gefolgert worden, daß die Geschwindigkeit, wenn nicht unendlich groß, so doch jedenfalls viel größer als die des Lichtes sein müsse. Bei diesen Untersuchungen wurde freilich auf die Änderungen der Trägheit mit der Geschwindigkeit, wie sie in der durch die Elektrodynamik beeinflußten Mechanik möglich scheinen, nicht Rücksicht genommen, sodaß diese Feststellungen heute nicht als völlig sicher gelten können.

Vereinzelte Vertreter hat die alte Theorie der unvermittelten Fernwirkung Hypotheec der immer wieder gefunden, so in dem Philosophen Immanuel Kant (1724— 1804) p'era'^kung" und in dem Professor der Astrophysik Friedrich Zöllner (1834— 1882). Der Bearbeiter des Artikels ,, Allgemeine Gravitation** in dem von Winkel - mann herausgegebenen Handbuch der Physik, der Professor der Physik Felix Auerbach (geb. 1856), hebt besonders hervor, daß die Naturforschung sich recht wohl auch mit der einfachen Annahme der Newtonschen Gesetze zufrie- den geben könnte, da die Erklärung der ,, letzten Ursachen** ja doch außerhalb ihres Gebietes liege.

Sehr oft und in der mannigfachsten Weise hat man versucht, die Gravi- versuche einer tation mechanisch zu erklären, aber wohl keine von all den Theorien vermag "E^kiär^g*" ihre Vermutungen durch irgendwelche Begründungen zu stützen. Wir erfuhren, wie Huygensim Anschluß an Descartessche Vorstellungen versuchte, die Gravitation durch Ätherströmungen zu erklären. Vielfach wurden Ätherstoß- theorien aufgestellt. Dabei werden schwereerzeugende Atome angenommen, welche mit großen Geschwindigkeiten im Welträume dahinfliegen sollen. Die Gravitation soll entstehen, indem die materiellen Körper sich gegenseitig vor den Stößen schirmen. Die erste dieser Theorien rührt von dem Privatlehrer der

6o I* £.WiECH£RT: Die Mechanik im Rahmen der allgemeinen Physik

Mathematik Georg Louis Lesage (1724-— 1803) her und erregte viel Auf- sehen. Unter denen, die den gleichen Gedanken später verfolgten, sind beson- ders der berühmte Physiker W. Thomson und der Gymnasialoberlehrer Cas- par Isenkrahe (geb. 1844) zu nennen. Vielfach wurden Schwingungen als Ursache der Gravitation angenommen. Sehr phantasievoll, aber sehr sorglos in den Ausführungen ist die Theorie des Baron Nicolai Dellingshausen (1827 bis 1896). Sein Grundsatz ist: „Die Naturerscheinungen sind Bewegungserschei- nungen. Das ist die Einheit der Naturerkenntnis/' Er nimmt eine kontinuier- liehe Raumerfüllung der Welt an. Der Äther, wo er uns leer erscheint, soll in stehenden Schwingungen begriffen sein. Die Weltkörper sollen fortschreitende Wellenzüge verursachen und diese dann die Gravitation. Unter den Schwingungstheorien ist die Pulsationstheorie ausgezeichnet, da ihre Grund- lagen mathematisch sorgfältig durchgearbeitet worden sind, und da die Wir- kungen, welche sie annimmt, an hydrodynamischen Modellen in eindrucks- vollen Experimenten gezeigt werden können. Die Entwicklung der mathe- matischen Theorie und die Ausgestaltung der Experimente wurde von dem Professor der Mathematik Carl Anton Bjerknes (1825— 1903) gegeben. Man denke sich in einer nicht merklich kompressiblen Flüssigkeit zwei Kugeln, die in gleichem Rhythmus abwechselnd kleiner und größer werden; sie ziehen sich dann gemäß dem Newtonschen Gesetz an, oder stoßen sich ab, je nachdem sie in gleicher oder entgegengesetzter Phase schwingen. C. A. Bjerknes hatte bei seinen Untersuchungen insbesondere die Erklärung der elektrischen Erschei- nungen im Auge, der Professor der Physik Arthur Korn (geb. 1870) schloß daran eine Theorie der Gravitation. Es wird angenommen, daß ein Äther die Welt erfüllt, der sehr wenig kompressibel ist und durch äußere Ursachen in weiten Bereichen des Weltraumes periodische Druckschwankungen erleidet. Mit diesen Druckschwankungen sollen Größeschwankungen der materiellen Atome verbunden sein, welche die Gravitation veranlassen.

Als die Elektrodynamik zu Relativitätsbetrachtungen Anlaß gab, wurde auch erwogen, ob die Gravitation sich einordnen ließe. H. Poincar6 stellte 1905 die Hypothese auf, daß Masse und Gravitation durch die gleichen Gesetze verbunden seien, wie eine der beiden Elektrizitätsarten mit den elektrodyna- mischen Fernkräften. Ein Unterschied soll allein darin bestehen, daß die Rich- tung der Kräfte umgekehrt ist und darum Anziehung statt Abstoßung erfolgt. Diese Lösung ist zwar sehr einfach, erscheint aber doch etwas gewaltsam. An die Einst ein sehe Relativitätstheorie wurden dann vielfach, insbesondere von Einstein selbst und von den Professoren der Physik Max Abraham (geb. 1875), Gustav Mie(geb. 1868) und von Gunnar Nordström weitere theoretische Untersuchungen angeschlossen. Einstein, Mie und Nordström behalten als Grundlage der Theorie das Relativitätsprinzip bei, Abraham aber wird zu einem lebhaften Gegner der Relativitätstheorie. Einstein wählt als Leitfaden für seine Untersuchung eine Annahme, die in ihrem mathematischen Charakter dem Relativitätsprinzip offenbar nahe verwandt ist. Die neue Hypothese, welche der Autor selbst „Äquivalenzhypothese"

Gravitationstheorien. Erfolge der klassischen Mechanik 6 1

nannte, sagt aus, ,,daß ein (außerordentlich wenig ausgedehntes homo- genes) Schwerefeld sich durch einen Beschleunigungszustand des Bezugssyste- mes physikalisch vollkommen ersetzen lasse*'. Hieran wird noch folgende Be- merkung geknüpft: „Anschaulich läßt sich diese Hypothese so ausdrücken: Ein in einem Kasten eingeschlossener Beobachter kann auf keine Weise unterschei- den, ob der Kasten sich ruhend in einem statischen Gravitationsfelde befindet, oder ob sich der Kasten in einem von Gravitationsfeldern freien Räume in be- schleunigter Bewegung befindet, die durch an dem Kasten angreifende Kräfte aufrechterhalten wird.** Zu den Schlußfolgerungen der Theorie gehört unter anderem, daß ein Lichtstrahl im Gravitationsfelde in ähnlicher Weise abgelenkt werden müßte wie nach der klassischen Mechanik ein Strom materieller Körper. Bei der Größe der von der Theorie vorausgesetzten Wirkungen scheint nicht ausgeschlossen, daß einmal eine Prüfung durch die Beobachtung möglich werden könnte.

Schlußbemerkimgen.

Wir sind am Ziel unserer Wanderung und wollen nun zurückblicken Kianudie auf das, was wir gesehen haben. In dem schönen Aufstieg der natur- •^ * wissenschaftlichen Erkenntnis im 17. und 18. Jahrhundert wurden die Grundlagen für eine Wissenschaft der Mechanik geschaffen, welche man die klassische Mechanik zu nennen pflegt. Höchst einfach sind diese Grundlagen, wenige Sätze genügen, um sie darzulegen, von gewaltiger Ausdehnung aber ist das Gebiet der Anwendungen. Die klassische Mechanik beherrscht gerade so die Bewegung der Gestirne wie die Flugbahn eines Geschosses. Ihre Gesetze beschreiben die Schwankungen der Erdachse und auch die Bewegungen eines Kinderkreisels. Sie ist dem Physiker zur Hand, wenn er die Wellen des Meeres, die Erschütterung der Erde bei Erdbeben, die Schallschwingungen untersucht. Der Techniker fragt sie um Rat, wenn er die Bewegung seiner Maschinen, die Festigkeit seiner Bauwerke beurteilen will, wenn er günstige Formen für seine Schiffe aufsucht, wenn er die Grundsätze für die Konstruktion seiner Flug- zeuge kennen lernen will.

Aber so glänzend diese Erfolge sind, der Trieb des Menschen nach Erkennt- Mechanik und nis hat sich damit nicht zufriedengegeben. Er suchte nach Verbindungen mit * '"**^ anderen Erscheinungsgebieten und fragte vor allem danach, was die Mechanik für die Weltauffassung lehren könnte. Da führte die Mechanik den Aufwärts- strebenden schließlich zu jenen Höhen der Wissenschaft, wo es sich darum han- delt, die Blicke in die weitesten Fernen zu senden, welche dem Menschengeist noch zugänglich sind.

Bei der Naturforschung werden die Grenzen des Bekannten durch Rätsel R*t»«i angezeigt. Die Gewohnheit übersieht diese Rätsel freilich oft, denn ihr scheint ^"^ ^^ das, was ist, als selbstverständlich. Da hat denn die Wissenschaft die Auf- gabe, den Blick zu schärfen. Unter den Rätseln können wir zwei Arten unter- scheiden : solche, die der Mensch aufzulösen vermag, und solche, deren Lösung transzendent ist, d. h. zu deren Lösung die menschlichen Geisteskräfte nicht

62 I* E.WiECHERT: Die Mechanik im Rahmen der allgemeinen Physik

ausreichen. Die „Auflösung** eines Rätsels der menschlichen Wissenschaft be- deutet seine Zurückführung auf andere Rätsel der Erkenntnis, so daß dadurch die Grenzen des Unbekannten weiter zurückgedrängt werden. Newton« Für die Mechanik Newtons lagen die bedeutsamsten Rätsel in der Auf-

fassung von Raum und 2^it und, im engen Zusammenhang damit, in der Auf- fassung des Gesetzes der Beharrung der Bewegung, dann in den Vorstellungen von Masse und Kraft, insbesondere in dem Begriff der Fernkraft. Die New- tonsche Schule war geneigt, hier überall die Grenzen des Transzendenten zu sehen, und zwar im Gegensatz zu der Descartesschen Schule selbst bei der Das Rätsel Auf f assung der Fernkräfte. Wir sahen, wie der Fortschritt der Wissenschaft der Kraft, jg^j^jj^ führte, die transzendente Erklärung der Fernkräfte wieder zu verwerfen und durch die Hypothese einer substantiellen Übermittlung zu ersetzen. Gra- vitation und elektrodynamische Fernwirkungen durchdringen nicht nur die Materie, sondern auch ohne Störung den Raum zwischen den Weltkörpern und den sogenannten „leeren" Raum der menschlichen Experimentierkunst. So nötigt die Hypothese der Vermittlung der Fernkräfte dazu, auch in dem von sinn- lich wahrnehmbarer Materie freien Raum einen substantiellen Inhalt anzu- nehmen. Die kinetische Mechanik setzt dabei voraus, daß die Vermitt- lung der Fernkräfte durch verborgene Bewegungen geschieht. Diese Mechanik versucht sogar das Rätsel der Kraft überhaupt zu beseitigen, indem sie alle Kräfte durch verborgene Bewegungen erklären will. Die neuen Rätsel für die menschliche Erkenntnis, welche sich bei diesem Standpunkt einstellen, liegen in den Fragen nach der Möglichkeit der Bewegungsübertragung und der Art der verborgenen Bewegungen. Wir sahen, wie die Energetik die Vorstel- lungen der Kraft und Masse der Vorstellung der Energie unterzuordnen suchte. Kraft und Masse werden dabei zu begleitenden Faktoren bei räumlichen Be- wegungen und bei Umwandlungen der Energie. Die Rätsel der Mechanik, welche sich an die Begriffe von Kraft und Masse knüpfen, finden wir nun in den Fragen wieder, was denn die verschiedenen Formen der Energie bedeuten und wie ihre räumlichen Bewegungen und ihre Umwandlungen erfolgen. Raum und Zeit Die Diskussioncn über das Gesetz der Beharrung der Bewegung zeigten uns seine enge Verbindung mit den Vorstellungen von dem Wesen von Raum und Zeit. Wir fühlen uns hier auch heute wie zu Newtons Zeiten an den Gren- zen des Transzendenten ; zweifelhaft bleibt nur, wo die Grenzen zu ziehen sind. Wir wollen die Worte ,,Raum** und ,,Zeit** jetzt im allgemeinen Sinn, nicht etwa im Sinne von Raumteil und Zeitteil verstehen. Dann scheint gewiß, daß nicht jeder Körper unabhängig von den übrigen einem Raum für sich und einer 2^it für sich überantwortet ist. Wir sehen vielmehr klar, daß sowohl Raum als auch Zeit einheitlich die ganze Körperwelt umfassen. Wir erkannten mit H. Minkowski, daß Raum und Zeit nicht unabhängig voneinander zu denken sind, sondern daß sie unlöslich zu einer höheren Einheit verbunden scheinen. In allem diesem müssen wir transzendente Rätsel sehen, welche jenem des Be- stehens der Welt gleichgeordnet sind.

aw^

ErkenntnisrätseL Welt des sinnlich nicht Wahrnehmbaren 63

Bei der Newtonschen Auffassung des Beharrungsgesetzes scheint es mög- Beharmngs- lich, einen einzigen Körper aus dem Verband der übrigen Körperwelt heraus- j„ IHT^g. gelöst zu denken. Der Körper bleibt dann noch Raum und 2^it in solcher Weise überantwortet, daß von Ruhe und Bewegung gesprochen werden kann und das Beharrungsgesetz seinen Sinn behält. Das Band, welches in dem Be- harrungsgesetz offenkundig alle Körper zusammenfaßt, erhält so transzenden- ten Charakter: es wird durch Raum und Zeit selbst geboten. Die „Relativitäts- theorie" in ihrer abstraktesten Form baut diese Vorstellungen noch weiter aus, indem sie eigenartige transzendente Beziehungen zwischen Raum und Zeit als maßgebend für die Vorgänge in der Sinnenwelt annimmt. Wir sahen, wie Autoren der neueren Zeit sich mit großer Entschiedenheit gegen die Newton- schen Vorstellungen wandten. Die Verbindung zwischen den Körpern, welche durch das Beharrungsgesetz angezeigt wird, soll danach nicht transzendenter, sondern substantieller Natur sein. Wollen wir uns diesem Gedanken bis zu irgendeinem Grade anschließen, so müssen überall, im Inneren der sinnlich wahrnehmbaren Materie und auch im leeren Raum neben den Bindungen der Gravitation und der elektrodynamischen Fernwirkungen auch noch die Bin- dungen des Beharrungsgesetzes als tätig angenommen werden.

Wir erkennen, daß das Bestreben der neueren Wissenschaft, bei der Auf- wcitdetrinnKch f assung der Fernkräfte und des Beharrungsgesetzes die Anerkennung des un- " wah^^ mittelbaren Eingriffes des Transzendenten zu vermeiden, dahin führt, außer nc*«abareii. der Welt der materiellen Körper, welche uns unsere Sinne direkt zeigen, mit den geistigen Augen noch eine andere Welt zu sehen. Und keineswegs etwa als nebensächlich erscheint diese sich unseren Sinnen nicht direkt darbietende Welt, sie stellt sich vielmehr dar als machtvolle Beherrscherin der Welt der sinnlich wahrnehmbaren Körper. Ihre Vermittlung hat zur Folge, daß ent- gegen dem ersten Eindruck jeder materielle Körper in der Welt in mannig- facher Weise mit jedem anderen verkettet ist. Wir wollen uns hier auch daran erinnern, daß mit anscheinend guten Gründen der Versuch gemacht wird, die Trägheit der materiellen Körper^ also ihre Masse im Sinne der Mechanik, durch das Eingreifen jener der direkten sinnlichen Wahrnehmung verborgenen Welt zu erklären.

Die neuere Wissenschaft hat gezeigt, daß die sinnlich wahrnehmbare Ma- terie aus bestimmten kleinen Körperchen, den Atomen und Elektronen, zu- sammengesetzt ist. Man könnte vielleicht vermuten, daß diese Körperchen in der den Hintergrund bildenden Welt, welche sich unseren Sinnen nicht direkt darbietet, irgendwie ausgezeichnete Stellen bedeuten. Eine solche Hypothese würde nicht etwa den Unterschied jener beiden Welten für die Vorstellung auf- heben, sondern würde nur auf den innigen Zusammenhang zwischen ihnen hin- weisen, den uns die Naturerscheinungen dartun.

Unsere Überlegungen machen uns darauf aufmerksam, daß die groben p>« sinne Sinne dem Menschen nur recht wenig von der Natur zeigen. Ich blicke auf und von der Natur. sehe vor mir den Bereich meines Arbeitszimmers mit seiner mannigfachen Ein- richtung. Ich merke dabei aber nichts davon, daß in jedem für meine Vor-

64 '• CWisCHSRT: Die Mechanik im Rahmen der allgemeinen Physik

Stellung winzig kleinen Teil des frei scheinenden Raumes im Zimmer unfaß- bar viele Atome in lebhafter Bewegung sind, daß dort beständig vielfache che- mische und physikalische Prozesse vor sich gehen, daß oftmals Atome zer- springen und dabei mit gewaltiger Geschwindigkeit Bruchstücke in die Ferne senden, welche Zerstörung in den Atomen und Molekülen in der Umgebung anrichten. Ich merke auch nichts davon, daß der scheinbar freie Raum des Zimmers durchflutet wird von den mannigfachen elektrodynamischen Wellen, welche alle Teile des Zimmers aussenden und empfangen, nichts davon, daß die Gravitation von allen Teilen der Erde, vom Mond, von der Sonne und von allen übrigen Weltkörpern diesen Raum durchzieht, nichts auch davon, daß Verbindungen hier wirksam sind, welche dem Gesetz der Beharrung der Be- wegung entsprechen! Greuea des Werden die Menschen jemals mehr als unsichere Vermutungen über die

Struktur der den Sinnen zunächst verborgenen Welt gewinnen können ? Schon die Atome, welche die sinnlich wahrnehmbare Materie zusammensetzen, haben Dimensionen, die noch unter einem Milliontel Millimeter liegen; die Dimen- sionen des Bereichs, in welchem bei einem Elektron der Hauptteil der elektri- schen Ladung liegt, müßte, wenn die Rechnungen der Elektrodynamik hier noch als vertrauenswürdig angesehen werden können, noch rund hunderttau- sendmal kleiner sein. Die Struktur aber jener den Sinnen nicht direkt zugäng- lichen Welt müssen wir von einer Feinheit voraussetzen, welche der Kleinheit der Elektronen entspricht oder noch darüber hinausgeht. So führt uns denn die Wissenschaft nach dem Kleinen hin in Fernen, die so außerordentlich weit jenseits des Bereichs der gewöhnlichen Wirksamkeit der Sinne liegen, daß die ernstesten Zweifel darüber entstehen, ob es jemals möglich werden wird, dort einigermaßen sichere Wege der Forschung zu finden. Es ist zu fürch- ten, daß wir an den Grenzen des Naturerkennens angekommen sind, welche der Mensch niemals wird überschreiten können. Bedeutung Bei solchen Erwägungen ist es um so bemerkenswerter, daß es der Wissen-

deToyiuLik. Schaft gelungen ist, Gesetze zu finden, welche die Welt in jenen weiten Fernen von dem alltäglichen Schauplatz der Sinne mit sicherlich sehr weitgehender Annäherung beherrschen. Obenan stehen dabei die Gesetze der Dynamik. Wir sahen, wie sie gewonnen wurden durch Untersuchung der Mechanik mate- rieller Gebilde. Die weitergehende Abstraktion verflüchtigte die Eigenart dieser Gebilde, und es wurden so die Anschauungen der Dynamik anwendbar auch auf jene Welt, welche unseren Sinnen nicht direkt zugänglich ist. Die weitere Entwicklung führte dann zu dem Schluß, daß die Begründung der Dynamik eben in jener sinnlich nicht direkt wahrnehmbaren Welt zu suchen ist, und daß dort die Gesetze einen weit vertieften Sinn für die Physik gewinnen. Wenn so auch heute die Mechanik der sinnlich wahrnehmbaren Materie nicht bean- spruchen kann, die Grundlage für die Physik abzugeben, so bleibt ihr doch das Verdienst, an der Klarlegung der Grundlagen hervorragenden Anteil genommen zu haben. NatarfonchuBg. Uuscrc Wanderung durch das Gebiet der Mechanik hat uns bis an die

Grenzen der Naturerkenntnis. Lagrange 5e

Grenzen des menschlichen Naturerkennens geführt. Sollen wir mutlos werden, weil wir erfahren, daß wir nicht ,, alles'* wissen und auch niemals „alles" wissen werden? Der rechte Naturforscher, der die Welt kennen lernen will, soweit ihm dies möglich ist, wird solchen Stimmungen gewiß nicht Raum geben; sie werden ihm die Wonnen der Forschung nicht mindern. Die Erkenntnis aber der menschlichen Unzulänglichkeit wird ihn schützen vor jener naiven Über- hebung, welche so oft schon unternommen hat, in kühnen Gedankengebilden das Weltganze aufzubauen. Sie wird ihn bewahren vor jenem gefährlichen Glauben, es sei in der Naturforschung jemals ein Ziel zu erreichen, hinter welchem die Natur selbst nichts mehr zu bieten vermag. Die Natur ist un- endlich überall, niemals wird der Mensch in ihr ein „Ende"' finden: nicht im Raum, nicht in der Zeit, nicht in der Auffassung des Inhalts der Welt, nicht in der Auffassung der Gesetze, welche die Welt beherrschen.

ANHANG.

MATHEMATISCHE FORMULIERUNGEN DES DYNAMISCHEN

GRUNDGESETZES.

1788 veröffentlichte J. L. Lagrange sein großes Werk „M^canique analy- M6cauiiqae tique", welches die klassische Mechanik in machtvoller Entfaltung zeigte und^^S^ge. für ihre weitere Entwicklung entscheidend wurde. In der Einleitung schreibt Lagrange: „Es sind schon mehrere Darstellungen der Mechanik vorhanden, aber der Plan der hier vorliegenden ist ganz neu. Ich habe mir vorgenommen, die Theorie dieser Wissenschaft und die Kunst, die zugehörigen Probleme zu lösen, auf allgemeine Formeln zurückzuführen, deren einfache Entwicklung alle zur Lösung jedes Problems nötigen Gleichungen gibt." Um sein Ziel zu er- reichen, geht Lagrange von dem Prinzip der virtuellen Verrückungen und dem Prinzip von d'Alembert aus, und kleidet ihre Aussagen in mathemati- sche Formeln ein. Er weist dabei mehrere Arten des Vorgehens nach. Gerade diese allgemeinen Formulierungen bilden eines seiner Hauptverdienste um die Mechanik. Die spätere Zeit hat noch weitere Formulierungen zugefügt, und Formaiierungon mehrere der so gewonnenen mathematischen Sätze können so weit gefaßt wer- ^^^^^ den, daß sie dem auf S. 27 aufgestellten „dynamischen Grundgesetz der klassi- schen Mechanik" vollständig äquivalent sind, sich also einfach als mathemati- sche Einkleidungen dieses Grundgesetzes darbieten. Sie bringen bei dieser Auf- fassung sachlich nichts Neues, sind aber für die Anwendungen außerordent- lich wertvoll, weil sie die Grundlagen der Rechnung in gebrauchsfertiger Form darstellen. Welche von den mathematischen Einkleidungen in einem gegebenen Falle zu bevorzugen ist, hängt von der Art des Problems und auch von der Arbeitsweise dessen ab, der sie handhaben will. —- Man hat aber gegenüber Formaiieniageii mehreren der Formulierungen auch einen wesentlich anderen Standpunkt ein- '^^"^"er genommen, indem man an die neuen Formulierungen physikalische Grundsätze «%«»meinea anknüpfte, welche neue Fundamente für die Mechanik abgeben sollten. Die

K.d.G.nLin,BdiPh7«ik e

66 I* E.WIBCHERT: Mathematische Formulierangen des dynamischen Grundgesetzes

Entwicklung in dieser Richtung ist nicht nur deswegen von Wichtigkeit ge- worden, weil sie zu philosophischen Untersuchungen über die Grundlegung der Mechanik Anlaß gab, sondern auch, und zwar vor allen Dingen, deswegen, weil es sich zeigte, daß einzelne dieser Formulierungen so aufgefaßt werden können, daß sie eine Bedeutung gewinnen, welche sie über das Gebiet der Mechanik materieller Körper hinaushebt. Diese im vorstehenden Artikel geschilderte Sachlage scheint es zu rechtfertigen, den mathematischen Formulierungen des dynamischen Grundgesetzes hier in einem Anhang zu der Darstellung der Mechanik im Rahmen der allgemeinen Physik besondere Aufmerksamkeit zu Mathematiich« schcnken. Die Form eines Anhanges wurde gewählt, weil für manchen Leser ^^'J^^'^^^ infolge des notwendigerweise stark mathematischen Charakters der Unter- suchungen ernste Schwierigkeiten des Verständnisses entstehen werden. Der Referent möchte an den Leser die Bitte richten, sich nicht völlig abschrecken zu lassen, sondern zu versuchen, so weit als möglich das Wesentliche aufzunehmen. Differential. Bei den mathematischen Formulierungen werden die Vorstellungen und

"wciaanc^ Symbolc der Differential- und Integralrechnung verwertet. Diese neuen Ge- biete der Mathematik entstanden in den letzten Dezennien des 17. Jahrhunderts. Besonders Newton und Leibniz hatten Anteil an Herausarbeitung des Wesentlichen, und beide wurden als Begründer der neuen Wissenschaft ge- priesen; es entbrannte zwischen ihnen und zwischen ihren Parteigängern ein höchst unerquicklicher Prioritätsstreit.

Newton selbst hat in seinen „Prinzipien*' die Analysis des Unendlich- kleinen noch nicht in ihrer eigentlichen Form, sondern nur in einzelnen Vor- stellungen verwertet, dann aber gewann diese Analysis schnell die Herrschaft über die Mechanik, der sie ihrerseits vielfache Anregung verdankt. An Amdytitche Stelle der Newton sehen geometrischen Konstruktionen traten nun Rech- Mechaotk. nungsmcthoden, und es entstand auf diese Weise die „analytische Me- chanik**. Große Verdienste um den Ausbau der Mechanik in dieser Form er- warb sich Leonhard Euler (1707— -1783), ein sehr vielseitiger Gelehrter, der verschiedene Professuren bekleidete und dessen Ruhmestitel vornehmlich RechtwinkUge auf den Gebieten der Physik und der Mathematik liegen. Eine bedeutende «>' «»• Vereinfachung erfuhr die analytische Mechanik durch die Einführung eines fest gewählten rechtwinkligen Koordinatensystems. Hier ging der Professor der Mathematik Colin Maclaurin (1698— 1746) voran. Die Kräfte, die Ge- schwindigkeiten, die Beschleunigungen, die Arbeitsleistungen, kurz alle vorkom- menden Größen, werden dabei in die drei Komponenten parallel den Koordi- natenachsen zerlegt. Sind z. B. X, V, Z die Komponenten einer Kraft F und 6x^ dy, dz die Komponenten der Verschiebung 6s ihres Angriffspunktes, so wird die Arbeit ÖA der Kraft bei der Verschiebung dargestellt durch: (i) ÖA = Fös cos [F,ds) = Xdx + Yöy + Zöz.

Matheqiatiiche Wir Wollen nun das dynamische Grundgesetz zunächst noch ohne Be-

i^^^^lJ^'^n nutzung der rechtwinkligen Koordinaten in ein übersichtliches mathemati- Grandgesetxes. schcs Gewaud kleiden. Dabei liegt die eigentliche Schwierigkeit in der scharfen Erfassung der Bindungen der Beweglichkeit des mechanischen Systemes.

Analytische Mechanik. Bedingungsgleichungen 67

Unter ,,Lage des Systemes** soll verstanden werden der Inbegriff der Lage jL^e aller zum System gehörigen Punkte, sodaß schon die Änderungen der Lage **' Syrtomc" eines einzigen Systempunktes eine Änderung der Lage des Systemes bedeutet. Die Bindungen der Beweglichkeit stellen sich für die klassische Mechanik dar als ein System von Gleichungen, welche „Bedingungsgleichungen'' heißen. Bedmpmgs. Jede dieser Gleichungen kennzeichnet eine einzelne Bindung; sie ordnet zu jedem k*®*^^*"«^- der für sie in Betracht kommenden Punkte zu: eine ausgezeichnete Richtung, die wir „Hemmungsrichtung**, und eine gewisse Zahl, die wir ,, Übertra- gungsfaktor** nennen wollen. DieHemmungsrichtung entspricht der Normalen- richtung der Fläche G in dem auf Seite 26 besprochenen Beispiel, die Über- tragungsfaktoren für die verschiedenen Punkte bestimmen den durch die Bin- dung gegebenen Zusammenhang der Bewegungen. Wenn die Bindung sich mit der Zeit ändert, tritt noch eine Größe hinzu, welche der Änderungsgeschwindig- keit der Bindung entspricht, also selbst eine Geschwindigkeit kennzeichnet, wir wollen sie die „Charakter ist is che Geschwindigkeit** der Änderung der Bin- dung nennen. Für jeden der Punkte kommt es nun auf die Komponente seiner Geschwindigkeit parallel der Hemmungsrichtung an : die Bedingungsgleichung ist nämlich eine lineare Gleichung zwischen diesen Geschwindigkeitskomponenten und der charakteristischen Geschwindigkeit der Änderung der Bindung, wobei die Übertragungsfaktoren die Faktoren der Geschwindigkeitskomponenten ab- geben. Eine ,, Bedingungsgleichung** kann daher so geschrieben werden:

(2) Äi^i + k^V2 + . . . -h F = o.

Der untere Index i, 2, . . . unterscheidet die verschiedenen Punkte. Die v^, ^29 . stellen für die einzelnen Punkte jedesmal die Komponente der Ge- schwindigkeit parallel der Hemmungsrichtung dar, k^ iS^j» * - ^^^^ ^^^ Über- tragungsfaktoren, V ist die charakteristische Geschwindigkeit der Änderung der Bindung. Will man statt mit Geschwindigkeiten mit Verschiebungen rech- nen, und bezeichnet man für die einzelnen Punkte die Komponente der Ver- schiebung parallel der Hemmungsrichtung in dem 21eitelement dt mit dtii, dn^ . . ., so ergibt sich wegen z;^ = dn^Jdt usw. die Darstellung:

(3) *idni + k^dn^ + . . . + = o.

Im allgemeinen wird anzunehmen sein,'daß sowohl die Hemmungsrichtungen als auch die Übertragungsfaktoren von der Lage des Systemes abhängen; ändert sich die Bindung im Laufe der Zeit, so werden die Hemmungsrichtungen und die Übertragungsfaktoren im allgemeinen auch noch von der Zeit abhängen.

Gibt es mehrere, beliebig viele, Bindungen, so entspricht jeder einzelnen eine Gleichung von der Form (2) oder (3). Es ist dann also mit einem ganzen System von Bedingungsgleichungen zu rechnen.

Als „virtuelle Bewegung** des Systemes in einem bestimmten, belie- virtueue big herausgegriffenen Augenblick gilt eine solche Bewegung, welche mit den ®*''*'*°*" dann herrschenden Bindungen verträglich ist welche also den Bedingungs- gleichungen (2) genügt und welche man sich so schnell vor sich gehend denkt, daß die Änderungen der Bindungen mit der Zeit nicht zur Geltung

5*

68 I* E.WIECHERT: Mathematische Formulieningfen des dynamischen Grundgesetzes

kommen. Sollen also die v^, v^ . . . speziell bei einer virtuellen Bewegung die Komponenten der Geschwindigkeiten parallel den Hemmungsrichtungen dar- stellen, so muß man sich die Vj^ v^ . . . so groß denken, daß dagegen V ver- schwindend klein ist. Als Bedingungsgleichungen für eine virtuelle Bewegung des Systemes sind also Gleichungen der Form

(4) k^^i + feiv, + . . . = o

virtueue anzunehmen. -- Ganz ebenso bezieht sich eine „virtuelle Verrückung** des verrücknng. Systemes auf einen bestimmten Augenblick und ist so schnell zu denken, daß die Änderungen der Bindungen nicht merklich werden. Bezeichnen wir also die Komponenten der virtuellen Verrückungen der Systempunkte parallel den Hemmungsrichtungen mit dn^, in^ . . ., so ergeben sich als Bedingungs- gleichungen für die virtuelle Verrückung des Systemes wegen der Bindungen (3) Gleichungen der Form:

(5) ^1^1 + *s^s + . . . = o.

AngreifeDdo Unter „angreifenden Kräften'' sollen die auf das System einwirkenden

kraft, vertofw^ Kräfte Verstanden werden, wenn von denjenigen Kräften abgesehen wird, ^***'^^^*" welche durch die Bindungen der Beweglichkeit entstehen. Für ein jedes

Massenelement m des Systemes soll als „Trägheitskraft** eine Kraft gelten, welche entgegengesetzt gerichtet ist wie die Beschleunigung von m, und eine Intensität besitzt, die durch das Produkt von m und der Beschleunigung ge- geben ist. Man kann in ihr den Widerstand des Massenelementes gegen die Bewegungsänderung sehen. Das System der Kräfte, welches bei einer wirk- lichen Bewegung des Systemes durch Zusammenfassung aller angreifenden Kräfte und aller Trägheitskräfte entsteht, soll das System der „verlorenen Kräfte** oder der „aufgehobenen** nämlich durch die Bindungen aufge- hobenen — Kräfte heißen. Dynamisches Nach diesen Festsetzungen sind wir nun imstande, in wenigen Worten

"***'****** das dynamische Grundgesetz der klassischen Mechanik anzugeben. Es kann so ausgesprochen werden: Die Bewegungen eines mechani- schen Systemes erfolgen stets so, daß die verlorenen Kräfte in jedem Moment bei jeder beliebigen virtuellen Bewegung oder virtuellen Verrückung des Systemes Arbeiten ergeben, welche in einer Summe zusammengefaßt sich zu Null ergänzen. Bedia^ngs. Um die Worte hier durch die Symbolik der Mathematik bequem ersetzen

^rec^nkiijer ^" können und zur weiteren Vorbereitung für das Folgende wollen wir nun die Koordinaten. Bezugnahme auf ein rechtwinkliges Koordinatensystem x^ y, z einführen. Sind dXfi^ dy/t, dZfi die Komponenten der Verschiebung des /i-ten System- punktes (/i = I, 2, . . .), so nimmt eine Bedingungsgleichung (3) die neue Form an:

(6) 2 «'^*A + ^^^'^J'm + '^ M '^m) + V"^^ = o-

Das Summenzeichen Z deutet an, daß der angefügte Klammerausdruck für alle in Betracht kommenden Systempunkte, also für alle Indizes ju = l, 2, . . .

Virtuelle Verrückungen. D'Alembertsches Prinzip 69

zu bilden ist, und daß alle diese Ausdrücke zu einer Summe zusammengefaßt werden sollen, (v) weist nicht etwa auf eine Potenz hin, sondern kennzeichnet einen oberen Index, für den i, 2, ... zu setzen ist. Dieser Index wurde im Inter- esse des Folgenden deswegen zugefügt, um die verschiedenen Bedingungs- gleichungen bequem unterscheiden zu können. Statt jedes der früheren Über- tragungsfaktoren kf^ treten hier drei Übertragungsfaktoren a^^, b^J^, c^j} auf; das scheint zunächst wie eine Komplikation: Es ist aber zu beachten, daß die a, bf c hier zugleich auch die Hemmungsrichtungen berücksichtigen, sodaß bei Anwendung von (6) es nicht nötig ist, die Hemmungsrichtungen aufzusuchen und die Verschiebungskomponenten parallel diesen Richtungen zu bilden. ■— Für die virtuellen Verrückungen, die wir für die verschiedenen Systempunkte durch bx^^ öy^ ^£1^ andeuten wollen, ergeben sich gemäß (5) nun die Bedingungsgleichungen :

(7) ^'KH + ^''t^y^ + ^>A.) = o.

Die Komponenten der Beschleunigung des /i-ten Systempunktes mögen mit Angreifende i^, y^, 5^ bezeichnet werden. Es sind dann die Komponenten der Trägheits- TrSgiieitskiaft, kräfte durch w^^^, w^y^i, w^i^ dargestellt, wenn m^ die Masse des ^*^J^^j,^*' Systempunktes ist, und es ergeben sich für die Komponenten der „verlöre- ^'**'- nen** oder „aufgehobenen** Kräfte die Ausdrücke:

wenn -y^,y^,Z^ die Komponenten der zugehörigen „angreifenden* 'Kräfte sind.

Nach diesen Vorbereitungen können wir nun dazu übergehen, die ver- schiedenen mathematischen Formulierungen des Grundgesetzes der Dynamik der klassischen Mechanik darzulegen.

Bei direktem Umsatz in die mathematische Sprache sagt das Grund- i^Aioinbertschcs gesetz in der vorhin angegebenen Form folgendes aus: Die Bewegungen eines mechanischen Systemes erfolgen so, daß die Beschleunigungen i^, y^, z^ der Systempunkte jederzeit Werte annehmen, welche der Gleichung

für alle diejenigen Werte der öx^^^ dy^, dz^^ genügen, die den Bedingungsglei- chungen (7) des Systemes entsprechen. Hiermit ist unsere erste mathemati- sche Formulierung des Grundgesetzes der Dynamik gegeben. Man pflegt (8) das d'Alembertsche Prinzip zu nennen. InderTatgibt (8) dend'Alem- bertschen Grundsatz in analytischer Darstellung wieder; dabei ist aber zu beachten, daß es sehr wesentlich auf die Tragweite ankommt, welche man dem Gesetz (8) gibt. Bei unserer hier benutzten Formulierung der Bindungen des Systemes durch die Bedingungsgleichungen (6) gemäß den Lag rangeschen Entwicklungen gehen wir sehr weit über den Bereich der d'Alembertschen Überlegungen hinaus.

Nach den Untersuchungen von Lagrange folgt aus der ersten mathe- La»^anK«»<^J'«

Bewegung»-

matischen Formulierung des Grundgesetzes, daß man die „aufgehobenen** gieichnngm Kräfte in Anteile zerlegen kann, welche den einzelnen Bedingungsgleichungen *"**' "^ entsprechen. Die Anteile, welche dabei einer einzelnen Bedingungsgleichung

= o

^o !• E.WIBCHERT: Mathematische Formulierangen des dynamischen Grundgesetzes

zugehören, sind für jeden Systempunkt parallel der Hemmungsrichtung ge- legen und haben Intensitäten, welche den Übertragungsfaktoren proportional sind. Stellt man diese Schlußfolgerungen analytisch dar, so ergibt sich eine neue, unsere zweite mathematische Formulierung des Grundgesetzes. Ihr mathematisches Sinnbild ist gegeben durch die Formeln:

(9)

y^ - fn.y^ +2^<'>t<;' = o,

Zu jeder Bedingungsgleichung gehört ein Faktor X^^\ der die Stärke der zu- gehörigen Anteile an den verlorenen Kräften festsetzt. Die Gleichungen (9) zusammen mit den Bedingungsgleichungen (6) bestimmen vollständig die Be- wegungen des Systemes. Man pflegt (9) die Lagrangeschen Bewegungs- gleichungen erster Art zu nennen. Prinrip Die dritte Formulierung des Grundgesetzes, welche hier angeführt werden

*zwaa^.° soll, rührt von dem berühmten Astronomen, Mathematiker und mathemati- schen Physiker Carl Friedrich Gauß (1777— 1855) her und erhielt von ihm den Namen: ,, Prinzip des kleinsten Zwanges". Ein beliebiger 21eitpunkt während der Bewegung des Systemes, den wir den „Anfangspunkt" nennen wollen, möge herausgegriffen werden. Wir lenken die Aufmerksamkeit auf alle von diesem Zeitpunkt ab nach den Bindungen möglich scheinenden, also mit den Bedingungsgleichungen verträglichen Bewegungen des Systemes, bei welchen in dem ,, Anfangspunkt" der Zeit die Lage und die Geschwindigkeiten aller Systempunkte dieselben sind wie bei der wirklichen Bewegung. Nur die Be- schleunigungen, also die Änderungsgeschwindigkeiten der Geschwindigkeiten der Systempunkte sollen im Anfangspunkt der Zeit für die verschiedenen Be- wegungen verschieden angenommen werden. Unter den dann als möglich schei- nenden Bewegungen wird sich auch die wirklich eintretende befinden, und es ist festzustellen, was sie vor den übrigen auszeichnet. In einem beliebigen auf den Anfangspunkt folgenden Zeitpunkt, der aber nur unendlich wenig später angenommen werden soll, werden die Systempunkte bei den verschie- denen Bewegungen verschiedene, wenn auch nur unendlich wenig verschie- dene, Lagen zeigen. Nach Gauß vergleichen wir nun den ,, Zwang", welchen das System bei den verschiedenen Bewegungen erfährt. Der Zwang bei irgend- einer der Bewegungen wird nach Gauß beurteilt durch Vergleich der betreffen- den Bewegung mit jener Bewegung, bei welcher sämtliche Massenpunkte des Systemes den angreifenden Kräften frei folgen können, welche also eintreten würde, wenn alle Bindungen des Systemes aufgehoben wären. Als Maß des Zwanges gilt die Summe:

(10) ^^^K'

Sie bezieht sich auf einen beliebigen, auf den Anfangspunkt folgenden (unend-

Lagrangesche . Gleichungen erster Art. Gaußsches Prinzip yi

lieh wenig späteren) Zeitpunkt; w^^ bedeutet den dann sich zeigenden (unendlich kleinen) Abstand zwischen den Lagen des Massenpunktes w^ bei den beiden Bewegungen. Gauß weist nach, daß die wirkliche Bewegung des Systemes unter all den möglich scheinenden dadurch ausgezeichnet ist, daß für sie der Zwang (lo) am kleinsten ist. Es besteht also der Satz: ,,Die Beschleunigungen in einem mechanischen Systeme nehmen unter den mit den Bindungen ver- träglichen Werten jederzeit diejenigen Werte an, welche den durch (lO) dar- gestellten Zwang der Bewegung zu einem Minimum machen.** Gauß ist der Meinung, daß dieses „Prinzip des kleinsten Zwanges** eine natürlichere Grundlage für die Dynamik abgäbe als das Prinzip von d'Ale mb er t- La- grange, weil es einleuchtender sei. Man wird dem schwerlich zustimmen können, denn daß gerade die Formulierung des „Zwanges**, wie Gauß sie geben muß, gewählt werden soll, scheint durchaus nicht einleuchtend; man wird sich vielmehr von der Empfindung der Willkür nicht frei machen können.

Unter den Bindungen gibt es eine besondere Klasse, welche nicht nur die Hdonom« Beweglichkeit in jedem Zeitmoment, sondern auch die Lagen, die das System überhaupt einnehmen kann, durch eine Gleichung beschränkt. Eine solche Bindung wird zum Beispiel angezeigt durch die Bedingungsgleichung dxi = o, denn aus dieser Gleichung folgt Xi = C, wobei C eine gewisse Kon- stante ist. Es können hier infolge der Bedingungsgleichung dxi = o nur solche Lagen des Systemes auftreten, bei welchen der erste Systempunkt in einer ge- wissen — durch X = C bestimmten Ebene liegt. Nach H. Hertz nennt man Bedingungen, welche in dieser Weise die Lagen des Systemes durch eine Gleichung beschränken, „holonome** Bedingungen, Die die Lage beschrän- kenden'Gleichungen kann man durch das mathematische Schema:

(ii) <P^'H%i Vv %i ^21 yai «2, •» 0 = o

kennzeichnen. Der Index (v) weist auf die zugehörige Bedingungsgleichung für

die Beweglichkeit hin. 0^^^ kennzeichnet eine gewisse Funktion, von welcher angenommen wird, daß sie von der Lage des Systemes und eventuell von der Zeit abhängt. Im gegebenen Falle können von den Koordinaten der System- punkte vielleicht nur einzelne oder wie in dem vorhin genannten Beispiel nur eine einzige wirklich in Betracht kommen, und ebenso kann im gegebenen Fall wie in unserem Beispiel ^ die Abhängigkeit von der Zeit t fehlen. Schränkt eine Bewegungsgleichung die Lagen des Systemes nicht durch eine Gleichung der Art (ii) ein, so heißt sie „nichtholonom**. Lagrange hat die Nichthoionom© nichtholonomen Bedingungen wohl beachtet, aber er erwähnte sie nur bei- «*"»•■ läufig. Im 19. Jahrhundert bemerkte man, daß die nichtholonomen Bedin- gungen für manche Probleme der Mechanik von Wichtigkeit sind. Der Pro- fessor der Mathematik Aurel Edmund Voß (geb. 1845) untersuchte wohl zuerst die Bedeutung der nichtholonomen Bedingungsgleichungen im Zusam- menhang mit den Prinzipien der Mechanik. Die Aufmerksamkeit wurde be- sonders lebhaft auf den Fall der nichtholonomen Bedingungsgleichungen ge- lenkt, als der berühmte Physiker Hertz in der Einleitung zu seinem erst nach seinem Tode 1894 veröffentlichten Werk „Die Prinzipien der Mechanik**,

»j2 I. E.WIECHERT: Mathematische Formulierungen des dynamischen Grundgesetzes

auf welches sich unsere Ausführungen S. 34 und 35 beziehen, die irrtüm- liche Meinung äußerte, das sogleich zu erwähnende Hamiltonsche Prinzip versage für den Fall der nichtholonomen Bedingungsgleichungen. Das beson- dere Beispiel für eine nichtholonome Bindung, welche Hertz verwertete, wird geboten durch eine auf einer Ebene ohne Gleitung rollende Kugel. Da Gleitung nicht stattfinden soll, wird die Beweglichkeit der Kugel in jedem Augenblick eingeschränkt; aber die Kugel kann trotzdem, wie leicht ersichtlich ist, gegen- über der Ebene bei ihren Bewegungen alle möglichen Lagen annehmen, so daß in dieser Hinsicht keine Einschränkung erfolgt. Der Professor der Mathe- matik Ludwig Otto Holder (geb. 1859) gab 1896 die Richtigstellung der Hertzschen Ausführungen in einer Arbeit, welche die Einordnung der nicht- holonomen Bindungen in das System der klassischen Mechanik behandelte. Freiheitsgiade Die Sehr große Bedeutung der holonomen Bindungen für die Mechanik be-

der Lage, ^.^j^^ darauf, daß durch sie die Anzahl der „Freiheitsgrade** der Lagen ein- geschränkt wird. Sind n Angaben notwendig, um die jeweilige Lage des Systemes festzustellen, so sagt man, das System habe n Freiheitsgrade. Ein einzelner für sich betrachteter Punkt hat also drei Freiheitsgrade, wenn er im Räume frei beweglich ist, und zwei Freiheitsgrade, wenn er gezwungen ist, auf einer Fläche zu bleiben. Jede holonome Bedingungsgleichung schränkt die Zahl der Freiheitsgrade um i ein. Bei einem einzelnen starren Körper, der als Ganzes im Räume frei beweglich ist, sind die Bewegungen der verschiedenen Teile des Körpers durch die wechselseitigen, die Starrheit bedingenden, holo- nomen Bindungen so eingeschränkt, daß die Anzahl der Freiheitsgrade nur noch 6 ist. Lagrange zeigte in außerordentlich wichtigen Untersuchungen, wie die Bedingungsgleichungen sich vereinfachen, wenn auf die Beschränkung der Freiheitsgrade der Lagen Rücksicht genommen wird. Ein der Anzahl der Freiheitsgrade entsprechendes System von Größen, welches die jeweilige Lage Lag»ng«sche des Systemes bestimmt, pflegt man als ein System „Lagrangescher Koordi-

Koordi»*.. „g^t^„.. ^y bezeichnen. Bei einem im Räume frei beweglichen starren Körper können als Lagrangesche Koordinaten zum Beispiel gewählt werden die drei rechtwinkligen Koordinaten des Schwerpunktes und drei Winkelgrößen, welche die Orientierung des Körpers feststellen. Wir wollen im allgemeinen Fall die Lagrangeschen Koordinaten mit p^, P21 f « bezeichnen, wobei dann n die Zahl der Freiheitsgrade ist. Sind die Bedingungsgleichungen (li) sämtlich von der 2^it unabhängig, so genügt schon die Angabe der p^^ p^, . . ., p», um die Lage sämtlicher Punkte des Systemes festzustellen, geht aber die 2^it / in alle oder auch nur in einen Teil der Bedingungsgleichungen ein, so muß auch die Zeit t noch angegeben werden. Die Änderungsgeschwindigkeiten der p, die mit p„ p^ . ., gekennzeichnet werden sollen, bestimmen (mit den p und eventuell mit / zusammen) die Geschwindigkeiten der verschiedenen Punkte des Systemes. Nichtholonome Die nichtholouomcn Bedingungen stellen sich dar ald Gleichungen der

Bedingungen, p^^.^^.

(12) :^(fdpi + n^^^dp^ + . . . + n^^^dp^ + W^^^dt = 0.

Holonöme und nichtholonome Bedingungen y^

Der Index q gibt die Nummer der Gleichung an; die n^^^ sind die Übertragungs- faktoren und W^^^ ist die charakteristische Geschwindigkeit der Bindung. Vir- tuelle Verrückungen des Systemes, welche durch dp^ 6p^ . . ., &p^ gekennzeich- net werden mögen, muß man sich den früheren Festsetzungen gemäß so schnell vorsichgehend denken, daß der Einfluß der Zeit auf die Bindungen nicht zur Geltung kommt; in den Gleichungen (12) muß also für t fest der Zeitpunkt genommen werden, für welchen die virtuellen Verrückungen gebildet werden sollen. Gibt es keine nichtholonomen Bindungen, so sind die dp-^ dp^ . . ., ^Pn ganz beliebig, bei nichtholonomen Bindungen dagegen müssen die Be- dingungen :

(13) ^^pPi + ^^f «P2 + . . . + n^Ü^n = o erfüllt werden.

Wir wollen uns für den Augenblick die nichtholonomen Bedingungen be- Generalisierte seitigt denken, sodaß die dp^y öp^, . . ., dp^ bei den virtuellen Verrückungen be- liebig werden. Die Arbeit sie möge mit ÖA bezeichnet werden , welche ein im mechanischen System wirkendes Kraftsystem bei einer virtuellen Ver- rückung des Systmes im ganzen leistet, wird dann angegeben durch:

(14) »A = K^dp^ + K^dp^ + . . . + KJip^.

Die Faktoren K^ üTj, . . ., K„, welche durch das Kraftsystemund die Bindungen bestimmt werden, pflegt man mit Lagrange die „generalisierten Kräfte'* zu nennen. Als wesentliches Charakteristikum der generalisierten Kraft er- kennen wir ihre Beziehung zur Arbeitsleistung: Das Produkt Kraft X Ände- rung der Koordinate gibt hier die Arbeit an. Für die weiteren Überlegungen kommt es besonders auf zwei Kraftsysteme an, einmal auf jenes System, wel- ches wir das System der „angreifenden Kräfte*' nannten, und dann auf das System der Trägheitskräfte. Wir wollen die generalisierten Kräfte, welche zum angreifenden Kraftsystem gehören, mit Pj, P^, . . ., P^ bezeichnen, sodaß also hiermit die zugehörigen Werte der K gekennzeichnet werden. In bezug auf das System der Trägheitskräfte hat Lagrange den für die Weiter- entwicklung der klassischen Mechanik höchst folgenreichen Satz gefunden, daß die zugehörigen generalisierten Kräfte sich durch die „lebendige Kraft*' des Lebendig« Kxaft Systemes bestimmen. Unter der lebendigen Kraft, die mit T bezeichnet wer- ^^ sy^**"* den soll, wollen wir der heutigen Sitte gemäß die halbe Summe der Produkte Masse X Quadrat der Geschwindigkeit, genommen für alle Massen des Syste- mes, verstehen, so daß:

(15) T = ^^m^{xl+yl + zl)

wird, wenn x^ y^, z^ die Geschwindigkeitskomponenten der Masse m^ dar- stellen. Bei Einführung der Lagrange sehen Koordinaten p an Stelle der X, y, z erscheint die lebendige Kraft als eine mathematische Funktion der p, ihrer Änderungsgeschwindigkeiten p und eventuell wenn nämlich die Gleichungen (11) nicht alle von der Zeit unabhängig sind von /. Der Lagrangesche Satz sagt nun aus, daß die generalisierten Kräfte für das System der Trägheitskräfte gegeben sind durch die Beziehungen:

eines.

74 I* E.W1SCHERT: Mathematische Formulierungen des dynamischen Grundgesetzes

Lagnmgescho Die Lagrangeschcn Gleichungen erster Art (9) ergeben bei Einführung ^Jdi^^ ^^^ Lagrangeschen Lagekoordinaten den folgenden Satz: ,,Die Bewegungen «weiter Art. eincs mechanischen Systemes erfolgen jederzeit so, daß für jede der Lage- koordinaten die gesamte generalisierte Kraft verschwindet." Jede der gene- ralisierten Kräfte setzt sich dabei aus drei wesentlich verschiedenen Teilen zu- sammen, nämlich den beiden Anteilen, welche den angreifenden Kräften und den Trägheitskräften entsprechen, und einem Anteil, welcher von den durch die nichtholonomen Bindungen aufgehobenen Kräften herrührt. Dieser letzte Anteil setzt sich wiederum aus einzelnen Teilen zusammen, welche den ein- zelnen Bindungen entsprechen und proportional mit den Übertragungsfaktoren n^f sind. Das mathematische Sinnbild des Satzes wird durch die Formeln

<■« ''- + £-r,(^)+2'"*»*-<'

ausgedrückt. ^

Die Gleichungen (17) in Verbindung mit den Bedingungsgleichungen (6) stellen unsere vierte mathematische Formulierung des dynamischen Grundgesetzes dar. Sind keine holonomen Bindungen vorhanden, so nehmen die Gleichungen (17) die einfachere Form an:

(■«) ^. + Is - ^,(|s) = »•

Man pflegt (17) und (18) die „Lagrangeschen Bewegungsgleichungen zweiter Art" oder auch die „Lagrangeschen Bewegungsgleichungen in allgemeinen Lagekoordinaten" zu nennen. Erlaubt ist übrigens auch, bei der Bildung der p nicht alle holonomen Bedingungen zu benutzen. Dann gehören (12), (13), (17) auch zu holonomen Bedingungen. FonnaUemafOB Die bisher angegebenen Formulierungen des dynamischen Grundgesetzes

%Tx^!^!^^ berücksichtigen außer der Lage des Systemes in einem gewissen 2^itpunkt nur fi^'^db^ ^^® dann herrschenden Geschwindigkeiten und die Beschleunigungen, beziehen zeitintenraiL sich also nur auf ein unendlich kleines 2^itintervall in der Bewegung des Sy- stemes. Eis lassen sich nun noch weitere Darstellungen des Grundgesetzes an- geben, wobei das Geschick des sich bewegenden Systemes in einem endlichen Zeitraum ins Auge gefaßt wird. Den Ausgangspunkt für diese Formulierungen bildete ein 1744 von dem Akademiker Pierre Louis Moreau de Mauper- tuis (1698— 1759) aufgestellter Grundsatz, welchen er ,, principe de la moindre quantit6 d'action" nannte, und in dem er eine nach Gottes Weisheit alle Ände- rungen in der Natur regelnde Gesetzmäßigkeit erblicken wollte. Danach sollen bei allen Wandlungen in der Natur die Vorgänge so verlaufen, daß die dabei auf- gewandte „action" den kleinsten unter den möglichen Werten erhält. Für die Mechanik nimmt Maupertuis als Maß der Aktion das Produkt Masse X Ge- schwindigkeit X Weg. Scheint diese Festsetzung schon recht willkürlich, so scheint die Willkür ebenso zu herrschen in den Anwendungen, die Mauper- tuis von seinem Prinzip macht. Seine Überlegungen gewannen aber doch

Lagrangesche Gleichungen zweiter Art. Kleinste Wirkung j^

große Bedeutung, well sie Forschern von stärkerer mathematischer Kraft zum Ausgangspunkt für Entwicklungen wurden, welche für die Mechanik und dann für die Physik überhaupt Wichtigkeit gewannen. Für die Grundgesetze, welche sich ergaben, sind verschiedene Namen gebildet worden, doch werden vielfach auch alle nach dem Vorgang von H. Helmholtz unter dem gemein- samen Namen „Prinzip der kleinsten Wirkung" oder „Prinzip der kleinsten Aktion" zusammengefaßt. Die Entwicklungsgeschichte des Prinzips und seine allgemeine Bedeutung für die Physik wird von M. Planck im Artikel 33 dieses Bandes dargestellt werden, sodaß hier nicht mehr gesagt zu werden braucht, als des Zusammenhanges wegen nötig scheint. Wir werden nur zwei Hauptformen des Prinzips besprechen, deren eine man das Hamilton- sche Prinzip zu nennen pflegt, und deren andere sich eng an jene ursprüng- lichen Ausführungen anschließt, die in Anlehnung an die Mau per tuis sehen Gedanken zunächst unter spezielleren Annahmen von L. Euler und dann in großer Allgemeinheit von Lagrange gegeben wurden. Gemäß den neueren Untersuchungen sollen die Formulierungen dabei hier so umfassend gehalten werden, daß sie dem dynamischen Grundgesetz der klassischen Mechanik in vollem Umfange entsprechen.

Zwei 2^itpunkte t^ und t^ mögen fest ausgewählt werden. Wir denken uns HamiitoBschet das mechanische System einmal in seiner natürlichen Bewegung von ti bis t^ ^^'^^p- dann aber in einer „virtuell variierten** Bewegung. Was unter dieser virtuell variierten Bewegung zu verstehen ist, muß genau festgesetzt werden: das er- wähnte Mißverständnis von H. Hertz entstand eben, weil hier ein Irrtum be- gangen wurde. Das Grundgesetz der Dynamik verlangt folgende Auffassung: Die virtuell variierte Bewegung entsteht aus der natürlichen Bewegung durch eine kontinuierliche Reihe von virtuellen Verrückungen für die einzelnen Zeit- punkte zwischen t^ und t^. Es folgt hieraus für den Fall nur holonomer Bedingungen, daß die virtuell variierten Bewegungen zugleich auch nach den Bindungen der Beweglichkeit mögliche Bewegungen sind. Für den Fall der nichtholonomen Bindungen aber ergibt sich als ein recht seltsam an- mutendes Resultat, daß die in Betracht gezogenen virtuell variierten Bewe- gungen im allgemeinen den Bindungen des Systemes widersprechen, also un- mögliche Bewegungen darstellen. In jedem Zeitpunkt zwischen t^ und t^ wird nun der variierten Lage wegen sich eine gewisse virtuelle Arbeit der angreifen- den Kräfte ergeben, sie soll mit dA bezeichnet werden; ferner wird dann wegen der veränderten Geschwindigkeiten eine gewisse („virtuelle'*) Änderung der lebendigen Kraft sich zeigen, sie soll mit dT bezeichnet werden. Wir bilden die Summe dA + öT für alle die Zeiten zwischen ^^ und t^ denken uns dieses ganze Zeitintervall in Zeitelemente zerlegt, stellen für jedes Zeitelement das Produkt aus Länge des Zeitelementes X der Summe dA + ÖT her und summieren alle diese Produkte für das ganze Zeitintervall. Das Sinnbild der Summe wird der mathematisch geschulte Leser in dem Ausdruck

{19) r{dA+dT)dt

7 6 I- E.WiECHERT: Mathematische Fonnulienmgen des dynamischen Grundgesetzes

erkennen. Wie der Professor der Astronomie William Rowan Hamilton (1805 1865) in Weiterführung Lagr an gescher Untersuchungen zeigte^ be- steht folgender Satz: Die Summe der angegebenen Produkte ergänzt sich zu o (also der Ausdruck (19) nimmt den Wert O an), für alle virtuell variierten Be- wegungen, bei welchen am Anfang und am Ende des Zeitintervalles (also für ti und für ^2) das System dieselben Lagen hat wie bei der natürlichen Bewegung. Dieser Satz ist hinreichend, um die wirkliche Bewegimg festzustellen, und kann daher als eine unsere fünfte mathematische Formulierung des dynamischen Grundgesetzes angesehen werden. Man nennt ihn das „Hamiltonsche Prinzip**. Prinzip Um zu unserer sechsten und letzten Formulierung des Grundgesetzes der

^*w?JkIin*^° Bewegung zu gelangen, vergleichen wir wieder die natürliche Bewegung des Systemes in dem Zeitraum von ti bis ^2 niit einer variierten Bewegung, denken uns die Variationen aber noch insofern weiter ausgeführt, als nun auch die Zeitelemente des ausgewählten Zeitraumes variierte Werte erhalten sollen. Es werden dann also die Zeitpunkte der variierten Bewegung, welche den Zeit- punkten zwischen ti und t^ der natürlichen Bewegung entsprechen, in andere zeitliche Entfernungen voneinander gerückt, und es wird die variierte Bewe- gung zwischen den beiden Endlagen im ganzen genommen im allgemeinen einen Zeitraum von anderer Länge umfassen als die natürliche Bewegung. Bei diesen Variationen der Zeit wird für die einzelnen Phasen der Bewegung die virtuelle Arbeit ÖA der angreifenden Kräfte nicht beeinflußt, die Änderung öT der lebendigen Kraft aber bekommt andere Werte, weil ja die Geschwin- digkeiten andere werden. Die benutzten Variationen der Zeit sollen nun so ausgewählt werden, daß für jede Phase der Bewegung die Änderung der leben- digen Kraft gerade gleich der Arbeit der angreifenden Kräfte wird, sodaß die Arbeit der angreifenden Kräfte in der Änderung der lebendigen Kraft aufge- braucht erscheint. Es soll hiernach in dem ganzen in Betracht gezogenen Ab- schnitt der Bewegung stets gelten dT = dA. Dann besteht bei Innehaltung gewisser Grenzen für die Ausdehnung des Abschnittes der Bewegung der fol- gende Satz: „Bildet man bei den natürlichen und den variierten Bewegungen für alle Zeitelemente des Abschnittes der Bewegung die Produkte lebendige Kraft X Zeitelement und summiert man alle diese Produkte, so nimmt die Summe für die natürliche Bewegung den kleinsten Wert an. Vorausgesetzt ist dabei, daß auch bei den virtuellen Bewegungen das System am Anfang und am Ende des betrachteten Abschnittes der Bewegung dieselben Lagen hat wie bei der natürlichen Bewegung.** Dieser Satz stellt das Prinzip der klein- sten Wirkung im engeren Sinne dar. Die Summe, um welche es sich dabei handelt, hat in

(20) / Tdt

Maupertttissche ihr mathematisches Sinnbild. Um den Zusammenhang des Prinzips mit den i^««n- Maupertuisschen Spekulationen besser hervortreten zu lassen, ist es nötig,

Hamiltonsches Prinzip. Prinzip der kleinsten Wirkung yy

der Summe noch eine andere Form zu geben. Wir wollen beachten, daß für irgendeinen einzelnen Massenpunkt m^ des Systemes, dessen Geschwindigkeit v^ ist, der Anteil an der lebendigen Kraft durch m^t;*/2 gegeben ist, also der Beitrag im Zeitelement dt zu der Summe durch

j m^vjldt = j m^v^v^dt = | m^v^ ds^

angegeben wird, wenn ds^ das Wegelement bedeutet, welches der Massenpunkt w„ in dem Zeitelement dt zurücklegt. So hätten wir bei der Formulierung des Prinzips statt der Summe der Produkte: lebendige Kraft X Zeitelement eben- sogut auch die Summe der Produkte: Massenelement X Geschwindigkeit X Wegelement nehmen können, wenn die Summe über alle Massenpunkte und über den ganzen Abschnitt der Bewegung ausgedehnt wird. Das mathemati* sehe Sinnbild dieser neuen Summe wäre dann:

(21) / ^m^v^ds^.

(1) f*

Diese Summe wird ebenso den kleinsten Wert gerade für die natürliche Bewegung annehmen wie die frühere Summe. Der Standpunkt von Maupertuis kommt nun direkt zum Ausdruck, denn Maupertuis mißt, wie schon erwähnt wurde, die „action"' bei der Bewegung durch das Produkt: Masse X Geschwindigkeit X Weg. Wir erkennen übrigens, daß der Maupertuissche französische Ausdruck „action** durch das deutsche Wort ,, Wirkung** sehr schlecht, gerade- zu irreführend, übersetzt wird. Hierauf hat Helmholtz hingewiesen. Nach dem gewöhnlichen Sprachgebrauch wird unter „Wirkung** die Leistung, das Erwirkte verstanden werden, während dieses hier doch keineswegs gemeint ist; man soll vielmehr an den Aufwand, an die Tätigkeit des Wirkens denken. Unser Satz sagt nach den Maupertuisschen Überlegungen aus, daß die na- türliche Bewegung diejenige sei, welche mit dem kleinsten „Aufwand** erreicht werde.

Ganz wie bei dem Hamiltonschen Prinzip ist auch bei dem Prinzip der kleinsten Wirkung zu beachten, daß die in Betracht gezogenen variierten Be- wegungen im allgemeinen Bewegungen sind, welche den Bindungen der Be- weglichkeit des Systemes widersprechen. Die variierten Bewegungen sind hier im allgemeinen selbst dann noch nicht mögliche Bewegungen, wenn es keine nichtholonome Bindung gibt; sie werden im allgemeinen zu möglichen Be- wegungen erst, wenn die Bedingungsgleichuhgen die Zeit nich): enthalten. Unter dieser Beschränkung hat Lagrange die Gültigkeit des Prinzips der kleinsten Wirkungen als Folge seiner Formulierungen der Gesetze der Bewe- gung abgeleitet. Der Nachweis der unbeschränkten Gültigkeit des Prinzips im Bereiche der klassischen Mechanik wurde von O. Holder in der genannten Arbeit erbracht. Wendet man das Prinzip der kleinsten Wirkung auf den speziellen Fall eines einzelnen geworfenen Körpers an, so sagt er folgendes aus : Denkt man sich zwischen irgend zwei Punkten A und B der Bahn glatte Füh-

^8 I* E.WISCHERT: Mathematische Formulierungen des dynamischen Grundgesetzes

rungen beliebiger Form hinzugefügt, und nimmt nun an, daß längs dieser Führungen Körper von A nach B laufen, und zwar gemäß der Bedingung ÖT ^=^ dA so, daß die Anfangsgeschwindigkeit bei A stets dieselbe ist wie im Falle des freien Wurfes, so wird von allen verglichenen Bewegungen von A nach B der freie Wurf für die Summen (20) und (21) den kleinsten Wert darbieten. Dieses Beispiel der Anwendung des Maupertuisschen Prinzips wurde von Euler gegeben. Euler knüpfte daran noch Untersuchungen über die Gültigkeit des Prinzips in komplizierteren Fällen, und dadurch wurde dann Lagrange zu noch weitergehenden Verallgemeinerungen angeregt.

Eingehendere historische Darstellungen enthält der von K. Suphoff und J. Ilbbrg redi- gierte Band ,|Die Vorgeschichte der modernen Naturwissenschaften und der Medizin". Vgl. auch die Bände Astronomie, Mathematik und Geonomie.

AKUSTIK

2.

HISTORISCHE ENTWICKLUNG UND KULTURELLE BEZIEHUNGEN.

Von Felix Auerbach.

Die Akustiky das heißt die Wissenschaft von allem, was hörbar ist undAkostik. Hörbarem zugrunde liegt, hat zu den meisten Zeiten etwas abseits gestanden von dem allgemeinen Komplex der Physik, der Naturwissenschaft und der Kultur überhaupt. Aber immer wieder sind Momente eingetreten, in denen sich zeigte, daß die Beziehungen denn doch innigen Charakters sind, und daß das Gesamtbild unserer geistigen Kultur unvollständig bleiben müßte, wenn nicht mindestens die Hauptzüge der Akustik hineingezeichnet würden. Da sind zu- erst, was für weitere Kreise am nächsten liegt, die Beziehungen zu unserem Gehörorgan, dem physischen wie dem psychischen, und die Beziehungen zur Musik, die doch für das Dasein nicht bloß des höheren Menschen eine Rolle spielt mindestens ebenbürtig der Rolle anderer Künste, die uns durch das Auge vermittelt werden. Dann, um auch Praktisches zu berühren, die Akustik der Gebäude, bei der die Tonwissenschaft in Arbeitsgemeinschaft, aber auch in Konflikt kommt mit der Baukunst. Weiter abliegend, aber von hohem Inter- esse, ist die Beziehung zu einem der merkwürdigsten Probleme der Mathematik: zur Darstellung der Funktionen durch unendliche trigonometrische Reihen. Endlich, aus der neuesten Zeit, der Parallelismus zwischen gewissen akustischen und elektrischen Erscheinungen, wie er besonders bei dem Phänomen der Reso- nanz zum Ausdruck kommt und in der Funkentelegraphie bedeutsame Anwen- dung erfahren hat (vgl. Artikel i8). Mit dem Angeführten ist natürlich die Bedeutung der Akustik für die Gesamtheit des Kulturlebens nicht entfernt zum Ausdruck gebracht; es sollte diese nur an einigen markanten Fällen de- monstriert werden.

Von akustischen Beobachtungen und Versuchen wird schon aus dem Altertum und Mittelalter berichtet, und schon zu diesen Zeiten sind auf Grund dessen Gesetze und Theorien aufgestellt worden. Wir können das alles hier über- gehen und uns sogleich in die Mitte des 17. Jahrhunderts versetzt denken; denn damals erhielt die Akustik ihr erstes wissenschaftliches Gewand dank den Be- mühungen mehrerer Forscher, unter denen es genügen muß, die beiden be- deutendsten anzuführen, beide von einer selbst das damalige Maß von all- gemeiner Bildung und allgemeiner Wirksamkeit überragenden Universalität: der Franzose Mersenne und der Deutsche Athanasius Kircher. Daß Töne auf Schwingungen beruhen, wußte man längst, und Bacon wie Töne und Galilei hatten darüber schon lange vorher Untersuchungen angestellt; doch ^"^ ^"R«"-

K.d.6.ULm3dx Physik 5

$2 2. Felix Auerbach: Historische Entwicklung und kulturelle Beziehungen

erstMersenne gelang es um 1640, wenigstens einen Teil der betreffenden Gesetze, gültig für die Töne gespannter Saiten, richtig zu formulieren. Aber weder er noch Kirch er kamen zu einem exakten Versuche von entscheidender Bedeutung; und insbesondere dauerte es noch fast ein Jahrhundert, bis es ge- lang, die Tonhöhe eines tönenden Körpers, sei es durch Rechnung, sei es experimentell, durch Angabe der Schwingungszahl zahlenmäßig zu charak- terisieren.

Für den experimentellen Weg tauchten um die Wende des 17. und 18. Jahr- hunderts fast gleichzeitig zwei Methoden auf: die Sirenenmethode und die Methode der Schwebungen; sie müssen etwas näher betrachtet und in ihrer weiteren, hochbedeutsamen Entwicklung verfolgt werden. Sirene. Wcnn Töne auf Schwingungen beruhen, so muß es besonders instruktiv sein, Töne zu erzeugen mit Hilfe von Vorrichtungen, bei denen sich der perio- dische Vorgang sowie die Zahl der Perioden in der Zeiteinheit unmittelbar er- kennen läßt. Das ist nun in der rohesten Weise der Fall bei einem rotierenden Zahnrade, an dessen Zahnrand man etwa ein Kartenblatt schlagen läßt. Aller- dings werden hier nicht eigentliche Schwingungen, sondern Stöße von abruptem Charakter erzeugt; aber in der Luft werden sich diese Stöße jedenfalls in etwas Schwingungsähnliches verwandeln. Sehr primitive Apparate dieser Art kon- struierten Hooke 1681 und Stancari 1706; aber erst Robison erhielt 1799 mit seiner Zahnsirene genauere Resultate, und erst Savart hat 1830 diesen Apparat in die bestmögliche Form gebracht. Freilich hatte die Zahnsirene zu offensichtige Mängel, um für exakte Aufgaben noch weiter in Betracht zu kom- men, nachdem es gelungen war, eine Sirene zu bauen, die ihr prinzipiell über- legen war. Das ist die Lochsirene, deren Hauptteil ^eine rotierende Scheibe nicht mit Zähnen, sondern mit kranzförmig angeordneten Löchern ist, so daß der Luftstrom, durch Anblasen erzeugt, abwechselnd hindurchtreten kann und aufgehalten wird. Erfunden wurde diese Sirene 1819 durch Cagniard La Tour, verbessert von Do ve 1851, und in der 1862 von Helmholtz konstruier- ten Doppelsirene besitzen wir ein Universalinstrument für die Untersuchung von Tonhöhen und allem, was damit in Zusammenhang steht (Akkorde, Inter- ferenzen, Schwebungen, Klänge, Kombinationstöne usw.). Scbwebangen. Die andere experimentelle Methode, Schwingungen zu zählen, ist zwar in- direkter als die Sirenenmethode, hat aber etwas vor ihr voraus, insofern es sich bei ihr um wirkliche Tonschwingungen, nicht um Stöße handelt, insofern sie also nicht besonderer, dem Laboratorium angehöriger Apparate bedarf, son- dern sich direkt an die musikalischen Instrumente hält. Daß man die Schwin- gungen einer Saite oder einer Orgelpfeife nicht zählen kann, liegt doch nur an der zu großen Schnelligkeit dieser Schwingungen. Wenn es nun gelingt, diese Periodizität mit einer anderen, längeren, in Beziehung zu setzen, so wird man aus dieser letzteren-, der Zählung direkt zugänglichen, auf die erstere zurück- schließen können. Ein derartiges Phänomen sind die Schwebungen, wie sie zuerst um 1 700 von Sauveurzu diesem Zwecke benutzt worden sind. Er wählte zwei um einen Halbton abweichende Orgelpfeifen, deren Schwingungszahlen also

Tonhöhe 83

gemäß der Definition des Halbtons sich wie 15:16 verhielten, und zählte in einer Sekunde sechs Schwebungen, d. h. An* und Abschwellungen der Tonstärke; folglich müssen die Schwingungen beider Pfeifen in der Sekunde sechsmal mit- einander koinzidieren, die eine muß also in dieser Zeit sechs Schwingungen mehr ausführen als die andere, und somit erhält man, indem das Verhältnis und die Differenz der Schwingungszahlen bekannt ist, als Schwingungszahlen 90 und 96; ein Resultat, das nun hinreicht, um durch^Vergleichung alle anderen Pfeifen der Oi^el und ebenso alle anderen Tongeber auf absolutes Maß zurückzuführen. Die Methode der Schwebungen hat dann über ein Jahrhundert geruht, ist aber im 19. Jahrhundert durch Scheibler und seine Nachfolger auf einen hohen Grad der Vollkommenheit gebracht worden. Sind doch, wie man weiß, die Schwebungen auch das empfindlichste Mittel, um zwei Tonkörper aufeinander abzustimmen, sei es auf Blinklang, oder auf irgendein konsonantes Verhältnis; man verstimmt eben den einen Tonkörper so lange, bis die letzte Spur von Schwebungen verschwunden ist.

In neuerer Zeit hat diese Methode übrigens eine starke Konkurrenz er- stroboskopisch« fahren durch eine andere, die ebenfalls auf den Ersatz der raschen durch eine langsame Periodizität hinausläuft, die sich aber im übrigen nicht an das Ohr, sondern an das Auge wendet; es ist die ursprünglich von Plateau in Brüssel und Stampfer in Wien erfundene stroboskopische Methode, die aber in die messende Akustik erst durch Lissaj ous (1855) und Poske (1874) eingeführt wurde. Man beobachtet hier einen Punkt des Tonerregers nicht dauernd, son- dern nur in einzelnen herausgegriffenen Momenten, und zwar während jeder Schwingung einmal. Wählte man hierzu immer die gleiche Phase, so würde man den Punkt scheinbar stillstehen Sehen; wählt man eine Zwischenzeit, die ein wenig größer ist als die Schwingungsdauer, so wird man den Punkt jedes- mal an einer etwas vorgerückten Stelle erblicken, man wird ihn jetzt ebenfalls Schwingungen ausführen sehen, aber ganz langsame, nämlich eine einzige Schwin- gung in der ganzen Zeit, in der die einzelnen kleinen Überschüsse der Beleuch- tungsperiode über die Schwingungsperiode gerade eine ganze Schwingungs- periode ergeben; ist z. B. die Schwingungsdauer ^/iqq Sekunde, und beleuchtet man den Punkt jede 99tel Sekunde, so wird nach 100 wahren Schwingungen (von denen man nichts sieht) eine stroboskopische Schwingung vollendet sein; rückwärts wird man also aus der Zeit einer stroboskopischen Schwingung die einer wahren berechnen können. Auf die verschiedene Ausgestaltung dieser Methode an der Hand gewöhnlicher Schwingungskurven, an der Hand von Lissaj ous- Figuren usw., kann hier nicht näher eingegangen werden.

Alle Methoden aber werden übertroffen durch die graphische, einschließ- Graphische lieh der photographischen Methode. Es liegt nur an äußeren Umständen, daß diese Methode erst so spät, erst etwa um 1870, Eingang in die Akustik ge- funden hat. Hier werden die Schwingungen des tönenden Körpers entweder mechanisch mit Hilfe eines an ihm befestigten Schreibstiftes auf einer Schreib- fläche oder photographisch mit Hilfe des Lichts auf einer empfindlichen Fläche . jene wie diese gleichmäßig vorrückend oder besser rotierend gedacht

84 2. Fblix Auerbach: Historische Entwicklung und kulturelle Beziehungen

verzeichnet. Fügt man dieser Urkunde eine zweite, aus Sekundenmarken bestehende hinzu, die etwa von einer elektrischen Uhr geliefert werden, so kann man die Schwingungszahl in aller Ruhe auf dem Papier abzählen. Daß man auf diesem Dokument noch sehr viel weiteres wertvolles Material beisam- men hat, wie die dem Klange entsprechende Wellenform usw., sei hier nur neben- bei bemerkt. Theorie. Sowcit die experimentellen Methoden. Beinahe gleichzeitig setzten nun aber mit Erfolg auch die Bestrebungen ein, die Schwingungszahl tönender Kör- per theoretisch zu ermitteln. Hier ist als Bahnbrecher Brook Taylor zu nennen; im Jahre 171 5 faßte er die z. T. schon früher bekannt gewordenen Ge- setze der schwingenden Saiten in eine absolute Formel zusammen, in der Länge, Dicke, Dichte und Spannung der Saite vorkommen. Bald darauf wurde dann eine entsprechende Formel für Orgelpfeifen aufgestellt, während für die übrigen Tonkörper das Problem wesentlich komplizierter wird. Kammerton. Bleibt immer noch eine fundamentale Feststellung oder richtiger Festset- zung (denn hier kommt es auf Übereinkunft an) zu machen. Es muß der irgend- einer bestimmten Schwingungszahl entsprechende Ton einen Namen erhalten, der von allen Beteiligten respektiert wird; oder umgekehrt: es muß irgendeinem bestimmten, musikalisch benannten Tone eine bestimmte Schwingungszahl zu- geschrieben werden. Man braucht nur einigermaßen in den Zuständen früherer Zeiten, ihrer politischen und kulturellen Zersplitterung, bewandert zu sein, um zu begreifen, daß hier bis in die neueste Zeit hinein nichts zu machen war; und erst im Jahre 1881 wurde auf der internationalen Stimmtonkonferenz in Wien vereinbart und von den meisten Kulturstaaten offiziell bestätigt, daß fortan der sog. Kammerton, das eingestrichene a (im Violinschlüssel zwischen der zweiten und dritten Notenlinie geschrieben) derjenige Ton sein solle, der ent- steht, wenn in der Sekunde 435 ganze Schwingungen, d. h. Hin- und Hergänge (oder 870 einfache Schwingungen) ausgeführt werden. Auf dieser Grundlage entspricht das tiefste in der Musik brauchbare C einer Schwingungszahl von 16,17 u^d dessen zehnte Oktave, einer der höchsten noch wahrnehmbaren Töne, der Schwingungszahl 16554.

Temperierte and Über den Aufbau der Tonreihe kann hier nur weniges gesagt werden.

reme Stimmung. gQ^Q^j jjg pythagorcischc Mcthodc der Quintenfolge als auch die Methode der durch die einfachsten Frequenzverhältnisse charakterisierten Intervalle liefert je nach dem Ausgangspunkt ganz verschiedene Tonleitern, macht also bei den Instrumenten mit festen Tönen den Übergang von einer Tonart zur anderen unmöglich. Es bleiben daher nur zwei Wege übrig: entweder die reinen Töne werden zwangsweise so abgeändert, daß sich die Oktave aus zwölf ganz gleichen Halbtönen aufbaut, oder es wird in der mathematischen Bildung neuer reiner Töne bis an die Grenze der Unterscheidungs - Empfindlichkeit unseres Ohres gegangen. In jenem Falle gelangt man zu der seit zwei Jahr- hunderten herrschenden „gleichförmig temperierten Stimmung", in diesem zum Bau besonderer, vieltastiger Instrumente, die man natürliche oder mathe- matische Harmonien nennt. Solche Instrumente sind u. a. vonHelmholtz,

Stimmung, Stärke, Klang 85

Bosanquet, Blaserna und Eitz angegeben worden, letzteres enthält für jede Oktave 104 Töne und erlaubt alle Modulationen auch modernster Musik rein zu spielen. Es unterliegt keinem Zweifel, daß die reine Stimmung viel größeren Genuß gewährt und daß uns die temperierte nur durch Gewöhnung an ihre Fehler erträglich geworden ist; nach Lage der Dinge wird sie aber für absehbare Zeit herrschend bleiben.

Die Höhe ist nur das eine von mehreren Kennzeichen eines Tones. Ein Tonst&rke. zweites ist seine Stärke. Dieses Problem ist nun überaus schwer zu bemei- stern, und es ist daher erklärlich, daß es erst sehr spät, um 1850, einsetzt und, wenn man offen sein will, noch jetzt nicht als vollständig gelöst anzusehen ist. Es liegt das erstens an dem Unterschiede zwischen objektiver und subjektiver Tonstärke (Reiz und Empfindung), zweitens, wenn wir uns weiterhin auf die objektive Tonstärke beschränken, an der Zusammenwirkung mehrerer Faktoren, insbesondere der tönenden Masse und der Geschwindigkeit der Schwingungs- bewegung. Vom energetischen Standpunkte aus muß natürlich die kinetische Energie als maßgebend angesehen werden; aber es zeigt sich, daß dies nicht allgemein stimmt, und man kann nur im großen ganzen sagen, woran das liegt: daran, daß es sich hier nicht um eine reine Dauererscheinung handelt, auch um keine reine Impulserscheinung, sondern um etwas Dazwischenliegendes. Auch läßt sich denken, wie schwer derartige Feststellungen zu machen sind, wo doch die tönende Masse im allgemeinen gar nicht scharf begrenzt ist, sondern sich im umgebenden Medium fortsetzt und auch dessen Energie mit hereinzieht. Im- merhin ist im einzelnen viel des Interessanten festgestellt worden, so die Tat- sache, daß schon ein Energiebetrag, der über alle Vorstellung klein ist, genügt, um einen hörbaren Ton auszulösen (Lord Rayleigh, Max Wien).

Das dritte Charakteristikum eines Tones ist sein Klang oder, wie jetzt Klangfarbe. auf den Vorschlag von Helmholtz hin vielfach gesagt wird, seine Klang- farbe. Hier hat sich nun im Laufe der Zeit ein Problem und eine Lösung er- geben, die zu dem Interessantesten und Bewundernswürdigsten gehören, was der menschliche Geist aufzuweisen hat. Wenn einem Tone eine Schwingungsbe- wegung zugrunde liegt, so muß jeder Qualität des Tones auch eine Eigenschaft der Schwingungen entsprechen; nun sind zwei von diesen Beziehungen zweifels- frei: die Tonhöhe beruht auf der Schwingungszahl oder Frequenz der Schwin- gungen, d. h. auf der Anzahl der Schwingungen, die in einer Sekunde aus- geführt werden; und die Tonstärke beruht, wenn man sich der Einfachheit halber einen Massenpunkt als Tongeber denkt, auf der Amplitude der Schwin- gungen, d. h. der Weite des Hin- und Herganges. Was bleibt nun noch für den Klang übrig? Offenbar niu: das Detail der Schwingungen, das Geschwindig- keitsgesetz, nach dem sich der Funkt bei jedem einzelnen Hin- und Hergange bewegt: während der ganzen Periode gleichförmig oder in der Mitte am schnellsten oder nach einem von vielen andern möglichen Gesetzen. Denkt man sich die Schwingungen nach der uns schon bekannten graphischen Methode auf einem senkrecht zur Schwingungsrichtung gleichförmig fortschreitenden Papierblatt verzeichnet, so erhält man aus der Schwingung eine Welle, und

86 2. Feux AUERBACH: Historische Entwicklung und kulturelle Beziehungen

ihre Weilenlänge ist bezeichnend für die Höhe, ihre Wellenhöhe ist be- zeichnend für die Stärke des Tones; bleibt für den Klang charakteristisch die Form der Welle: sanfte Wellenlinien, Zackenlinien, Wellenlinien mit mehreren Gipfeln verschiedener Höhe usw., also allgemein: die,, Schwingungsform''. Diese also ist das Maßgebende für den Klang.

Nun gibt es aber noch eine andere mögliche und beinahe ebenso zwingende Erklärung des Klanges, die sogar den Vorzug unmittelbar empirischer Beweis- barkeit hat; sie ist fast gleichzeitig mit jener ersten aufgetreten, und der Auto- rität eines Seebeck für jene stellte sich die Autorität eines Ohm für diese ent- gegen. Wenn man einen Ton mit irgendeinem Instrument, z. B. einer Saite oder einer Pfeife, erklingen läßt, so hört man außer dem Grund ton auch har- monische Obertöne, d. h. Töne von der doppelten, dreifachen, vier- fachen usw. Frequenz des Grundtons (musikalisch: Oktave, Duodezime, Doppel- oktave usw.); und diese Obertöne haben für jeden Tonkörper verschiedene Intensität; wenigstens hört man sie, sobald man seine Aufmerksamkeit auf sie richtet; und sobald man das tut, tritt eine zweite Beobachtung ein: man verliert die spezifische Klangempfindung, man hört eben Grundton und Obertöne, alle von einem gewissen einfachen, reinen, leeren Charakter. Daraus geht doch unzwei- felhaft hervor, daß der Klang eines Tones auf der Stärke der dem Grundton beigesellten Obertöne beruht, und diese Theorie läßt sich nun ins einzelne ver- folgen und dabei fast bis zur Gewißheit beweisen.

Welche von beiden Theorien ist nun die richtige ? Die eine oder die andere ? Auf diese Frage hat die Geschichte die merkwürdigste Antwort gegeben, die sich denken läßt : die eine u n d die andere. Die beiden Theorien sind nämlich identisch, nur die Ausdrucksweise ist verschieden. Der Grundstein zur Erkenntnis dieser merkwürdigen Identität ist schon im 1 8. Jahrhundert durch die großen Analy- tiker, insbesondere durch £u 1er, D*Alembert undLagrange, gelegt worden, der Schlußstein ist dann im Anfang des 19. Jahrhunderts von Fourier aufgesetzt worden. Ein Klang ist, wie wir sahen, graphisch charakterisiert durch eine Welle

von bestimmter Gestalt. Nun haben aber die ge-

Z nannten Mathematiker bewiesen, daß sich jede be- liebige Welle zusammensetzen läßt durch Überein- ^^' ** anderlagerung lauter einfacher Sinuswellen, nur von

verschiedener Höhe, und alle von Wellenlängen, die sich wie die natürlichen Zahlen verhalten. Jeder solchen einfachen Sinuswelle (statt deren Erklärung, die hier zu umständlich wäre, die beifolgende Zeichnung diene) entspricht aber ein einfacher Ton, z. B. der Ton einer sanft angeschlagenen Stimmgabel; ihnen allen entspricht daher die Reihe der harmonischen Partialtöne, und aus ihnen baut sich wieder der Klang auf. Man sieht, in wie überraschend einfacher Weise die eine Vorstellung zur anderen führt; und zugleich ist damit etwas nachgewiesen, was man sicherlich nicht von ferne vermutet hätte : daß nämlich das menschliche Ohr und die mathematische Analyse in völlig gleicher Weise verfahren, daß sie in derselben Weise Kompliziertes analysieren und umgekehrt Einfaches zu einem höheren Ganzen synthetisch verschmelzen. Freilich darf

Klangfiguren. Pfeifen 3y

nicht verschwiegen werden, daß immer noch ein gewisser, physiologisch- psychologischer Gegensatz zwischen beiden Auffassungen bestehen bleibt; und noch ganz neuerdings ist der Seebeckschen Auffassung, wonach das Ohr jede beliebige Periodik direkt als spezifischen Klang empfindet, ein ent- schiedener Fürsprecher erstanden.

Die Qualitäten des Tones : das war das erste große Kapitel der akustischen Entwicklung. Wir kommen jetzt zu einem zweiten, das mit jenem naturgemäß in mancherlei Beziehungen steht und zum Teil die gleichen Probleme umfaßt, aber doch von anderem Gesichtspunkte: die Töne, die von verschiedenen Ton-Tonorreger. körpern geliefert werden, der Schwingungszustand, der diesen Tönen ent- spricht und die Art, wie dieser Schwingungszustand, also jene Töne erregt wer- den. Das älteste und einfachste hierhergehörige Problem betrifft die Höhe der Töne. Da braucht nun nach dem schon Gesagten nur noch einzelnes hin- zugefügt zu werden, was etwa von allgemeinerem Interesse ist. So, um mit den Tonkörpern festen Aggregatzustandes zu beginnen, die Schwingungsformen und die entsprechenden Töne von Membranen und Platten. Man weiß, daß unsere Kenntnisse in dieser Hinsicht so recht erst einsetzen mit den genialen Methoden und Versuchen Chladnis, jenes Autodidakten, der das ganze Gebiet der Akustik in erstaunlicher Weise befruchtet und auf Jahrzehnte hinaus in einigen Haupt- zügen festgelegt hat. Kein Wunder, daß insbesondere die C h 1 a d n i sehen Klang- Kiangfigun figuren, jene durch feinen Sand hervorgerufenen Zeugnisse der Schwingungs- formen von Membranen und Platten, mit ihrer erstaunlichen Mannigfaltigkeit und Gesetzmäßigkeit weltberühmt geworden sind und bis auf die heutige Zeit geschickte Experimentatoren beschäftigen und geschickte Mathematiker zur theoretischen Darstellung anregen. Ist dieses Thema sonach wenigstens in sei- nen Hauptzügen erledigt, so steht es um eine Abart der Klangplatten, die Glok- ken, die sich doch nur durch ihre Krümmung von jenen unterscheiden, in wis- senschaftlicher Hinsicht noch immer recht mißlich; es ist nicht gelungen, eine allgemeine Lösung des Problems zu gewinnen, und es muß noch vieles der rohen Empirie überlassen bleiben, deren Erfolge, wie man weiß, nicht immer den be- rechtigten Erwartungen entsprechen.

Unter den luftförmigen Tonkörpern stehen die zylindrischen Pfeifen Weifen, an Bedeutung weit voran, und ihre Theorie ist auch bis zu einem gewissen Punkte recht einfach, insofern man sie in Parallele bringen kann mit der der Saiten. Allerdings besteht ein fundamentaler Unterschied: die Saiten schwingen transversal, d. h. jeder ihrer Punkte bewegt sich quer gegen die Saitenlänge; die Luft in den Pfeifen dagegen schwingt longitudinal, d. h. jedes Luft- teilchen bewegt sich in der Längsrichtung der Pfeife hin und her; dort treten Gestaltsänderungen, hier Dichteänderungen (Verdichtungen und Ver- dünnungen) auf. Hiervon abgesehen, ist bei den Pfeifen wie bei den Saiten die Schwingungszahl mit der Länge umgekehrt proportional, so daß sich für jede Oktave die Pfeifenlänge auf die Hälfte verkürzt. Dagegen tritt hier eine dort fehlende Mannigfaltigkeit auf: es gibt gedeckte und offene Pfeifen, richtiger gesagt: Pfeifen, die an dem der Erregung entgegengesetzten Ende

en.

88 2. Felix Auerbach: Historische £ntwicklung und kulturelle Beziehungen

geschlossen und solche, die an beiden Enden offen sind. Nun ist es zwei- fellos, daß am Erregungsende ein Schwingungsbauch, d. h. ein Maximum der Amplitude erzeugt wird, und daß am geschlossenen Ende sich ein Knoten, d. h. ein Minimum, bildet, so daß sich im einfachsten Falle in der gedeckten Pfeife eine Viertelwelle herausbildet (eine ganze Welle reicht nämlich, bildlich ge- sprochen, vom Knoten über Berg, Mittelknoten und Tal zum Endknoten, und von diesen vier Stücken enthält das Pfeifeninnere nur eins). Nimmt man ander- seits für die offene Pfeife, was am nächsten liegt, an, daß sie an beiden Enden Schwingungsbäuche aufweist, zwischen die sich in der Mitte ein Knoten ein- fügt, so erhält man hier eine halbe Welle. Die Wellenlänge des Grundtones be- trägt also dort vier, hier dagegen nur zwei Pfeifenlängen; man kommt also zu

dem Schlüsse, daß von zwei Pfeifen gleicher Länge die offene die höhere Oktave der gedackten B . K B (so ist der musikalische Ausdruck) liefert. Das

^*»-"- ist nun, wie man sich durch abwechselndes

Schließen und Wiederöffnen einer offenen Pfeife überzeugen kann, annähernd der Fall; aber sofort wird man auch gewahr, daß es nicht genau stimmt: der höhere Ton bleibt hinter der Oktave etwas zurück, und diese Abweichung ist von den Orgelbauern schon seit alten Zeiten stillschweigend berücksichtigt worden, indem man die Pfeifenlänge entsprechend korrigierte. Aber erst Helm - holtz hat gezeigt, woher diese Unstimmigkeit stammt: die Welle, die sich innerhalb der Pfeife ausbildet, braucht eine gewisse Übergangsstrecke, um sich in die sphärische Wellenform zu verwandeln, die sie in der freien Luft natur- gemäß annimmt; der Schwingungsbauch liegt demgemäß nicht in der Öffnung, sondern etwas weiter draußen. Daß diese Erklärung richtig ist, ergibt sich un- zweideutig aus dem Umstände, daß bei Blasinstrumenten, deren Rohr nicht plötzlich abschneidet, sondern sich trompetenförmig erweitert, jene Korrektion nicht erforderlich ist, hier findet eben die Umwandlung der Welle noch inner- halb des Rohrs, nämlich seines sich erweiternden Endes statt. Es sei bemerkt, daß sich im Anschluß an die Arbeit von Helmholtz eine sehr interessante Theorie, die des akustischen Widerstandes, herausgebildet hat, an der beson- ders Lord Ray leigh beteiligt ist, und die diese Schallprobleme in eine gewisse Analogie mit denen des elektrischen Widerstandes gebracht hat.

Wenn schon bei zylindrischen Pfeifen derartige Verwicklungen eintreten, so wird man sich nicht wundern, zu hören, daß die Theorie der kubischen Pfeifen überaus kompliziert ist, und das sehr bedauerlicherweise, da diese Körper zwar als Tonerreger keine allzu große Rolle spielen, eine desto wichtigere aber in einer anderen Hinsicht, auf die später eingegangen werden wird. Im- merhin haben Helmholtz, Lord Rayleigh und Sondhaus es vermocht (teils auf theoretischem, teils auf experimentellem Wege, der zur Bestätigung der Theorie führte), die Gesetze der Tonhöhe kubischer Pfeifen in Abhängigkeit von der Größe des Hohlraums und der Größe der Öffnung wenigstens in großen Zügen festzustellen; und später ist dann Kirchhoff in mancher Hin- sicht noch ein gut Stück weitergekommen.

Offene und kubische Pfeifen. Saiten Sg

Bei den angeführten Beispielen von Tonkörpern mag es, soweit die Ton- KUng der höhe in Frage kommt, genügen. Viel interessanter ist nun weiter die Frage, ^x^erregw" welche Schwingungsformen die verschiedenen Tonkörper annehmen; denn damit hängt ja, wie wir wissen, der Klang ihrer Töne zusammen. Das geeig- netste Beispiel liefern hier die Saiten, wie sie bei so vielen Musikinstrumenten den eigentlichen Tonerreger bilden. Da ist es ja längst bekannt, daß es ganz wesentlich für den Klang ist, auf welche Weise eine Saite erregt wird; und damit stimmt es, daß, wie die feineren neueren Methoden gezeigt haben, gerade die Erregungsweise ganz besonders maßgebend ist für die Schwingungsform. In früheren Zeiten hat man diesem Problem ratlos gegenübergestanden; erst die graphische und ganz besonders die photographische Methode hat hier Brauch- bares ans Licht gebracht (in des Wortes wahrster Bedeutung). Wenn man einen Punkt der Saite gut beleuchtet und, während er hin und her schwingt, auf einem photographischen Streifen abbildet, der gleichzeitig in der zur Schwingungs- richtung des Punktes senkrechten Richtung vorüberzieht, so erhält man, wie schon gesagt, sehr verschiedene Wellenkurven, je nachdem man die Saiten durch Zupfen (wie bei der Harfe) oder durch Hämmern (wie beim Klavier) oder durch Streichen (wie bei der Geige) erregt; und in jedem dieser Fälle wieder verschie- dene Formen, je nach dem Saitenpunkte, den man primär erregt, und je nach dem Saitenpunkte, den man beobachtet; ferner, je nachdem man mit einem har- ten oder weichen, breiten oder spitzen Instrumente zupft, hämmert oder streicht. Die hier in Rede stehenden Untersuchungen und Aufnahmen rühren fast alle von Schülern des großen Helmholtz her, und es sind hier besonders Krigar- Menzel, Raps und Kaufmann zu nennen. Eine Wiedergabe von Photogram- men hat hier bei der geringen Auswahl, um die es sich doch nur handeln könnte, besonders mit Rücksicht auf die ungeheuere Mannigfaltigkeit der Kurvenfor- men, keinen Zweck; es bedarf schon einer eingehenden Analyse der Kurven und eines tiefgehenden Studiums, um aus den Formen die Gesetze der Klang- wirkung abzulesen. Natürlich kann man nun auch wieder die Auflösung in Obertöne vornehmen, und man findet dann, daß ihr Intensitätsverhältnis für jede Erregungsform eine charakteristische Reihe bildet, die mit dem spezi- fischen Charakter dieses Klanges in höchst interessanter Beziehung steht.

Im Zusammenhange mit der Analyse der Klangwirkung und insbesondere Erregungsweise. dem Einfluß, den hierauf die Erregungsart ausübt, steht das elementare Problem: wie kommt denn bei den verschiedenen Tonkörpern die Erregung überhaupt zustande ? Man hat hier einen der zahlreichen Fälle vor sich, wo der naive Praktiker, der intuitive Künstler, etwas auf die einfachste Weise von der Welt produziert, dessen Analyse dann den Gelehrten ungeahntes Kopfzerbre- chen macht. Schon bei den Saiten ergaben sich derartige Fragen, besonders bei der Erregung durch Streichen, die sich als außerordentlich verwickelt ergibt; es mag aber hier lieber ein anderer Fall betrachtet werden: die Erregung der Pfeifen, und zwar der gewöhnlichen Lippen- oder Orgelpfeifen (denn bei den Zungenpfeifen handelt es sich um ein zusammengesetztes Phänomen, das aber seinerseits wieder relativ einfach und daher schon frühzeitig, am vollkommen-

QO 2. Feux Auerbach: Historische Entwicklung und kulturelle Beziehungen

sten von den Gebrüdern Weber und später von Helmholtz aufgeklärt wor- den ist). Daß ein etwa an beiden Enden offenes Rohr beim Anblasen keinen Ton gibt, weiß man: die Luft wird eben in diesem Falle einfach durch das Rohr hindurchgetrieben. Es muß noch irgend etwas in die Erscheinung treten, da- mit aus der Strömung etwas Periodisches, eine Schwingungs- und Wellenbe- wegung werde. Das, was man aus der Erfahrung, aus den Tatsachen heraus weiß, ist, daß das Rohr eine Lippe, eine seitliche Spaltöffnung haben muß. Aber so einfach diese Voraussetzung, so schwierig, ja bis vor kurzem geradezu hoffnungslos war es, das Verständnis dafür zu gewinnen, was für eine Rolle denn diese Lippe gegenüber dem Anblasestrom spielt und wie die stehenden Schwingungen in dem Rohre zustande kommen. Erst in der neuesten Zeit ist hier durch Hensen und seine Schüler einerseits, durch Wachsmuth ander- seits, und zwar wiederum dank den fabelhaften Leistungen der photographi- schen Methode, ein wesentlicher Fortschritt erzielt worden, ohne daß es doch zu einer endgültigen Lösung des Problems gekommen wäre. Die beiden einander gegenüberstehenden Theorien, die Lamellentheorie und die Theorie der Schnei- dentöne, können hier nicht näher charakterisiert werden; es muß genügen, zu sagen, daß das in immer reicherem Maße beigebrachte Material weder für die eine noch für die andere Theorie völlig entscheidend ist, und daß man wahr- scheinlich auf die beiden Theorien gemeinschaftlich eine neue, freilich recht ver- wickelte, wird aufbauen müssen, die dann der Gesamtheit der Phänomene beim Anblasen von Pfeifen gerecht wird.

Überhaupt ist der scheinbar so einfache und in den verschiedensten Fällen

ganz naiv ausgeführte Prozeß der Tonerregung bei näherem Zusehen denn doch

merkwürdig rätselhaft. Es zeigt sich das am deutlichsten in der Tatsache, daß

TreveUyan- im Laufc der Zeiten immer mehr Spezialitäten entdeckt worden sind : Fälle von

Kff Akt.

ganz seltsamer Tonerregung, bei denen es minutiöser Studien bedurfte, um den sozusagen mikroskopischen Vorgang zu enthüllen und verständlich zu machen. Es können hier nur einige Beispiele angeführt werden. Da ist zunächst der Trevelly an- Effekt, zuerst beobachtet 1805 von Schwarz, dann 1825 von Robison und endlich 1829 von Trevellyan auf die jetzt bekannte Form ge- bracht: ein mit einem Stiel versehener, auf zwei durch eine Furche getrennten Schneiden auf eine Platte schräg aufgelegter Wackler gibt, wenn er heiß, die Platte aber kalt ist, einen klaren Ton von sich; die Erklärung liegt in der Wärmeausdehnung der Platte, durch die der Wackler mit der einen Schneide abgehoben und auf die andere herübergeworfen wird, worauf sich das Spiel in Wechselfolge wiederholt. Praktisch von großer Wichtigkeit ist ein anderer Apparat geworden, das Mikrophon, das fast gleichzeitig 1878 von Hughes in England und von Berliner in Amerika erfunden wurde und heute, wie man weiß, in der Telephonie eine entscheidende Rolle spielt. Es ist übri- gens kein tonerzeugender, sondern ein tonverstärkender Apparat, dessen Wirkung darauf beruht, daß ein loser Kontakt durch das Einwirken von Schallschwingungen abwechselnd fester und loser wird. Sein nächster Ver- wandter, der Kohärer (vgl. Artikel 18), gehört nicht hierher, sondern ins Ge-

Verschiedene Tonerreger gi

biet der elektrischen Schwingungen, obgleich er auch auf akustischem Wege beeinflußt werden kann.

Handelte es sich bisher um Töne fester Körper, so bieten die Erscheinun- AusfluBtön©. gen an Flüssigkeiten und Gasen fast noch Seltsameres dar. Von Flüssigkeits- tönen seien hier nur die von Cagniard La Tour 1834 entdeckten und von Savart 1853 studierten Ausflußtöne erwähnt, eine Erscheinung, die innig zu- sammenhängt mit der bekannten merkwürdigen Gestalt eines ausfließenden Strahls und ihren periodischen Veränderungen; ganz Ahnliches beobachtet man auch bei dem Ausströmen von Luft. Immerhin sind dies Erscheinungen, die besonderer Vorbereitungen bedürfen; in dieser Hinsicht viel faszinierender und darum auch in weiten Kreisen berühmt geworden sind die Flammentöne, die singende man an geeigneten Flammen ohne weiteres beobachten und studieren kann. Eigentlich handelt es sich hier um zwei verschiedene Phänomene: die singen- den Flammen, auch als chemische Harmonika oder Gasharmonika bezeich- net, und anderseits die empfindlichen Flammen; jedoch gehen beide Erschei- nungen in gewissem Sinne ineinander über. Im Jahre 1777 machte Higgins die Beobachtung, daß eine in ein vertikales, oben offenes Rohr eingebrachte Wasserstofflamme einen unter günstigen Umständen sehr kräftigen Ton er- zeugt; übrigens gelingt der Versuch mit Leuchtgas ebenso gut, und er kann, wie besonders Chladni gezeigt hat, in mannigfacher Weise variiert werden. Daß die Flamme dabei in Zuckungen gerät, erkennt man schon ohne weiteres; inter- essanter aber ist wieder die chronographische Auflösung, die hier am besten mit Hilfe des rotierenden Spiegels erfolgt, eines Apparates, der zwar schon vor hundert Jahren von Wheatstone benutzt wurde, den man aber in seiner heu- tigen Gestalt wie so viele andere akustische Apparate dem Geschick und Ver- ständnis des Deutschen Rudolph König verdankt, der jahrzehntelang in Paris eine ausgezeichnete Werkstätte unterhielt und den Sammelpunkt vieler akustischer Interessenten bildete. Im rotierenden Spiegel sieht man nebenein- ander große und kleine Flammenbilder, eine Art von Flammenkurven. Übrigens haben sich auch hier lange Zeit verschiedene Theorien bekämpft, bis man sich dahin einigte, daß es sich hier um einen ganz ähnlich verwickelten Vorgang han- delt wie beim Anblasen von Pfeifen, nur daß hier die Reibung noch einen ganz besonderen Einfluß ausübt und daß im Zusammenhange damit die seitliche Spalt- öffnung überflüssig wird. Bei den empfindlichen Flammen verhält es sich Empanduche umgekehrt: hier wird durch einen äußeren Ton, der irgendwie erzeugt wird, eine Flamme in Zuckungen versetzt, und es kommt nur darauf an, die Einzelheiten der Anordnung so zu treffen, daß das Verhältnis zwischen Ursache und Wirkung ein besonders phänomenales wird : schon ein leises Pfeifen oder die Erzeugung eines kaum hörbaren Zischlautes genügt dann, um die Flamme mächtig zu erre- gen; ein derartiges Verhältnis zwischenUrsache und Wirkung ist aber geeignet, ge- rade auf Laien besonders stark zu wirken. Die empfindlichen Flammen sind 1857 von Le c o m t e zuerst eingehend beschrieben und später namentlich von T y n d a 1 1 in England und vomGrafen Schaf fgotsch in Deutschland studiertworden, wobei ganz merkwürdige Beziehungen und scheinbare Anomalien zutage getreten sind.

Q2 2. Feux Auerbach: Historische Entwicklung und kulturelle Beziehungen

Und nun die große Reihe von Phänomenen, die in der neuesten Zeit im Zusammenhange mit den lebhaften Studien über Elektrizität und Strahlung entdeckt worden sind : die Töne durch Bestrahlung und die darauf beruhenden Apparate wie Photophon, Radiophon usw. Endlich der 1898 von Simon entdeckte tönende elektrische Flammenbogen, der nicht nur wissen- schaftlich von hohem Interesse ist, sondern auch in der Praxis als mikro- phonischer Empfänger, als telephonischer Sender sowie bei den verschiedenen neueren Anordnungen für Nachrichtenübermittelung eine wichtige Rolle spielt. Resonanz. So intcrcssant aber auch alle diese einzelnen Erregungsarten von Tönen sein mögen, sie treten an allgemeiner Bedeutung zurück hinter einer solchen von sozusagen höherer Ordnung, die ihrerseits wieder in viele der Einzelarten ein- greift und ihre Fäden nach allen Seiten, sogar über das Gebiet der Akustik hinaus, erstreckt. Es ist bezeichnend für den Umschwung im Geiste wissen- schaftlicher Forschung, für die Vertiefung unserer Erkenntnis, daß dieses wich- tige Phänomen in seiner Allgemeinheit und seinem reichen Detail erst in neuerer, zum Teil sogar erst in neuester Zeit studiert worden ist. Nicht, daß das Phänomen selbst unbekannt geblieben wäre, im Gegenteil, es ist so überaus einfach und eindrucksvoll und verbreitet, aber es wurde naiv hingenommen, naiv verwertet, und selbst mit einem gewissen Grade von Naivität in der Wissenschaft behan- delt. Es ist das Phänomen der Resonanz.

Nehmen wir ein einfaches mechanisches Modell : einen Faden mit einer Blei- kugel am Ende, also ein Pendel! Man kann es in Schwingung versetzen, indem man es mit der einen Hand am oberen Fadenende festhält, mit der anderen an der Kugel erfaßt, bei Seite hebt und losläßt; es gerät dann in Schwingungen, die man als freie Schwingungen bezeichnet, und deren Periode eben die dem Körper charakteristische Eigenperiode ist. Nun kann man aber auch anders verfahren, man kann, ohne die Kugel zu berühren, das obere Fadenende perio- disch hin und her führen; auch dann wird die Kugel in Bewegung geraten, im allgemeinen freilich in schwache und unregelmäßige, und nur dann in kräftige, regelmäßige Schwingungen, wenn man die Periode der Handbewegung richtig getroffen hat, nämlich identisch mit der Eigenperiode des Pendels. Man nennt ' derartige Schwingungen, die durch eine anderweitige Schwingungsbewegung mit hervorgerufen werden, erzwungene Schwingungen, das Phänomen selbst aber Mitschwingen. Ganz entsprechend ist die Erscheinung bei zwei in der Nähe voneinander aufgestellten Stimmgabeln oder Orgelpfeifen, deren eine erregt wird, worauf dann die andere, falls sie mit der ersten im Einklang steht, ihrerseits ertönt; in diesem akustischen Falle bezeichnet man das Mit- schwingen als Resonanz. Die Übereinstimmung der beiden Tonhöhen muß schon recht exakt sein, damit das Experiment gut gelinge, bei der kleinsten Verstimmung wird die Resonanz schon erheblich schwächer, und bei einiger- maßen beträchtlicher Verstimmung bleibt sie vollständig aus. Ein ebenso lehr- reicher Versuch hierzu ist das Halten einer angeschlagenen Stimmgabel über einen oben offenen Glaszylinder, den man mit Hilfe eines Hebers oder derglei- chen rasch bis zu beliebiger Höhe mit Wasser füllen kann; die über dem Wasser

Resonanz

93

befindliche Luftsäule wird nämlich durch die an sich kaum hörbare Gabel in Mit- schwingung versetzt, und zwar nur dann in kräftige, noch weithin hörbare, wenn die Luftsäule auf den Gabelton abgestimmt ist, was nur bei bestimmter Höhe der Säule der Fall ist. Sowie sich der Wasserspiegel ein wenig hebt oder senkt, wird der Ton sofort viel schwächer und verschwindet bald ganz.

Hiernach könnte man nun geneigt sein, das Resonanzphänomen für recht einfach und klar zu erachten; es genügt ein Blick auf andere Spezialfälle, um zu sehen, daß das durchaus nicht der Fall ist. Zunächst kann man der soeben beschriebenen Form der Resonanz, der singulären oder bestimmten, eine zweite, die multiple, zur Seite stellen: das Mitschwingen eines Körpers auf einen anderen, auch wenn er mit ihm nicht im Einklänge steht, sondern eine Schwingungszahl besitzt, die ein ganzes Vielfaches von der des Erregers ist; man kann das leicht an zwei Stimmgabeln, die im Oktavenverhältnis stehen, beweisen, muß dabei aber allerdings bedenken, daß die meisten Tonerreger, und selbst, wie sich neuerdings herausgestellt hat, die Stimmgabel, die Oktave des Grundtons ohnehin in ihrem Klange enthalten. Am weitesten verbreitet und insbesondere für die Musik am wichtigsten ist eine dritte Form der Resonanz: die allgemeine oder unbestimmte Resonanz. Die Beispiele hierfür brauchen nicht von weit hergeholt zu werden: die Lufträume der Streichinstrumente bie- ten sie in typischer Form dar. Der Hohlraum des Cello reagiert auf den ganzen Bereich der tiefen, der der Geige auf den ganzen Bereich der hohen Töne; es ist geradezu eine Anforderung an ein gutes Instrument, daß der Hohlraum keinen der Töne, die die Saiten liefern, in besonderem Maße bevorzuge. Man entnimmt auch sofort den gewählten Beispielen die Umstände, unter denen be- stimmte oder unbestimmte Resonanz auftreten wird: jene ist den eindimensio- nalen Körpern eigentümlich sowie denjenigen kubischen, deren Dimensionen klein sind im Vergleich mit den betreffenden Tonwellen; die größeren kubischen Räume dagegen liefern im allgemeinen unbestimmte Resonanz. Natürlich ent- wickelt sich diese letztere allmählich aus der multiplen, wenn die Resonanztöne so nahe aneinander rücken, daß sie eine stetige Reihe bilden; und es geht dar- aus auch hervor, daß mit dem vorstehenden nur das allgemeine Schema ge- geben ist, während im einzelnen die Verhältnisse viel komplizierter sich gestal- ten. So sind z. B. im Laufe der Zeit von Helmholtz , Stern, Schäfer u. a. sog. Resonatoren konstruiert worden, die teils zylindrisch, teils sphärisch Resonatoren, geformt sind und, je nach ihren Öffnungsverhältnissen, mehr oder weniger aus- geprägte Einzellesonanz liefern, die besten derart scharfe, daß sie geradezu als Detektoren für verborgene Töne benutzt werden können.

Um aber das Resonanzproblem tiefer zu erfassen, muß man die Wechsel- wirkungen und Beziehungen des Phänomens zu anderen Erscheinungen ins Auge fassen. Erst durch dieses, der neueren Zeit vorbehaltene Unternehmen ist die Resonanztheorie auf die volle wissenschaftliche Höhe gebracht worden, und zugleich ist damit die gesamte Akustik in ein neues Stadium getreten, dank den Arbeiten hervorragender Theoretiker und Experimentatoren, unter denen Helmholtz, Max Wien und Hartmann-Kempf hervorgehoben zu wer-

Q4 2* Feux Auerbach: Historische Entwicklung und kulturelle Beziehungen

den verdienen; jedoch sei ausdrücklich betont, daß es im Rahmen dieses Wer- kes und mit den hier benutzbaren Hilfsmitteln nur möglich ist, eine ganz unge- fähre Vorstellung von den betreffenden Ideen und Ergebnissen zu gewinnen. Der erste Schritt auf diesem Wege ist die Feststellung der Beziehung zwischen Dämpfung. Resonanz und Dämpfung, jenem Vorgange, der die Schwingungen immer schwächer werden und zuletzt erlöschen macht. Ein Tonkörper, der keine oder nur sehr geringe Dämpfung besitzt, der lange Zeit hindurch mit gleichmäßiger Stärke fortklingt, wie z. B. eine auf einem Resonanzboden stehende Stimmgabel, wird auf einen Erreger sehr stark reagieren, aber nur bei genauem Einklang; anderseits wird ein Körper mit starker Dämpfung, wie z. B. die Membran einer Trommel, viel schwächer resonieren, aber dafür in einem weiten Bereiche der erregenden Schwingung, da ja ihre Eigenschwingung sich wegen der starken Dämpfung nicht sonderlich geltend machen kann. Es besteht also das Gesetz: je stärker die Dämpfung, desto flacher und breiter, je schwächer die Dämpfung, desto stärker und spitzer ist die Resonanz. Es sei gleich hier bemerkt, daß die- ses Gesetz wie alle folgenden sich auf einem ganz anderen Gebiete wiederfindet und hier eine ungeheure Bedeutung für die Praxis erlangt hat: bei den elektri- schen Schwingungen, bei der Funkentelegraphie, bei der es sich ja ebenfalls um kräftiges Mitschwingen handelt, und bei der daher die Frage nach der Benut- zung gedämpfter oder ungedämpfter Schwingungen eine große Rolle spielt (vgl. ArtikeliSund 19). Einzweites Problem betrifft die Energetik der Resonanz, die namentlich M. Wien behandelt und dabei gezeigt hat, daß es bei der Er- scheinung und ihren Konsequenzen sehr wesentlich auf den Umstand ankommt, daß bei Vergleichung verschiedener Tonhöhen die Fälle größter Schwingungs- amplitude und größter Energie durchaus nicht zusammenfallen, sondern unter Umständen weit auseinanderliegen können, wodurch sehr merkwürdige Kompli- KaMnaas kationen entstehen. Drittens wird bei der Resonanz noch eine weitere Eigen tüm- "" "*' lichkeit der Schwingungen, auf die bisher nicht besonders eingegangen wurde, in Mitleidenschaft gezogen: die Phase der Schwingung. Diese Phase spielt zwar im allgemeinen für die Akustik, d. h. für unser Ohr, keine Rolle, aber sie macht sich doch indirekt vielfach geltend, und rein mechanisch kann man sie sehr leicht und mannigfach in die Erscheinung treten lassen, so bei den bekannten Lissajous- Figuren, erzeugt durch zwei senkrecht zueinander schwingende Punkte, deren gemeinsames Schwingungsergebnis auf den Projektionsschirm geworfen wird. Bei zwei im Unisono stehenden Stimmgabeln müßte man z. B., wenn beide gleich- zeitig zu schwingen anfangen, die eine senkrecht, die andere wagrecht, eine Diagonallinie erscheinen sehen; man sieht aber in der Regel ein Oval oder einen Kreis, eben weil im allgemeinen zwischen den beiden Gabeln eine Phasen- differenz besteht, d. h. weil sie nicht gleichzeitig zu schwingen anfangen. Bei der Resonanz zeigt sich nun, daß die Phase der Sekundärschwingung zu der der primären in einem eigentümlichen Verhältnis steht: sie ist, je nach der Beziehung zwischen den beiden Schwingungszahlen, hinter ihr zurück oder vor ihr voraus, und der Übergang von dem einen zum anderen Falle findet desto plötzlicher statt, je geringer die Dämpfung ist, derart, daß bei ganz gerin-

Resonanz, Dämpfung und Koppelung q5

ger Dämpfung im Momente der stärksten Resonanz geradezu ein ,, Phasen- sprung" eintritt. Viertens liegt die Sache gar nicht so einfach, daß der eine Körper bloß erregt, der andere bloß erregt wird, es findet vielmehr eine Rück- wirkung des resonierenden Systems auf das erregende, kurzum eine Wechsel- wirkung zwischen beiden statt, und gerade diese macht das Problem erst so recht eigentlich interessant. B^ kommt dabei auf die Beziehung der beiden Systeme zueinander an, auf das, was man in der technischen Mechanik und nun übertragen auch in unserem Falle sowie in dem entsprechenden elektrischen die Koppelung der beiden Systeme nennt, die alle Grade der Enge oder Weite Koppeinng. durchlaufen kann und ihrerseits wiederum in Beziehung zur Dämpfung steht. Alle diese und noch manche andere Einzelheiten der Resonanz sind von M a x W i e n akustisch und elektrisch durchgerechnet worden, so daß wir zurzeit eine schöne Theorie besitzen (vgl. Artikel 19). Die experimentellen Arbeiten anderseits, die größtenteils die Theorie vollkommen bestätigen, sind, außer von Wien selbst, von Hartmann-Kempf, Warburg, König u. a. durchgeführt worden. Ins- besondere hat Hartmann-Kempf mit einem vorzüglichen Apparat von Zungen und Gabeln sowie nach fein durchdachten graphischen und anderen Methoden die Dämpf ungs- und Resonanzverhältnisse zur Anschauung gebracht und ge- zeigt, was für merkwürdige Anomalien dabei auftreten, die sich natürlich schließlich als nur scheinbar erweisen.

Mit dem Resonanzproblem steht ein anderes, das für die Praxis von un- mittelbarer Wichtigkeit ist, in nahem Zusammenhange: das Problem der Aku- stik der Gebäude, insonderheit der Säle, in denen vor einer mehr oder weniger großen Hörerschaft gesprochen oder musiziert wird. Indessen kommt hier noch eine zweite Wurzel in Frage, der wir zuerst nachgraben müssen: die Frage nach der Fortpflanzung des Schalles, ihrer Geschwindigkeit, ihren Gesetzen und ihren Anomalien.

Die Geschwindigkeit, mit der sich der Schall in der Luft fortpflanzt, schau- ist schon frühzeitig sowohl theoretisch berechnet als experimentell zu ermitteln ^**^ ^ * ***" versucht worden. Die Berechnung erfolgt auf Grundlage der an sich unbestrit- tenen Annahme, daß es sich hier um Longitudinalwellen in einem Medium von bestimmter Dichte und Spannung handelt, und sie lieferte dem großen Newton im Jahre 1686 das Ergebnis, daß die Fortpflanzungsgeschwindigkeit gleich sein muß der Wurzel aus dem Verhältnis der Spannung zur Dichte; für die freie atmosphärische Luft kommt man so zu der Zahl 280 m pro Sekunde, einem Werte, der schon durch die ältesten rohen Versuche, die nach der Signalme« thode (Zeitdifferenz zwischen dem Lichtblitz und dem Knall einer Kanone) an- gestellt wurden, widerlegt wird, da sie sämtlich Werte zwischen 320 und 360 ergeben. Erst 130 Jahre später, im Jahre 18 16, vermochte Laplace den Feh- ler in der Newtonschen Formel aufzudecken: sie wäre nur dann richtig, wenn die Luftschwingungen isotherm verliefen, d. h. ohne Änderung der Tempera- tur. Das tun sie aber nicht, weil durch die fortwährenden Kompressionen Wärme, durch die Verdünnungen Kälte erzeugt wird und diese Wärme bzw. Kälte zwar im Prinzip die Freiheit hat, in die Umgebung abzufließen, tatsäch-

q6 2. Felix Auerbach: Historische Entwicklung und kulturelle Beziehungen

lieh das aber nicht vermag aus dem einfachen Grunde, weil sich die Verdich- tungen und Verdünnungen viel zu rasch folgen; akustische Schwingungen sind, wie man sagt, selbst in offenen Räumen adiabatisch. Infolgedessen kommt in die Newtonsche Formel noch ein Faktor hinein, dessen Zahlenwert 1,19 ist, und der nun ein wirklich glaubhaftes Ergebnis: 332 m pro Sekunde, liefert (vgl. Artikel i). Diese Zahl ist dann durch Experimente, die in immer einwandfreiere Form gebracht wurden, vollauf bestätigt worden: durch die Koinzidenzmethode von B osscha, durch die verschiedenen Interferenz- und Resonanzmethoden, und namentlich durch die Kund tsche Methode der stehenden Wellen; stehende Wellen sind solche, bei denen der Wellengipfel nicht fortschreitet, sondern immer an derselben Stelle bleibt; bei denen also nicht, wie bei den fort- schreitenden Wellen, jeder Wellenpunkt einmal das Maximum der Amplitude annimmt, sondern gewisse Stellen immer Bäuche, andere immer Knoten (Stellen geringster Amplitude) sind. Dieser Methode der stehenden Wellen müssen noch ein paar Worte gewidmet werden, weil sie einen großen und nicht bloß methodischen Fortschritt der Wissenschaft darstellt, der in voll- kommenem Parallelismus steht mit zwei anderen Leistungen des vergangenen Jahrhunderts: den Hertzschen Versuchen mit elektrischen stehenden Wellen und dem von Wiener geführten Nachweis stehender Lichtwellen ; wenn K u n d t , Hertz und Wiener nichts weiter getan hätten als dies, so würde sie das allein schon unter die Bahnbrecher einreihen.

Eine Geschwindigkeit kann man entweder direkt messen, indem man die Strecke und die zu ihrer Zurücklegung erforderliche Zeit mißt (das geschieht bei den älteren, oben genannten Methoden) oder, sobald es sich um eine Wellen- bewegung handelt, in der Weise, daß man die ursprünglich fortschreiten- den Wellen in stehende verwandelt und bei diesen stehenden das Verhältnis der Wellenlänge zur Periode oder, was dasselbe ist, das Produkt aus Wellen- länge und Schwingungszahl (Frequenz) bestimmt. Nach Kundt verwendet man dazu eine durch einen Stab erregte, in ein Glasrohr eingeschlossene Luft- säule, in deren Innern sich hineingebrachtes feines Pulver beim Tönen des Rohres in regelmäßigen Rippungen, und zwar in Abständen gleich der halben Wellenlänge des Tones, anordnet; diese Abstände mißt man mit einem Maßstabe aus, während man gleichzeitig den Ton mit dem einer bekannten Stimmgabel vergleicht. Man erhält alsdann, mit der Theorie übereinstimmend: 332 m pro Sekunde, gültig für trockene Luft von ungefährer Zimmertemperatur.

Natürlich ist, wie schon aus der letzten Bemerkung hervorgeht, dieser Wert nur ein Normalwert. Er ändert sich schon bei Luft infolge der verschie- densten Einflüsse, als da sind: Temperatur, Feuchtigkeit, Einschluß in Rohr- leitungen von erheblicher Länge u. a. m. Er nimmt dann bei anderen Gasen, die man ja nach der Ku n d t sehen Methode ebenfalls sehr bequem untersuchen kann, sowie bei festen Körpern und Flüssigkeiten ganz andere Werte an, teils viel kleinere, wie imÄther (177) oder gar im Kautschuk (unter 100), teils viel größere, wie im Wasser (1440) oder gar im Holz (bis zu 5000). Unter den Messungen, die die Gase betreffen, muß wenigstens eine ganz kurz erwähnt werden, obgleich es

Schallgeschwindigkeit gj

sich dabei um einen akustisch nicht sonderlich interessanten Fall handelt: die schöne Arbeit von Kundt und Warburg aus dem Jahre 1876, betreffend die Schallgeschwindigkeit im Quecksilberdampf; sie erhält ihre Bedeutung da: durch, daß der durch die Laplacesche Formel eingeführte Korrektionsfaktor bei diesem Stoffe einen sehr hohen Wert erhält, weil nach der Molekulartheorie der Quecksilberdampf nicht, wie die Luft und die meisten Gase, aus zweiatomi- gen, sondern aus einatomigen Molekeln aufgebaut ist; und diese Forderung der Atomistik wird durch den Versuch, der einen entsprechend hohen Wert der Schallgeschwindigkeit liefert, auf s glänzendste bestätigt (vgl. Artikel 6 und li).

Die merkwürdigste Anomalie aber betrifft den Knall moderner Ge- schütze. Sobald nämlich das von ihm abgefeuerte Geschoß eine Anfangsge- schwindigkeit besitzt, die größer ist als die normale Schallgeschwindigkeit, be- nutzt der Schall das Geschoß sozusagen als vorteilhafteres Beförderungsmittel und eilt ihm erst dann selbständig voraus, sobald jene Geschwindigkeit unter diese herabgesunken ist eine der schönsten Entdeckungen von Ernst Mach aus der Zeit, wo er noch der berühmte Physiker und noch nicht der berühmte Philosoph war, der er jetzt ist.

Zu den Anomalien der Seh all au sbr ei tung gehören schließlich auch schau- alle die Phänomene, die auftreten, wenn sich den Schallwellen Hindemisse in **" ^*^«- den Weg stellen; die Reflexion des Schalls (Echo, Reflexionstöne usw.), seine Brechung, Interferenz, Beugung u. a. m. Es hat sich durch teilweise sehr schwie- rige Versuchsanordnungen herausgestellt, daß diese Erscheinungen genau den- selben Gesetzen unterliegen, wie die entsprechenden, schon weit länger bekann- ten Lichterscheinungen; und daß trotzdem die Erscheinungen selbst hier einen ganz anderen Eindruck machen wie dort, aus dem einfachen Grunde, weil die Schallwellen so ungeheuer viel länger sind als die Lichtwellen ein schönes Beispiel für die Tatsache, daß zwei Klassen von Phänomenen ganz verschiedene Eindrücke hervorrufen, wenn sie, bei qualitativ gleicher Natur, in quantitativer Hinsicht stark differieren. Um wenigstens einen hierhin gehörigen Fall anzu- führen: wie es Lichtschatten gibt, so gibt es auch Schallschatten; aber ihre Konfiguration und ihr Verhalten ist ein völlig anderes, und deshalb spielen sie auch eine ganz andere, insbesondere quantitativ eine viel geringere Rolle.

Auf den Problemen der Resonanz einerseits und der Schallausbreitung an- Akostik derseits baut sich nun, wie gesagt, ein neues, praktisches Problem auf, das der *' g«^*«"*«' Akustik der Gebäude oder der architektonischen Akustik: die Frage, wie ein geschlossener Raum beschaffen sein müsse, damit man die in ihm irgendwo erzeugten Schalle an jeder Stelle deutlich, aber doch auch nicht gar zu laut, und ferner klar und scharf, aber doch wieder nicht zu dünn, vernehme. Durch diese Formulierung zeigt sich schon die große Komplikation des Problems, und man wird von vornherein keine ideale, sondern nur eine relativ günstigste Lö- sung erwarten dürfen. Daß eine solche aber wirklich möglich ist und nach deni heutigen Stande der akustischen Wissenschaft geleistet wird, ist immer noch zu wenig bekannt. Es liegt das daran, daß immer wieder konkrete Fälle vor- kommen, die ein schlechtes Ergebnis liefern; geht man ihnen indessen auf den

K. d. G. m. m; Bd X Physik y

Qg 2. Fbux Auerbach: Historische Entwicklung und kulturelle Beziehungen

Grund, so stellt sich heraus, daß das nicht die Schuld des Akustikers ^ soweit er überhaupt zu Rate gezogen wurde ist, sondern daran liegt, daß andere Interessen mit den seinigen kollidierten und den Sieg davontrugen: die des Ar- chitekten, des Ästhetikers, des Raumeigentümers. Daß aber da, wo der Aku* stiker sich durchsetzt. Ausgezeichnetes zustande kommt, beweisen zahlreiche Fälle von Theatern (Bayreuth), Konzertsälen (Leipzig, Boston) und Hörsälen, von denen aus neuester Zeit besonders die Wiener, nach den Forderungen S. Ex- ners hergestellten, genannt zu werden verdienen. Das Grundproblem ist fol- gendes. Im freien Räume gelangt zu jedem Punkte nur die direkte Schallwir- kung, und zwar, was ihre Stärke betrifft, im umgekehrten Verhältnis des Qua- drats der Entfernung; solche durchaus freie Räume gibt es aber nicht, schon des Erdbodens, der Wasserfläche, der Berge und Gebäude wegen, an denen Re- flexionen erfolgen. Vollends nun in geschlossenen Räumen gestalten die vielen Re- flexionen, Beugungen, Interferenzen und Absorptionen an den Wänden, Pfeilern, Nischen usw. die Erscheinung so vollständig um, daß die Abnahme mit der Ent- fernung ganz in den Hintergrund tritt, ja, daß man oft an entfernteren Stellen besser hört als an näheren. Da nun überdies die reflektierten Schallstrahlen später zum Ohre gelangen als die direkten, tritt ein Nachhall, unter Umständen aber sogar ein Echo auf. Letzteres ist natürlich unter allen Umständen zu be- seitigen; inwieweit auch der Nachhall, hängt von den Zwecken des Raumes ab, da ein gewisser Nachhall oft erwünscht ist, um die Tonmasse zu füllen. Es müssen also die akustischen Forderungen von Fall zu Fall gestellt und insbe- sondere ganz verschieden präzisiert werden, je nachdem es sich um das gespro- chene Wort, um Solomusik oder um Massenmusik handelt. Allgemein lassen sich daher nur etwa folgende Forderungen aufstellen: erstens eine geeignete Form der Wandungen, durch die ein möglichst idealer Strahlengang gewähr- leistet wird eine Forderung, die sich durch irgendeine Annäherung an die paraboloidische Grundform, eventuell durch schräge Decken usw. erfüllen läßt; zweitens eine maßvolle Gliederung der Wände, durch die der störende Nachhall abgefangen wird; drittens für große Räume mit an sich starker Resonanz eine Ausstattung mit absorbierenden, also schweren und in großen Falten fallenden Stoffen, während für kleine Räume eben diese Beigaben gerade umgekehrt ver- mieden werden müssen. Zusammenklang. Wir kommen nun zum letzten großen Thema der Akustik, und zwar zu dem, das die breiteste Brücke hinüberschlägt zur Tonkunst. Das ist die Ge- samtheit der Erscheinungen, die beim Zusammenklange von Tönen auf- treten, von den Akkorden als solchen über die Interferenzen, Schwebungen und Kombinationstöne hinweg zur großen Frage der Harmonie und Melodie. Akkorde. Wenn zwei oder mehrere Töne gleichzeitig erklingen, vernehmen wir einen Akkord. Sind die beiden Töne von gleicher Höhe (und außerdem etwa gar noch von gleichem Klange), so entsteht der Einklang, die beiden Töne ver- schmelzen fast vollständig miteinander. Auch bei der Oktave tritt noch eine starke Verschmelzung, weniger schon bei der Quinte, Quarte und den anderen zunächst folgenden Akkorden; aber immerhin machen alle diese Akkorde einen

Konsonanz und Dissonanz

99

wohltuenden Eindruck, es sind Konsonanzen. Ganz anders, wenn man zwei Töne erklingen läßt, die zwar nahezu im Einklänge stehen, aber mit einer klei- nen Verstimmung. Es tritt dann ein neues Phänomen auf, das wir schon bei der Methodik der Tonhöhenbestimmung kennen gelernt haben: die Schwe* bungen, d. h. ein periodisches An- und Abschwellen der Tonstärke (bei Kir- chenglocken z. B. oft weithin vernehmbar); übrigens ein Phänomen, das sich auf Grund der Schwingungsnatur des Tones ohne weiteres als notwendig dedu- zieren läßt und besonders bei der graphischen Darstellung höchst anschaulich in die Erscheinung tritt. Auch bei zwei Tönen, die nahezu, aber nicht genau im Oktaven- oder einem anderen Konsonanzenverhältnis stehen, treten Schwebun- gen auf, indessen muß immer erst untersucht werden, ob nicht in den beiden erregenden Tönen Obertöne enthalten sind, die zueinander im Einklang stehen und somit indirekt Schwebungen veranlassen. Je geringer die Verstimmung, desto langsamer wogen die Schwebungen dahin; je stärker anderseits die Ver- stimmung ist, desto rascher werden die Schwebungen; und es tritt bald ein Zu- stand ein, bei dem man die einzelnen Schwebungen nicht mehr hören kann, in dem sie sich aber trotzdem, und zwar auf eine ganz neuartige Weise, dem Ohr bemerklich machen: nämlich als Schwebungstöne. Es hat sich im Laufe der letzten Jahrzehnte herausgestellt, daß es eine ganze Anzahl verschiedener Gat- tungen von Kombinationstönen gibt, d. h. von Tönen, die beim Zusammen- KombmatioiM- klange primärer Töne neu auftreten. Zu den schon 1744 von Sorge entdeckten **°^ und bald darauf von dem großen Musiker Tartini näher studierten Differenz- tönen sind neuerdings die von Helmhol^z entdeckten Summationstöne, dann weiter die Stoßtöne, die Variationstöne, die Unterbrechungstöne und noch an- dere getreten ein Umstand, der den ganzen Erscheinungskomplex sehr kom- pliziert, so daß es langj ähriger, eingehender Studien (unter denen die von Schäfer erwähnt seien) bedurfte, um Klarheit zu schaffen. Für die Theorie der Musik bleiben am wichtigsten die Differenztöne, weil sie am häufigsten auftreten und verhältnismäßig am kräftigsten sind.

Was hat denn nun, so wird man fragen, diese ganze Lehre eigentlich für musikalische Konsequenzen? Zunächst ist es einleuchtend, daß Zusammen- klänge mit einzeln hörbaren Schwebungen für die Musik unbrauchbar sind; denn der Wechsel der Tonstärke muß doch dem Willen des Tonsetzers über- lassen bleiben, das Material, das man ihm zur Verfügung stellt, muß an sich klar und ebenmäßig sein. Wie aber steht es mit den Akkorden, die so rasche Schwebungen enthalten, daß sie uns nicht mehr zur bewußten Wahrnehmung kommen? Es genügt eine kleine Zahlenrechnung, um einzusehen, daß diese physikalischen Akkorde das sind, was man als Dissonanzen bezeichnet; DiMomuuen. Akkorde, die, obwohl sie an sich einen unangenehmen Eindruck machen, doch für die Kontrast- und Auf lösungswirkungen der Musik unentbehrlich sind. Der Zu - sammenhang ist über jeden Zweifel erhaben: man hört eben die Schwebungen nicht mehr bewußt, aber es bleibt ein negativer Gefühlston zurück, dem wir da- durch Ausdruck verleihen, daß wir diese Akkorde als Dissonanzen bezeichnen. Dabei kann es sich um unhörbare Schwebungen sowohl der Grundtöne selbst, als

loo 2. Feux Auerbach: Historische Entwicklung und kulturelle Bexiehungen

auch um solche ihrer Obertöne, Kombinationstöne usw. handeln. Das ist die be- Harmonic. rühmtc Theorie der Harmonie, die He Im hol tz nach jahrelangen Studien im Jahre 1857 veröffentlicht hat, und die, obwohl sie die erste je aufgestellte rein physikalische Theorie ist oder vielleicht gerade deshalb neben begei- sterter Aufnahme so starke Gegnerschaft gefunden hat, letzteres begreiflicher- weise besonders unter den Philosophen und Musiktheoretikern, Gewiß haben die später aufgestellten Theorien von Oettingen, Stumpf, Goldschmidt u. a. viel des Interessanten; aber es sind eben philosophische Theorien, und sie schlie- ßen die von Helmholtz, wenn man die nötige Analyse vornimmt, nicht aus. Nur muß man diese letztere nicht dahin mißverstehen, daß sie nun sofort an- wendbar sei auf die heutigen Erscheinungen der Musik; sie stellt vielmehr das wissenschaftliche Grundschema dar, das nunmehr mit Rücksicht auf eine große Reihe sekundärer Faktoren, wie Gewohnheit, Geschmack usw., ausgestaltet werden muß.

schiaB. Es konnte in dieser Übersicht nur das Allerwichtigste aus der Entwick- lung der Akustik herausgegriffen werden, auch bei diesem mußte man sich auf eine meist skizzenhafte Behandlung beschränken; eine große Zahl schöner theo- retischer und experimenteller Leistungen mußte unbeachtet bleiben. Aber auf zwei Apparate sei zum Schluß noch kurz hingewiesen, weil sie eine ungeahnte Bedeutung für die Praxis gewonnen haben: das Telephon, das (von den Vor- läufern abgesehen) im Jahre 1876 von Bell, und der Phonograph, der 1877 von Edison erfunden wurde; beides also Erzeugnisse des amerikanischen Er- findungsgeistes, seitdem aber vielfach vervollkommnet und abgeändert; der eine Apparat mit seinen Leitungsdrähten den Erdball umspannend und die Zeit abkürzend, der andere namentlich als Grammophon die Musik in einer ge- wiß nicht gerade edlen, aber populären Weise in weite Kreise tragend, von her- vorragender Bedeutung für die Wissenschaft aber als Grundlage jener zurzeit entstehenden Phonogrammarchive, in denen nunmehr Sprachen und Stimmen der Zeit für spätere Geschlechter aufbewahrt werden können.

So greift die Akustik allenthalben hinüber in die verschiedensten Gebiete menschlicher Kultur: in das Signal- und Verkehrswesen, in die Musik und in die Geschichte der Kultur.

Literatur.

Kircher, 1684: Neue Hall- und Tonkunst. Nördlingen. Chladni, 1802: Die Akustik. Leipzig.

, 18 17: Neue Beiträge zur Akustik. Leipzig. Weber, W., 1835: Akustik. Göttingen.

V. Helmholtz, 1863: Die Lehre von den Tonempfindungen. 6. Aufl. 191 2. Braunschweig. LORD Rayleigh, i88o: Theorie des Schalls. Braunschweig. Zellner,. 1892: Vorträge über Akustik. Wien. Starke, 1908: Physikalische Musiklehre. Leipzig. Auerbach, 1909: Akustik, im Handbuch der Physik (Winkelmann), 2. Aufl. Bd. 2. Leipzig.

, 1911: Die Grundlagen der Musik. Leipzig. Kalahns, 1 910— 13: Grundzüge der math.^phys. Akustik. Leipzig«

I

WÄRMELEHRE

Allgemeine Literatur:

J. Clerk Maxwell, Theory of heat Deutsche Obersetningen von Auerbach und Neesen. E. Mach, Die Prinzipien der Wärmelehre, historisch -kritisch entwickelt Leipzig 1896.

3- THERMOMETRIE.

Von

E. Warburg.

I. Unsere heutigen Quecksilberthermometer sind sehr veredelte Abkömm- GeicUchte linge der alten Weingeistthermometer, mit welchen die Mitglieder der Floren- ^emomete«**^ tiner Accademia del Cimento um das Jahr 1660 meteorologische und andere Temperaturbeobachtungen anstellten. Gewöhnlich wurde die Temperatur- skale so bestimmt, daß das Instrument in der stärksten Winterkälte Toskanas II 12^, in den stärksten Strahlen der Sommersonne 40^ zeigte. Die Grade waren durch Emailleknöpfe auf der Röhre bezeichnet.

Dalencö (1688) benutzte statt der beiden erwähnten Temperaturen den Eis- und den Butterschmelzpunkt, Newton (1701) ersetzte mit gewohntem Scharfblick den letztgenannten Punkt durch die Normaltemperatur des menschlichen Körpers. Fahrenheit (um 1720), berühmt als erster Verfertiger gut miteinander übereinstimmender Thermometer, scheint ebenfalls die New- tonschen Fixpunkte verwendet zu haben, auch lieferte er zuerst gute Queck- silberthermometer. Das Quecksilber hat den Vorzug, daß es das Glas nicht benetzt, in einem großen Temperaturintervall tropfbar flüssig bleibt, leicht rein darstellbar ist und wegen seiner kleinen Wärmekapazität Temperaturänderun- gen schnell folgt. Endlich gelangten durch de l'Isle (1733), Celsius (1736) u. a. die schon von dem Florentiner Akademiker Renal dini (1694) vorge- schlagenen Fixpunkte, Eis- und Siedepunkt, zur allgemeinen Anwendung. Der Eispunkt, darunter die Temperatur eines innigen Gemisches von reinem Eise und reinem Wasser verstanden, ist praktisch eine völlig bestimmte Tem- peratur. Der Wassersiedepunkt hängt nach Fahrenheits Entdeckung vom Luftdruck ab (0,037^ Abnahme für i mm Abnahme des Barometerstandes), muß also auf einen bestimmten Barometerstand bezogen werden, wofür man sich seit etwa 1830 auf 760 mm geeinigt hat. Cavendish (1776) betonte die Notwendigkeit, bei Temperaturbestimmungen nicht nur das Gefäß, sondern auch die Röhre auf die zu messende Temperatur zu bringen; bei der Siede- punktsbestimmung benutzte er ein hohes Gefäß, so daß die Röhre sich dabei fast ganz im Wasserdampf befand; er machte dabei die wichtige Bemerkung, daß das siedende Wasser immer etwas wärmer ist als der Dampf und daß es vielleicht am besten sei, auch das Gefäß in den Dampf und nicht in das Wasser zu bringen« Dieser zweckmäßige Vorschlag wurde während langer Zeit nicht beachtet, noch 1823 empfiehlt Bio t als Siedepunkt die Temperatur des in Me- tallgefäßen siedenden Wassers, nachdem Gay Lussac gefunden hatte« daß

I04 3- £• Warburg: Thennometrie

das Wasser in diesen tiefer als in Glasgefäßen siedet. 1827 adoptierte Egen den Vorschlag von Cavendish, und Rudberg wies 1837 durch sorgfältige Versuche nach, daß das Thermometer in dem Dampf eine völlig feste, von der Natur des Gefäßes unabhängige Temperatur, die sog. normale Siedetemperatur des Wassers annimmt. Indem noch Rudberg die das Thermometer enthal- tende Röhre, durch welche der Dampf entweicht, ebenfalls mit einem Dampf- mantel umgab, um sie und das gegen sie strahlende Thermometer gegen Ab- kühlung zu schützen, war er bei der heutigen klassischen Methode der Siede- punktsbestimmung angelangt.

In wie viele Teile man die Ausdehnung des Quecksilbers zwischen Eis- und Siedepunkt teilt, bleibt der Willkür überlassen, nur ist zu beachten, daß nach räumlicher Ausdehnung gleichförmig geteilt werden muß, was mit gleich- förmiger Längenteilung des Rohres nur zusammenfällt, wenn dasselbe kali- brisch, d. h. überall von gleichem Querschnitt ist; andernfalls müssen bei gleichförmiger Längenteilung Korrektionen angebracht werden, wovon schon 1758 als von einer bekannten Sache gesprochen wird. Von den verschiedenen vorgeschlagenen Skalen ist heute nur die sog. Celsiussche oder hunderttei- lige Skale von Bedeutung, bei welcher man die räumliche Ausdehnung zwischen Eis- und Siedepunkt in 100 gleiche Teile teilt, den Eispunkt und mithin den Siedepunkt 100^ nennt. Leider sind neben derselben noch die Skalen von R6aumur und Fahrenheit in Gebrauch, obgleich bereits im Jahre 1828 Egen nachdrücklich die Vereinheitlichung der Temperaturmessung zugunsten der hundertteiligen Skale befürwortet hatte. In Deutschland verschwanden mit einem Schlage die alten Längen- und Gewichtsmaße aus dem Verkehr, als durch Reichsgesetz der Verkauf nach Meter und Kilogramm vorgeschrieben wurde. Für die Temperaturmessung besteht ein solches Gesetz nicht, und die Macht der Gewohnheit verhindert die höchst wünschenswerte Beseitigung der Röaumurschen Skale aus unserem bürgerlichen Leben. ^)

Die geschilderte 180 jährige Entwicklung überblickend sieht man, daß in dem alten Florentiner Thermometer schon das heutige Konstruktionsprinzip gegeben war: zwei Fundamentaltemperaturen und Einteilung der Ausdehnung zwischen diesen in eine gleiche Zahl von Teilen. Alle prinzipiellen Fort- schritte, welche man bis auf den heutigen Tag hier gemacht hat, laufen darauf hinaus, die Schärfe zu erhöhen, mit welcher die beiden Fundamentalpunkte am Thermometer bestimmt werden. Mit dem Florentiner Thermometer sah es in dieser Beziehung noch schlecht aus, die beiden Temperaturen, von welchen die Skale abhing, waren äußerst roh fixiert, außerhalb Toskanas unbekannt, es fehlte den Instrumenten die Reproduzierbarkeit, es war „eine Zusendung der Thermometer nötig, um beobachtete Temperaturen zu vergleichen** (Huy- gens); die Frage, ob die Temperatur Toskanas sich seitdem geändert habe, konnte einige hundert Jahre später mittels der Beobachtungen der alten Aka-

i) Vor nicht zu langer Zeit wurde mir von einem Mediziner eingewandt, dies sei un- möglich, denn die Krankenwärter seien angewiesen, bei Körpertemperaturen über 40 C ein Bad von 26® R zu geben.

Quecksilberthermometer 105

demiker erst entschieden werden, als man Exemplare jener alten Thermometer auffand. In dem Eis- und Siedepunkt hatte man zwar völlig feste Tempera- turen gewonnen, es war aber damit noch nicht alles getan.

In einer sehr sorgfältigen Untersuchung teilt Egen (1827) Beobachtungen über die damals schon bekannte Tatsache mit, daß der Eispunkt der Thermo- meter im Laufe der Jahre langsam in die Höhe rückt, findet aber außerdem den viel schlimmeren Fehler, daß der Eispunkt nach der Erwärmung auf den Siedepunkt um einige zehntel Grade tiefer gefunden wird, als vor der Erwär- mungy und langsam auf den alten vor der Erwärmung gefundenen Punkt zu- rückgeht, welcher nach neueren Versuchen erst nach Wochen wieder erreicht wird. Man macht die Thermometer luftleer, damit keine Luftblasen in den Faden eindringen können, so daß das Gefäß den äußeren Luftdruck zu tragen hat, und die Eispunktsverlegungen wurden von Egen mit diesem Umstand in Verbindung gebracht. Man weiß heute, daß dieselben vielmehr von inneren Eigenschaften des Glases herrühren, erstens zieht sich das Gefäß nach dem An- blaJsen noch mehrere Jahre lang infolge von molekularen Umlagerungen zu- sammen, was das langsame Steigen des Eispunktes zur Folge hat; durch das sog. künstliche Altern, indem man nämlich die Thermometer mehrfach er- wärmt und wieder abkühlt, kann dieser Prozeß beschleunigt werden und wird unschädlich gemacht, indem man den Eispunkt nach der Alterung bestimmt. Zweitens aber geht, wie Despretz 1837 feststellte, das Glasgefäß nach vor- übergehender Erwärmung nicht sofort, sondern allmählich in längerer Zeit auf das kleinere Ausgangsvolumen zurück, darauf beruhen die von Egen entdeck- ten vorübergehenden Eispunktsdepressionen, welche, wenn groß, scharfe Tem- peraturbestimmungen äußerst erschweren resp. unmöglich machen. Nun zeig- ten Untersuchungen, welche auf Foersters Anregung von R. Weber (1883), besonders aber unter Abbes und Schotts Mitwirkung von Wiebe (1884) in der Normaleichungskommission angestellt wurden, daß die Größe der beschrie- benen Effekte (Nachwirkungsdilatationen) von der Natur der Glassorte ab- hängen. Glas besteht in der Regel aus Kieselsäure und Metalloxyden, nach W ie b es Versuchen ist die Eispunktsdepression sehr groß (i ®), wenn Kalium- und Natriumoxyd in gleichen molekularen Mengen vorhanden sind, sehr klein hin- gegen (0,05®), wenn entweder nur Kaliumoxyd (R. Weber) oder nur Natrium- oxyd vorhanden ist. In dieser Beziehung waren damals die französischen und englischen Thermometer besser als die deutschen. Indessen zeigten sich Glas- sorten, welche von Schott in dem 1882 errichteten Jenenser Glaswerk auf Grund der Wieb eschen Befunde hergestellt wurden, den auswärtigen Sorten noch überlegen; und als außerdem 1887 in der physikalisch-technischen Reichs- anstalt eine größere amtliche Prüfungsstelle für Thermometer errichtet war, der bald eine zweite in Ilmenau folgte, gewannen die deutschen Thermometer einen so hohen Grad von Zuverlässigkeit, daß sie sich den Weltmarkt eroberten. Der gesamte Absatz beläuft sich zwar nur auf etwa 2^ Millionen Mark jährlich, ist aber deshalb wichtig, weil er einem wirtschaftlich schwachen Teil der Be- völkerung zugute kommt. Das Geschäft beruht zum größten Teil auf dem Ver-

io6 3- E. Warburg : Thennometrie

trieb der ärztlichen Thermometer, welche als sog. Maximumthermometer ein« gerichtet sind. Eine der besten Formen ist die von Hicks, bei welcher das Ge- fäß mit der Röhre durch einen sehr engen Kanal kommuniziert. Bei der Er- wärmung wird das Quecksilber durch diesen Kanal hindurchgepreßt, bei der Abkühlung aber reißt der Faden an der Verbindungsstelle zwischen Kanal und Röhre ab und bleibt an der höchsten erreichten Stelle stehen. Bringt man das Gefäß unter die Zunge und ist die Glaswand desselben hinreichend dünn, so hat das Thermometer innerhalb einer Minute (Minutenthermometer) die Körpertem- peratur angenommen, welche sich im normalen Zustand auf etwa 36,6 ^ C beläuft.

In letzter Zeit ist die Konkurrenz des Auslandes auf dem besprochenen Gebiet erheblich gewachsen. In England, besonders aber in Amerika hat man wichtige Fortschritte in der Fabrikation gemacht, ferner sind in vielen Ländern Prüfungsstellen nach deutschem Muster eingerichtet worden. Es ist nötig, die ausländischen Fortschritte zu berücksichtigen und heimische Mängel zu be- seitigen, um die deutsche Thermometerindustrie auf der Höhe zu halten.

Alle Eigenschaften der wägbaren Materie mit Ausnahme der Gravitation und der Radioaktivität hängen von der Temperatur ab, fast jeder Naturvor- gang und jedes Meßwerkzeug wird deshalb in seinen Angaben durch die Tem- peratur beeinflußt, hat seinen „Temperaturkoeffizienten*'; hieraus erhellt die universelle Bedeutung der Temperaturmessung. Ein einfacheres Meßinstru- ment ak ein Quecksilberthermometer läßt sich kaum denken, gleichwohl war eine mehr als 200 jährige Arbeit nötig, um es auf seinen heutigen Grad der Voll- kommenheit zu bringen, bei welchem man zwischen und lOO® Temperaturen bis auf 0,003 ® genau mit demselben messen kann. Ahnliche Erfahrungen macht man mit den meisten Meßinstrumenten, doch ist neuerdings der Vervollkomm- nungsprozeß erheblich abgekürzt; es ist nämlich eine ungleich größere 2^hl von Arbeitern am Werk, seitdem die Bedeutung der exakten Naturwissenschaften für die Technik, mithin für den Nationalwohlstand, erkannt ist und die Regie- rungen veranlaßt hat, die staatliche Fürsorge für den Betrieb jener Wissen- schaften zu erhöhen. Ein Beispiel für den raschen Fortschritt der Neuzeit lie- fern die elektrischen Normalelemente, welche, 1872 zuerst angegeben, jetzt, d. h. nach etwa 40 Jahren, einen Grad der Zuverlässigkeit erreicht haben, der nichts mehr zu wünschen übrig läßt.

Definidoa der 2. Das Quccksüberthermometer gehört zu denjenigen Thermometern, bei

arrgLckriiber. welchen die Temperatur nach der Ausdehnung eines Körpers beurteilt wird. thermometer. jg^ dicscr Körpcr eine Flüssigkeit, so muß man sie in ein Gefäß einschließen, welches sich bei der Erwärmung ebenfalls ausdehnt und deshalb ihre Ausdeh- nung kleiner erscheinen läßt. Man beobachtet also bei der Erwärmung die scheinbare Ausdehnung der Flüssigkeit und überzeugt sich leicht, daß die Temperatur tq^ welche das Quecksilberthermometer angibt, vermöge der Art seiner Anfertigung mit der Ausdehnung des Quecksilbers durch die Gleichung verknüpft ist:

scheinbare Ausdehnung zwischen und tg* , .

loo. Teil der scheinbaren Ausdehnung zwischen o* und loo*

Ausdehnungsthi

107

Iq = -^ SO* bzw. + 200* ist erreicht, wenn die scheinbare Ausdehnung zwi- schen 0" und tq^ 50 bzw. 200mal so groß geworden ist, als der 100. Teil der scheinbaren Ausdehnung zwischen 0" und 100"; tq = 20** ist erreicht, wenn bei Abkühlung unter o " Zusammenziehung eingetreten ist, 20inal so groß als der 100. Teil der Ausdehnung zwischen und 100". Bei der Anfertigung des Thermometers ist also die Ausdehnung zwischen o" und 100° zu messen, in 100 gleiche Teile zu teilen und die Teilung über 100^ und unter o" fortzusetzen.

3. Nach demselben Prinzip kann man ein mit einer andern Flüssigkeit gefülltes Thermometer einteilen. Doch erhält man für jede andere Flüssigkeit eine andere Temperaturskale. So entspricht die Temperatur + 50° nach dem ölthermometer einer Temperatur höher als -|- 50 "nach dem Quecksilberthermometer, weil das Ol die halbe Ausdehnung zwischen o" und 100° erst bei einem höheren Wärmegrad als das Quecksilber erreicht. Wenn man sich erinnert, t- daß die scheinbare Ausdehnung der Flüssigkeit PLlJ— > beobachtet wird, so begreift man, daß auch je nach

der verschiedenen Ausdehnung der benutzten Glas- sorte die Temperaturskale der Flüssigkeitsthermo- / meter etwas verschieden ausfällt. \

4. Auch Luft oder ein anderes Gas kann man als thermometrische Substanz wählen, ja es ist so- gar das Luftthermometer das älteste Thermometer, indem schon Galilei (um 1600) ein solches konstru- ierte. Man beobachtete dabei die Ausdehnung einer Luftmasse, welche durch einen Flüssigkeitsfaden gegen die äußere Atmosphäre abgesperrt ist. Doch beeinflußt auch der wechselnde Luftdruck das Vo- lumen der abgesperrten Luft (Amontons um 1700),

was bei der Temperaturbestimmung zu berücksichti- kj, i.

gen ist. Man mißt entweder die Ausdehnung bei unverändertem Druck oder die Druckzunahme bei unverändertem Volumen. Bei der letzteren Methode, welche die zweckmäßigere ist, ergibt sich die Temperatur tg nach der (i) ent- sprechenden Formel

Dnickzunahme iwischen und tg' 100. Teil der Druckiunahme zwischen o* und 100*'

wobei die Druckzunahme gemeint ist, welche ohne Gefäßausdehnung erreicht worden wäre. Man muß also, um diese Druckzunahme zu finden, die Ausdeh- nung des Gefäßes kennen, eine der schwierigsten Bestimmungen bei genauen gasthermometrischen Messungen. Die Figur i zeigt die Einrichtung eines ein- fachen derartigen Instruments. Das das Gas enthaltende Gefäß G ist durch die enge Kapillare V mit der druckmessenden Quecksilbersäule in R, Ä* verbun- den, h + Barometerstand ist der Druck des Gases. Nur das Gefäß G taucht in das Bad, dessen Temperatur zu messen ist, nicht das Volumen, welches G mit R verbindet und daher einen schädlichen, nicht miterwärmten Raum darstellt^

Iriu^nSnbitui

io8 3- E. Warburg : Thennometrie

der möglichst klein zu machen und bei der Berechnung zu berücksichtigen ist. Man bestimmt die Drucke bei O®, loo®, tg^, indem man das Gefäß G sukzessive auf die Temperaturen o^, lOO^, tg^ bringt und jedesmal die Höhe der Queck- silbersäule h mißt, welche das Quecksilber in der Meßröhre auf die Volum- marke d einstellt.

Regnaults klassische, bis + 350® C reichende luftthermometrische Mes- sungen (1847) waren lange Zeit hindurch maßgebend, sind aber neuerdings an Genauigkeit übertroffen durch die Arbeiten von Chappuis und Holborn- Henning. Bis etwa 1200® reichen die älteren, wenn auch weniger genauen Messungen von Pouillet (1836). Bis lioo^ C sind heutzutage maßgebend die Messungen von Holborn und Day (1900). Holborn und Valentiner ge- langten später bis 1600® C, die Genauigkeit dieser Messungen ist noch über- troffen durch Day und So s man, welche Temperaturen bis zum Palladium- schmelzpunkt mit einem Stickstoffthermometer bestimmten. Zu derartigen Versuchen bei hohen Temperaturen benutzt man Gefäße aus Platin, Iridium oder Legierungen der Platinmetalle. vonügedesGas- 5* Werfen wir nun einen Rückblick auf die beschriebenen Ausdehnungs-

id^ST^tkSe. thermometer. So viele verschiedene Substanzen, seien sie tropfbar flüssig oder gasförmig, man im Thermometer benutzt, so viele verschiedene Temperatur- skalen erhält man, die zwar bei O^ und loo^ übereinstimmen, bei den andern Temperaturen aber voneinander abweichen, und vom prinzipiellen Standpunkt verdient ohne weiteres keine dieser Skalen vor der andern den Vorzug. Gleich- wohl gewinnt durch nähere Betrachtung das Gasthermometer überragende Bedeutung. Schon Dulong und Petit (1812) sowie Regnault (1847) heben den Vorteil der großen Gasausdehnung im Verhältnis zur Gefäßausdehnung hervor, Luft dehnt sich 136 mal, Quecksilber nur 7 mal so stark aus als gewöhn- liches Glas; eine Folge davon ist z. B., daß die von Egen untersuchten Nach- wirkungsdilatationen des Glases auf die Angaben des Gasthermometers keinen merklichen Einfluß mehr ausüben. Dazu kommt der große Bereich des Gas- therraometers, außerdem aber ein äußerst wichtiger Umstand, der erst neuer- dings ins rechte Licht gesetzt, wenn auch schon früher instinktiv gefühlt und durch die unklare, ja unlogische Behauptung zum Ausdruck gebracht wurde, daß die Gase sich „regelmäßiger" als die tropfbaren Flüssigkeiten ausdehnten. Um diesen Punkt zu erklären, bemerken wir, daß auch die verschiedenen Gas- therraometer etwas verschiedene Temperaturskalen liefern je nach der Art und Dichtigkeit des benutzten Gases und je nachdem man bei konstantem Druck oder bei konstantem Volumen beobachtet. Indessen hat die Erfahrung das sehr wichtige Ergebnis geliefert, daß erstens alle Gasthermometer miteinander übereinstimmen, wenn man nur die Dichtigkeit der Gase hinreichend klein wählt, und daß zweitens die Skale eines solchen mit sehr dünnem Gase gefüllten Thermometers, welche man die ideale Gasskale nennt, mit der absoluten thermo- dynamischen Skale übereinstimmt (vgl. Artikel 5); diese aber ist, weil von den besonderen Eigenschaften eines Körpers unabhängig, allen andern Skalen vor- zuziehen. Der absolute Nullpunkt der Temperatur, von welchem ab man die

Gasthermometer

109

Temperatur in der letztgenannten Skale rechnet, liegt um 273,1® der idealen Gasskale unter dem Eispunkt. Man muß deshalb der vom Eispunkt ab gerech- neten Temperatur der idealen Gasskale 273,1 ® hinzufügen, um die Übereinstim- mung der beiden Skalen auch in formeller Hinsicht vollständig zu machen. Zwar läßt sich die ideale Gasskale direkt nicht realisieren, weil man mit sehr dünnen Gasen genaue thermometrische Messungen nicht machen kann, es ist aber möglich, die Angaben anderer Gasthermometer auf die ideale Skale zu reduzieren. So erweist sich das Gasthermometer-als das beste Mittel, um Tem- peraturen in der absoluten thermodynamischen Skale zu bestimmen.

Die Unterschiede der verschiedenen gasthermometrischen Skalen sind nun zwar nicht groß, aber für Präzisionsmessungen doch empfindlich. Wenn also zwei Beobachter dieselbe Temperatur, z. B. den Schwefelsiedepunkt, durch ver- schiedene Gasthermometer messen, so müssen sie, um ihre Beobachtungen ver- gleichen zu können, die Angaben ihrer Instrumente durch eine ziemlich un- bequeme Rechnung aufeinander reduzieren. Es scheint daher zweckmäßig, nach einem bereits mehrfach befolgten Vorschlage der Reichsanstalt (191 1) die gemessenen Temperaturen stets in der idealen Gasskale anzugeben. Nach diesem Vorschlag wären also alle Temperaturmessungen erstens vereinheitlicht und zweitens in derjenigen Skale ausgedrückt, welche allen andern vorzuziehen ist. Übrigens ist für Teniperaturen zwischen und 100® nach dem Vorgang des bureau international des poids et mesures in S^vres eine bestimmte Wasser- stoffskale bereits international adoptiert, welche in jenem Bereich mit der idealen Gasskale fast vollständig übereinstimmt.

6. Gasthermometrische Messungen sind nun umständlich und schwierig, Gebraucha- ferner, da sie ein ziemlich großes Gefäß erfordern, zur Temperaturbestimmung kleiner Bezirke nicht tauglich. Deshalb sind von diesen Mängeln freie sog. Ge- brauchsthermometer erforderlich, welche man an die ideale Gasskale an- zuschließen hat. Prinzipiell kann auf jede mit der Temperatur veränderliche Eigenschaft eines Körpers ein Gebrauchsthermometer gegründet werden, wir beschränken uns hier auf die verbreitetsten Instrumente dieser Art. Zu ihnen gehört in erster Linie das Quecksilberthermometer, dazu kommen für beson- dere Zwecke andere Flüssigkeitsthermometer. Unter den elektrischen Ge- brauchsthermometern nimmt eine hervorragende Stellung das Platinthermo- meter ein, bei welchem der mit der Temperatur veränderliche elektrische Lei- tungswiderstand eines Platindrahtes gemessen wird. Man erhält die „Platin- temperatur** tp aus der mit (i) analog gebauten Formel

__ Widerstandszunahme zwischen o' und tfi^

^ ~" 100. Teil der Widerstandszunahme zwischen und 100 •'

Die Platintemperatur hängt von der Reinheit der angewandten Platinsorte ab, doch liefert das im Handel erhältliche, nach den Methoden der Reichsanstalt gereinigte Platin sehr nahe übereinstimmende Skalen, wenn man nicht zu sehr tiefen Temperaturen übergeht. Bei der Methode der Thermoelemente be- nutzt man Kombinationen aus Konstantan (Legierung aus 60 Gewichtsteilen Kupfer und 40 Gewichtsteilen Nickel) mit Silber, Kupfer oder Eisen; die Kon-

HO 3' £ Warburg: Thermometrie

stantan-Eisen- und Konstantan- Silberelemente reichen bis etwa 600® C. Für höhere Temperaturen hat sich das Thermoelement von Le Chatelier aus Pla- tin und einer Legierung von Platin mit 10 Prozent Rhodium bewährt. Die Löt- stelle zwischen den Metallen kommt an die Stelle, deren Temperatur zu bestimmen ist, die Verbindungsstellen der freien Enden mit den Kupferableitungen in schmel- zendes Eis, und man mißt die hierbei entstehende thermoelektromotorische Kraft (vgl. Artikel 13 u. 20). Das Thermoelement von Le Chatelier hat sich in der Technik zur Messung von Ofentemperaturen sehr eingebürgert, seitdem es in der Reichsanstalt geeicht wird. Im Jahre 1912 wurden in dieser Anstalt 813 Le Chat eil er sehe Elemente mit einem Verkaufs wert von 146300 Mark ge- prüft. Übrigens ist in der Keramik noch jetzt die Schätzung von Ofentempera- turen durch die sog. Segerkegel gebräuchlich, das sind kleine Kegel, welche je nach ihrer chemischen Zusammensetzung bei verschiedenen Temperaturen erweichen und sich dabei bis zur Berührung mit der Unterlage neigen. So sagt der Keramiker, ein Material schmelze bei Kegel 16.

Die elektrischen Thermometer dienen vielfach als Fernthermometer, z. B. in den Krankenhäusern dazu, die Temperatur des Patienten in einem entfern- ten Zimmer zu messen. BichvBff ?• Es ist nun nötig, die Gebrauchsthermometer zu eichen, d. h. ihre An-

''the^i^'e^ gaben auf die ideale Gasskale zu reduzieren. Dabei ist zu bedenken, daß ver- schiedene Exemplare einer Art von Gebrauchsthermometern, z. B. verschiedene Platinthermometer, zwar nicht genau miteinander übereinstimmen, daß aber zwischen ihren Angaben und der idealen Gasskale eine und dieselbe allgemeine Beziehung (Gleichung) besteht, nur nehmen von Exemplar zu Exemplar ge- wisse Größen in jener Gleichung etwas verschiedene Werte an. Hat man diese Gleichung für eine Art von Gebrauchsthermometern durch Vergleichung mit dem Gasthermometer gefunden, dann genügt zur Eichung eines bestimmten Exemplars die Vergleichung an einem oder einigen wenigen Temperaturpunk- ten. So genügt z. B. beim Platinthermometer nach Callendar die Vei^lei- chung am Schwefelsiedepunkte, um die Beziehung zur idealen Skale zwischen und 500® C festzulegen. Hieraus ergibt sich die Forderung, eine größere Anzahl fester, genau reproduzierbarer Temperaturpunkte, wozu sich am besten Schmelz- und Siedepunkte reiner Substanzen eignen, in der idealen Skale zu bestimmen. Dies ist zurzeit die wichtigste Aufgabe der Thermometrie.^) optitche Tem- 8. Eine bcsondcrc Stellung nehmen die optischen oder radiometrischen *'*''*'*™***"**' Methoden der Temperaturmessung ein, bei welchen man nach dem Vorgang von Becquerel (1853), Crova (1879) u. a. von der Tatsache Gebrauch macht, daß die Helligkeit glühender Körper mit steigender Temperatur wächst. Ebcakte Temperaturbestimmungen nach diesem Prinzip wurden aber erst durch die Entdeckung der Gesetze der Hohlraumstrahlung möglich, d. h. der Strahlung,

i) Z.B. liegen nadi Holborn nnd Henning die Siedepunkte des Naphtlialins, Benzo- phenons, Schwefels bxw. bei 217,96*, 305,89*, 444.S*i der Sdunelzponkt des 2nks bei 419,4* C Nach Day und Sosman li^;en die Schmelzpunkte des Goldes und FaUadioms bsw. bei 1063* und 1550* C alles in der idealen Gasskale.

Gebrauchsthennometer 1 1 [

welche aus einer kleinen Öffnung eines Hohlraums oder Ofens herauskommt, auch ist die Methode exakt nur auf die Temperaturbestimmung von Hohlräumen oder Öfen anwendbar (vgl. Artikel lo). Man vergleicht dabei die Helligkeit der aus dem Ofen kommenden Strahlung bestimmter Wellenlänge mit der Helligkeit einer Normallampe bei derselben Wellenlänge. Hat man diese Messung für eine bestimmte Ausgangstemperatur gemacht, so erhält man die zu messende Tem- peratur unmittelbar in der absoluten thermodynamischen Skale, wenn die Aus- gangstemperatur in dieser Skale bekannt ist. Man benutzt das Pyrometer von Holborn-Kurlbaum oder von Wanner, die Grundlage der Messung ist das Wiensche Strahlungsgesetz (vgl. Artikel lO).

9. Die Genauigkeit, welche bei der Messung einer Temperatur erreichbar Genanigkeit ist, hängt von deren Höhe ab. Zwischen und 100^ können Quecksilber- 'm^S!^' temperaturen tq bis auf 0,003^, Platintemperaturen tp bis auf 0,001®, bei äußerster Verfeinerung der elektrischen Widerstandsmessung noch genauer bestimmt werden. Gasthermometrische Temperaturen sind bei 200® bis auf

einige hundertstel, bei 500® bis auf ein zehntel Grad genau gemessen worden.

10. Die denkbar tiefste Temperatur ist die des absoluten Nullpunktes, MeBbeieiche welche um 273,1 ® der idealen Skale unter dem Eispunkt liegt; eine Grenze für ,chi«d^ die Temperaturen nach der Höhe hin ist nicht angebbar. Nach dem Tempera- Thermometer, turbereich, innerhalb dessen zu messen ist, richtet sich die Wahl des Ther- mometers. Das gewöhnliche Quecksilberthermometer versagt bei 300®, bei welcher Temperatur das Quecksilber im luftverdünnten Raum des Thermo- meters schon zu sieden beginnt. Indem man aber den Raum über dem Queck- silber mit einem komprimierten Gase füllt, kann man das Sieden verhindern

und mit einem Gefäß aus dem schwer schmelzbaren Jenaer Verbrennungs- röhrenglas 575 ^ mit einem Gefäß aus dem noch schwerer schmelzbaren Quarz- glas 750® erreichen. Nach unten zu ist der Bereich des Quecksilberthermo- meters durch 38,9 ®, den Erstarrungspunkt des Quecksilbers, begrenzt. Ein mit Petroläther beschicktes Flüssigkeitsthermometer kann indessen nach F. Kohlrausch bis zur Temperatur der flüssigen Luft (vgl. Artikel 7) benutzt werden, da Petroläther bei dieser Temperatur noch nicht erstarrt. Der Bereich des Gasthermometers ist nach unten hin nicht begrenzt, wohl aber nach oben hin wegen Mangels eines standhaltenden Gefäßes. Bei Anwendung von Ge- fäßen aus hoch schmelzbaren Materialien wie Platinrhodium, Platiniridium oder Iridium ist man bis etwa 1600® C gekommen. Die einzige Methode, deren Bereich nach der Höhe hin keine Grenze hat, ist die radiometrische, welcher auch die äußerst hohen Temperaturen der Sonne (um 6000^ C) und der Fix- sterne zugänglich sind.

Wir haben uns in diesem Artikel auf die experimentellen Methoden der Temperaturmessung beschränkt. Die Bedeutung des Temperaturbegriffs in der Thermodynamik und in der Atomistik wird an anderer Stelle besprochen (vgl. Artikel 5, 11, 12).

4. KALORIMETRIE.

Von

L. Holborn.

Wärme- Die Entwicklung der Kalorimetrie, die sich mit der Bestimmung von

^*^"*'*** Wärmemengen beschäftigt, beginnt damit, daß J. Black in der zweiten Hälfte des i8. Jahrhunderts den Begriff der Wärmemenge klarstellte. Er ging von der Vorstellung aus, daß die Wärme eine unzerstörbare und unwägbare Substanz sei, die jeden Körper durchdringt. Die Erfahrung zeigt, daß Körper, die sich auf derselben Temperatur befinden, diese nicht ändern, wenn sie zur Berührung miteinander gebracht werden. Vereinigt man zwei gleiche Mengen von dem- selben Stoff, z. B. von Wasser, die verschiedene Temperatur besitzen, miteinan- der, so ist die Temperatur der Mischung gleich dem Durchschnitt der beiden einzelnen Temperaturen. Man erklärte sich diesen Vorgang durch die Vorstel- lung, daß mit jedem einzelnen Körper eine Wärmemenge verbunden ist, die proportional der Temperatur des Körpers ist, und daß von dem wärmeren Kör- per so lange Wärme auf den kälteren überströmt, bis die Temperatur in der ganzen Mischung ausgeglichen ist. Da außerdem mit der Masseneinheit eines Körpers bei derselben Temperatur stets dieselbe Wärmemenge verbunden ge- dacht wird, so ergibt sich ohne weiteres der Temperaturverlauf bei der Mischung von ungleichen Massen desselben Stoffes. Bringt man aber verschiedene Stoffe zusammen, so gilt diese einfache Mischungsregel, wie Black zuerst klar er- kannte, nicht mehr. Vor ihm war man der Meinung gewesen, daß alle Körper von derselben Masse dieselbe Wärmemenge aufnehmen, wenn sie dieselbe Tem- peraturerhöhung erfahren. Black fand bei der Mischung von Wasser und Quecksilber, daß diese Stoffe eine verschiedene Aufnahmefähigkeit für die Wärme haben, und gelangte damit zu dem Begriff der Wärmekapazität in dem heute gebräuchlichen Sinne, welcher damit diejenige Wärmemenge bezeichnet, die, auf einen Körper übertragen,,ihn um erwärmt. Nur wenn die Körper aüS demselben Stoffe bestehen, verhalten sich ihre Wärmekapazitäten wie ihre Massen. In jedem anderen Falle kann nur der Versuch das Verhältnis der Wärmekapazitäten zweier Körper ergeben. Welche Leistung Black mit der strengen Unterscheidung der für die Kalorimetrie in Fre^e kommenden Begriffe vollbrachte, kann man daran ermessen, daß vor ihm noch vielfach Temperatur und Wärmemenge füreinander gebraucht wurden, wie auch heute wohl noch im allgemeinen Sprachgebrauch unter der Wärme des Ofens sowohl die von diesem abgegebene Wärmemenge, wie seine Temperatur verstanden wird.

Einheit der Wärmekapazität und der Wärmemenge 1 1 j

Sowohl Black wie seine Zeitgenossen Wilke und Crawf ord legten ihren Einheit von Messungen von Wärmekapazitäten als Einheit diejenige des Wassers zugrunde J^wäm"^ und bestimmten den „Wasserwert** e^ines Körpers, d. h. diejenige Wassermenge, "•°^*' die an die Stelle des zu messenden Körpers gesetzt unter denselben Heiz- bedingungen die gleiche Temperaturänderung erfährt. Hiermit ist auch das Maß für die Einheit der Wärmemenge gegeben: sie ist dadurch bestimmt, daß sie auf die Masseneinheit des Wassers übertragen deren Temperatur um i^ er- höht. Je nachdem man das Kilogramm oder das Gramm als Maßeinheit zu- grunde legt, erhält man als Wärmeeinheit die Kilogramm- oder die Gramm- kalorie (g-kal oder kg-kal).

Später führte die Verfeinerung der Messungen zu der Erkenntnis, daß eine solche Maßeinheit mit der Temperatur, von der man bei der Erwärmung des Wassers ausgeht, veränderlich ist. Es mußte also in den Begriff der Wärme- einheit noch diejenige Temperatur aufgenommen werden, die als Ausgangs- punkt gewählt wird. Entsprechend der kalorimetrischen Methode, deren man sich bediente, ist die Wahl dieser Temperatur verschieden ausgefallen, und man gelangte zu etwas voneinander abweichenden Werten der Kalorie: man unter- schied die Regnaultsche Kalorie, welche die Masseneinheit des Wassers von O auf C erwärmt, von der mittleren Kalorie, welche den hundertsten Teil der Wärmemenge darstellt, die die Masseneinheit des Wassers von o auf loo^ er- hitzt. Neuerdings wird die Kalorie von 15® (kali5) bevorzugt, welche die Masseneinheit des Wassers von 14,5 auf 15,5® erwärmt, weil dieses Wärmemaß für das am meisten benutzte Wasserkalorimeter von Zimmertemperatur am bequemsten ist. Zur Umrechnung der anderen Einheiten auf die kali^ gelten nach den besten Messungen der Neuzeit die Beziehungen

I Regnaultsche Kalorie = 1,008 kali5 I mittlere Kalorie = 1,000 kali5.

Der älteste Apparat für die Messung von Wärmemengen ist das Mischungs- Mischanffs- kalorimeter. Fs beruht auf der durch die Erfahrung bestätigten Vorstellung, ^""* ^^' daß bei der Berührung zweier ungleich temperierter Körper die Wärme, die man sich als einen unzerstörbaren, unwägbaren Stoff dachte, von dem höher temperierten Körper so lange überfließt, bis zwischen beiden die Gleichheit der Temperatur herrscht. Als einzige Voraussetzung gilt für diesen Vorgang, daß keiner der beiden Körper eine Änderung seines Zustandes erleidet, also z. B. von dem festen in den flüssigen oder von dem flüssigen in dien gasförmigen übergeht. Die von dem wärmeren Körper auf den kälteren übergehende Wärmemenge ist alsdann gleich dem Produkt aus seiner Wärmekapazität in die Zunahme seiner Temperatur. Am meisten wird das Wasserkalorimeter benutzt. Fs be- steht aus einem Gefäß, das außer einem Thermometer und einem Rührer eine bestimmte Wassermenge enthält, aus derem Gewicht sich unter Berücksichti- gung des geringen Wasserwerts von Gefäß, Thermometer und Rührer die Wär- mekapazität ergibt. Der Temperaturausgleich zwischen dem Wasser und dem hineingebrachten Wärmeträger erfordert auch bei der kräftigsten Rührung eine

K.d.G.nLiii»BdxPbysik 8

11^ 4* L. Holborn: Kalorimetrie

längere Zeit, während der auf den Wärmezustand des Kalorimeters fremde Ein- flüsse der Umgebung wirken. Man gibt ihnen einen regelmäßigen Verlauf und schwächt sie gleichzeitig dadurch ab, daß man das Kalorimetergefäß in eine Hülle setzt, deren Temperatur konstant auf einem von der Kalorimetertempera- tur nicht weit abliegenden Wert gehalten wird. Näherungsweise kann man als- dann die Wirkung der Hülle nach dem Vorgang von Rumford unschädlich machen, wenn man die Änderung der Temperatur, die das Kalorimeter durch die Einführung der zu messenden Wärmemenge erfährt, so einrichtet, daß der Wasserinhalt am Ende des Versuchs ebensoviel wärmer ist als die Hülle, wie er anfangs kälter war. Seit Regnault verfährt man genauer, indem der Wärme- austausch zwischen Kalorimeter und seiner Hülle in seiner Abhängigkeit von dem Temperaturunterschied der beiden Apparatenteile bestimmt wird, zu wel- chem Zweck der Temperaturgang des Kalorimeters vor und nach der Mi- schungsperiode zu beobachten ist. Man hat hier offenbar mit einer Erscheinung zu tun, die, in dem Mangel vollständig wärmeisolierender Stoffe begründet, viel- fach bei kalorischen Untersuchungen der Meßgenauigkeit eine Grenze setzt, und die immer wieder den Scharfsinn der Beobachter zur Erprobung neuer Ver- suchsanordnungen angespornt hat. So haben Richards und Lamb sich da- durch von dem Einfluß der Hülle zu befreien gesucht, daß sie die Hülle genau auf die Temperatur des Kalorimeters bringen und diese Bedingung auch wäh- rend der Mischungsperiode einhalten, indem sie der Hülle ebenfalls eine pas- sende Wärmemenge zuführen. Neuerdings werden vielfach die Glasgefäße mit doppelter evakuierter Wandung zur Wärmeisolation der Kalorimeter gebraucht.

Da der Gebrauch des Wasserkalorimeters immerhin auf ein kleines Tem- peraturbereich beschränkt ist, so hat man auch andere Flüssigkeiten, z. B. öl oder Quecksilber, zur Füllung des Kalorimeters benutzt. Oft werden auch die Kalorimeter aus festen Metallen hergestellt, in welchem Falle man namentlich Kupfer- oder Silberkörper wegen ihres guten Wärmeleitvermögens wählt. Sie erhalten eine Bohrung für das Thermometer und finden neuerdings namentlich für sehr tiefe Temperaturen Verwendung, wo die Zahl der noch flüssigen Kör- per nur gering ist. Auch sind sie wegen ihrer kleinen Wärmekapazität überall da am Platz, wo kleine Wärmemengen zu messen sind, also besonders auch in dem Falle, wo nur ein kleiner Temperaturunterschied zwischen dem Kalori-. meter und dem zu messenden Körper hergestellt werden kann.

Die Berechnung des Wasserwerts ist dann allerdings selten mit hinreichen- der Genauigkeit möglich : man muß ihn deshalb auf empirischem Wege bestim- men. Zu diesem Zweck führt man dem Kalorimeter eine bekannte Wärme- menge zu und mißt die dadurch hervorgebrachte Temperaturerhöhung. Han- delt es sich um die Bestimmung des Wasserwerts eines Flüssigkeitskalorimeters, so benutzt man zweckmäßig nach dem Vorschlage von Andrews (1845) ^i^ i^^t Wasser oder Quecksilber gefülltes Glasgefäß, das eine enge geteilte Röhre trägt und zugleich ein Thermometer ersetzt, mit dem sich die Temperatur des Wärmeträgers bei dem Eintauchen und Herausziehen aus dem Kalori- meter messen läßt (Thermophor).

Mischlings- und Eisschmelzverfahren 1 1 ^

Das bequemste Mittel für die Wärmezuführung bildet jedoch die Über- tragung von elektrischer Energie, deren Wärmewert sich aus der Stromstärke J (in Ampere), der Spannung £ (in Volt) und der Zeit t (in Sekunden) zu 0,239 E^i g-kal ergibt. Dieses Verfahren, das von Pfaundler (1869) herrührt, er- fordert die Anbringung eines elektrischen Widerstandes im Kalorimeter, an dessen Enden die Spannung E gemessen wird. Bestimmt man die Temperatur des Kalorimeters mit einem elektrischen Widerstandsthermometer, so kann dieses zugleich auch als Leiter für den Strom dienen, mit dem man den Wasser- wert bestimmt. Das Verfahren hat außer seiner Empfindlichkeit den Vorteil, daß es sowohl auf tiefe, wie auf hohe Temperaturen des Kalorimeters und auf alle Füllungen, sowie feste Körper anwendbar ist. Besonders geeignet ist es für Flüssigkeiten, die gute elektrische Isolatoren sind, da alsdann der elektrische Widerstand in Gestalt blanker Leiter verwendet werden kann, die ihre Wärme unmittelbar an die Kalorimeterflüssigkeit abgeben. Elektrisch leitende Kalori- meterfüllungen erfordern zur Vermeidung elektrolytischer Wirkungen gut isolierte Widerstände, die den Übergang der Wärme verzögern und dem Kalori- meter eine größere Trägheit verleihen.

Führt man einem Körper Wärme zu, so ändert sich im allgemeinen nicht allein seine Temperatur, sondern es können auch Zustandswandlungen ein- treten: der Körper kann von dem festen Aggregatzustand in den flüssigen oder von dem flüssigen in den gasförmigen übergehen. Bei dem Mischungs- kalorimeter benutzt man nur die Temperaturerhöhung zur Messung von Wärmemengen. Es finden jedoch auch Zustandsänderungen für diesen Zweck Anwendung. Black, der auch für die Erforschung dieser Erscheinungen bahn- brechend war, bestimmte mit einer für seine Zeit überraschenden Genauig- keit die Wärmemengen, die erforderlich sind, die Masseneinheit Eis bei seiner Schmelztemperatur in Wasser und die Masseneinheit Wasser bei seiner Siede- temperatur in Dampf zu verwandeln. Er nannte diese Wärmemengen, die man als Schmelz- und Verdampfungswärme bezeichnete, latente, weil sie keine Tem- peraturänderung bewirken und mit dem Thermometer nicht wahrgenommen werden. Kennt man den Wert dieser latenten Wärmen, so kann man den Schmelz- und Verdampfungsvorgang umgekehrt zu kalorimetrischen Bestim- mungen benutzen, bei denen die Menge des geschmolzenen Eises oder des ver- dampften Wassers als Maß für die zugeführte Wärmemenge dient.

Der Schwede Wilcke beobachtete zuerst mit dem Eiskalorimeter, das Ebkaionmoter. später von Laplace und Lavoisier (1780) vervollkommnet wurde. Sie trugen besonders dafür Sorge, daß nur die zu messende Wärmemenge zu dem Eiskalori- meter gelangt, und umgaben es deshalb mit einem Mantel, der mit schmelzendem , Eise gefüllt wurde. Allerdings besaß auch ihr Instrument einen Mangel, da nicht das ganze Schmelzwasser aus dem Kalorimeter abfloß, sondern z. T. an dem Eise hängen blieb. Der Apparat eignete sich deshalb nicht zur Bestim- mung kleiner Wärmemengen, weil alsdann das an dem Eise haftende Schmelz- wasser einen zu großen Teil des gesamten ausmacht. Hermann (1834) trennte zur Vermeidung dieses Übelstandes das Schmelzwasser nicht von dem unge-

Il6 4. L. HOLBORN: Kalorimetrie

schmolzenen Eise und bestimmte die Menge des ersteren aus der Abnahme, die das Volumen des Eises während des Schmelzens erfährt. Seine richtige Durchbildung hat dieses Verfahren von Bunsen (1870) erhalten, der den Ausgang des Kalorimetergefäßes durch Quecksilber abschloß und die Vo- lumenabnahme seiner Füllung durch die während des Schmelzens eingesaugte Quecksilbermenge feststellte. Seitdem diese dann nach dem Vorgai^ von Schuller und Wartha durch Wägung gemessen wird, bildet das Eiskalori- meter einen der vollkommensten physikalischen Apparate. Der Zuführung einer Grammkalorie, die Vso & ^^^ schmilzt, entspricht die Einsaugung von 0,0155 g Quecksilber. Dampf- Das Dampfkalorimeter wird meistens in der Weise benutzt, daß man einen

lorimeter. j^^ltcren Körper in ein Gefäß bringt, der mit dem Dampfe siedenden Wassers angefüllt ist. Dieser wird teilweise in flüssiges Wasser verwandelt, das sich auf der Oberfläche des Körpers so lange niederschlägt, bis er auf die Siedetemperatur gebracht ist. Die Menge des Niederschlags wird durch die Wage bestimmt: mit jedem Gramm Wasser gehen 539 kal auf den Körper über. In derselben Weise, wie die Verdampfungswärme des Wassers, läßt sich auch die anderer Flüssigkeiten verwenden; so benutzt man in tiefen Temperaturen z. B. die Ver- dampfungswärme von flüssiger Luft.

strömaags- Dic Vorstehend behandelten -Verfahren zur Messung von Wärmemengen erleiden mannigfache Abänderungen, die sich nach der zu lösenden Aufgabe richten und die bei der Besprechung der einzelnen Eigenschaften der Materie berücksichtigt werden sollen, zu deren Ermittlung die Kalorimetrie notwendig ist. Die stillschweigende Voraussetzung jener Darlegungen, daß der Wärme abgebende Körper bis zur Beendigung des Versuchs mit dem Kalorimeter vereinigt bleibt, nötigt uns jedoch schon hier zu einer Ergänzung. Handelt es sich z. B. um die Bestimmung von Wärmekapazitäten fester Körper, so läßt sich diese Bedingung ohne Schwierigkeit erfüllen. Auch Flüssigkeiten sind auf diese Weise der Messung noch zugänglich, wenn sie in Gefäße eingeschlossen oder unmittelbar mit der Kalorimeterfüllung gemischt werden, nicht aber Gase bei kleiner Dichte (etwa von Atmosphärendruck). Denn die Gefäße, in denen man sie einschließen muß, haben eine so viel größere Kapazität als ihr Inhalt, daß schon ein kleiner Fehler, wie er bei der Bestimmung der Gefäßkapazität nicht zu vermeiden ist, das Ergebnis fälschen würde. Man bedient sich deshalb des von Delaroche und B6rard (181 3) ersonnenen Kunstgriffs und läßt einen Gasstrom von bestimmter Menge nicht allzu langsam durch das Kalorimeter strömen, so daß diesem eine größere Wärmemenge in kurzer Zeit zugeführt werden kann. Regnault (1862), dem man die meisten Messungen nach dieser Methode verdankt, brachte in der Kalorimeterflüssigkeit als Strömungsrohr eine metallene Schlange an, die den Übergang der Wärme von dem Gase auf das Kalorimeter erleichtert. Weil die Gasleitung an dem Eintrittsende eine andere Temperatur als das Kalorimeter besitzt, so ist zu berücksichtigen, daß dem Kalorimeter nicht allein durch das Gas Wärme zugeführt wird, sondern auch durch das Zuleitungsrohr. Hierin liegt eine Fehlerquelle, durch die die

Strömungs- und Erkaltungsmethoden nj

Meßgenauigkeit begrenzt wird, weil sich der Einfluß jener beiden Wirkungen nur annäherungsweise trennen läßt.

Neuerdings hat Callendar (1899) für die Untersuchung der Flüssigkeiten ein neues Verfahren benutzt, das auch bef Gasen Anwendung gefunden hat. Man leitet das Gas durch ein Rohr und teilt ihm auf diesem Wege elektrisch eine bestimmte Wärmemenge mit. Gegenüber der vorhergehenden Methode strömt das Gas ohne Unterbrechung gleichmäßig, so daß sich ein Dauerzustand ausbil- det, der durch eine bestimmte Temperatur des Gases bei seinem Eintritt und Austritt sowie durch eine bestimmte Temperaturverteilung längs des Rohrs gekennzeichnet ist. Leitet man den Versuch nun in der Weise, daß nur die Geschwindigkeit des strömenden Gases und dementsprechend die Größe der elektrisch zugeführten Wärmemenge geändert wird, alle den Dauerzustand des Strömungsrohrs bestimmenden Temperaturen aber unverändert bleiben, so läßt sich die Aufnahmefähigkeit des Gases für die Wärme aus den Beobach- tungen zweier verschiedener Strömungsgeschwindigkeiten berechnen.

Unter besonderen Bedingungen kann man die Wärmekapazitäten zweier Erkaltung*- Flüssigkeiten in einfacher Weise nach dem Erkaltungsverfahren vergleichen, das "***^**^® von Tobias Mayer (1796) vorgeschlagen wurde. Man benutzt zu diesem Zweck ein kleines Gefäß aus glänzend poliertem Metallblech, das nach seiner Füllung mit einer der zu untersuchenden Flüssigkeiten erwärmt und dann einer kälteren Umgebung ausgesetzt wird, damit es sich abkühlt. Beobachtet wird die Ab- kühlungsgeschwindigkeit, indem z. B. der Stand eines in die Flüssigkeit tau- chenden Thermometers in gleichen Zeitabschnitten abgelesen wird. Die Wärme- kapazitäten von mit verschiedenem Inhalt versehenen Gefäßen verhalten sich wie die Zeiten, in denen die Körper denselben Temperaturabf all erfahren. Dieser Satz gilt allerdings nur unter der Bedingung, daß der Temperaturüberschuß des sich abkühlenden Körpers über seine Umgebung nicht groß ist, und daß in dieser ständig eine gleichmäßige Temperaturverteilung herrscht. Da ferner die Unregelmäßigkeit der Luftströmungen zu ungenauen Ergebnissen führt, so bringt man das erwärmte Gefäß wohl in Räume, aus denen die Luft ausge- pumpt werden kann. Für die Beobachtungen fester Körper ist das Verfahren nur geeignet, wenn diese die Wärme gut leiten.

Literatur siehe Seite 178.

5. ENTWICKLUNG DER THERMODYNAMIK.

Von F. Henning.

Die Wärme sehen wir als eine Form der Energie an. Wir stellen sie uns mechanisch als die lebendige Kraft vor, welche in der lebhaften Bewegung der kleinsten Massenteilchen, der Moleküle und Atome enthalten ist. Heute wissen wir, daß die Wärme in irgendeine andere Energieform verwandelt werden kann, z. B. in Elektrizität oder in mechanische Arbeit zum Fortbewegen und Heben von Lasten. Die Erkenntnis dieser Tatsache aber und die Aufstellung der übrigen die Wärmelehre beherrschenden Gesetze, die für die Entwicklung der Physik von ganz hervorragender Bedeutung geworden sind, hat Jahrzehnte angestrengtester Forschungsarbeit erfordert. Stofftheorie Um die Mitte des 1 8. Jahrhunderts herrschten auf dem Gebiet der Wärme- der Wärme. jgj^j.g noch die verworreusten Zustände. Die Begriffe Wärmemenge und Tem- peratur wurden durcheinander geworfen, bis um 1760 der Engländer Black mit scharfem Verstand hier Klarheit^chaff te. Er folgerte aus seinen Versuchen, daß verschieden große Wärmemengen nötig sind, um verschiedene Körper gleich stark zu erwärmen, und ihm verdanken wir die Erkenntnis, daß beim Schmelzen und Verdampfen beträchtliche Wärmemengen verbraucht werden, ohne daß Temperaturanstiege zu beobachten sind (vgl. Artikel 4). Zeitgenossen und später Geborene sahen in ihm den genialen Meister, und es darf daher nicht wunder- nehmen, daß seine Theorie von der stofflichen Natur der Wärme den weitesten Eingang fand. Eine derartige Vorstellung, die an die einfachsten täglichen Erfah- rungen eng anknüpfend, weniger durchsichtige Erscheinungen dem Verständnis näher bringt, ist stets schwer zu stürzen gewesen, auch wenn sie sich später als falsch herausgestellt hat. So blieben die schönen Versuche von Rumford und Davy, die der Existenz eines Wärmestoffes durchaus widersprachen, fast unbeachtet, obgleich die Auffassung der Wärme als eine Art Bewegung schon von Lavoisier und Laplace und noch 100 Jahre früher sogar schon von Huygens und Newton zum Ausdruck gebracht war. versacbe Rumf ord ließ in München Kanonenrohre ausbohren. Als diese Arbeit in

"^ttndD^y'^ einem Wasserbehälter vorgenommen wurde, beobachtete er, daß die Flüssigkeit sich immer mehr erwärmte und nach 2 Stunden sogar zum Sieden kam. Es war unmöglich, daß die hier deutlich in die Erscheinung tretende Wärme etwa dem Metall oder anderen Teilen der Anordnung entzogen war; sie ließ sich offenbar ins Unbegrenzte erzeugen und mußte ihre Entstehung der Reibung verdanken.

StofiÜieorie. Camots Gesetze 119

Noch schärfer beweisend ist Davys Experiment. Er brachte auf einer Me- tallplatte, die durch ein Uhrwerk an einem metallenen Rad kräftig gerieben wurde, Wachs zum Schmelzen. Die ganze Anordnung stand im luftleeren Raum auf einem Eisblock, der von einer Wasserrinne umgeben war. Wäre etwa die in der Metallplatte auftretende Wärme der Umgebung entzogen worden, so hätte das Wasser in der Rinne gefrieren müssen, was indessen nicht geschah.

Trotzdem auch noch einige andere bedeutende Männer jener Zeit wie Camots Gesetz« Young und Ampfere Wärme und Bewegung als gleichwertig ansahen und öf- fentlich aussprachen, daß beide ineinander übergeführt werden könnten, so wurde doch der erste große Schritt auf dem Wege zur heutigen Thermodynamik völlig unter dem Einfluß der alten Blackschen Anschauung getan. Der fran- zösische Ingenieur Sadi Carnot legte sich die wichtige Frage vor, unter wel- chen Bedingungen eine Dampfmaschine möglichst viel mechanische Arbeit lei- sten könnte. Zur Lösung dieses rein praktischen Problems suchte er nach den wissenschaftlichen Grundlagen der Wärmetheorie und kam zu der Vorstellung, daß Wärme stets dann Arbeit leisten kann, wenn sie von höherer zu niedrigerer Temperatur strömt. Zwar fand er die Arbeitsleistung nicht dem Temperatur- gefälle völlig proportional, doch schien ihm der Vergleich mit dem Arbeitsge- winn durch herabfallende Wassermassen gestattet, da nach Ablauf des Vor- ganges die Wärmemenge ebensowenig geändert sei, wie die Wasserraenge.

Seit Camots Untersuchungen wissen wir, daß die Leistung der Maschine von der Art und Weise abhängig ist, in der der Dampf die Wärme transportiert. Es wird nämlich im Vergleich zur übergeführten Wärmemenge die größte Arbeit dann gewonnen, wenn der Prozeß sehr langsam vonstatten geht; die Ökonomie der Maschine ist dann am größten, wenn plötzliche Volumen- und Temperatur- änderungen des Dampfes vermieden werden und wenn der Dampf nur mit Kör pern in Berührung gebracht wird, deren Temperatur der seinigen äußerst nahe gleich ist. Nur in diesem Falle kann man erreichen, daß keine Wärme auf tie- fere Temperatur strömt, ohne an der Arbeitsleistung beteiligt zu sein. Ein sol- cher Vorgang, der zwar nicht in Wirklichkeit, sondern nur in Gedanken aus- führbar ist, würde also bei gegebenen Wärmemengen die denkbar größte Ar- beitsleistung liefern. Weiter untersuchte Carnot nun die Frage, ob die maxi- male Arbeit, wie sie durch einen derartigen idealen Prozeß gewonnen wird, etwa einen günstigeren Wert annimmt, wenn man sich in der Dampfmaschine das Wasser durch irgendeine andere Substanz ersetzt denkt. Zur Lösung die- ser Aufgabe nahm er die Unmöghchkeit des in gewissem Sinne abgeänderten Perpetuum mobile an und wurde zu dem Resultat geführt, daß die von der Maschine geleistete Arbeit völlig unabhängig von dem Stoff ist, mit dem sie beschickt wird.

Carnot starb 1832, erst 36 Jahre alt. Aus seinen nachgelassenen Notizen, die im Jahre 1878 bekannt wurden, können wir ersehen, daß er in den letzten Jahren seines Lebens die Stoff theorie der Wärme mit der heute gültigen Auf- fassung vertauscht hatte und sogar einen ziemlich guten Wert für das Wärme- äquivalent, d. h. für die einer Wärmeeinheit gleichwertige Arbeitsgröße be-

I20 S* F.Henning: Entwicklung der Thermodynamik

rechnet hatte. Durch seinen frühzeitigen Tod wurde die Entwicklung der Ther- modynamik um mindestens ein Jahrzehnt verzögert. Die Arbeiten Gamets wurden zunächst wenig bekannt. Es ist das Verdienst Clapeyrons, sie der Vergessenheit entrissen zu haben. Er stellte 1834 die Carnotschen Sätze sowohl in Diagrammen als auch in mathematisch präziser Form dar und er- gänzte .sie in einigen Punkten. Wirklich beachtet aber wurde auch diese Ar- beit erst, als sie neun Jahre später ins Deutsche übertragen in den Poggen- d orf sehen Annalen erschien, und erst 1850 hatClausius die Carnotschen Ideen zu neuem Leben erweckt, indem er sie mit der Auffassung von der Um* wandelbarkeit der Wärme vereinte. Der erste Die wichtige Tatsache der Gleichwertigkeit von Wärme und Arbeit wurde VvoUkommenklarzuerstvondemHeilbronner Arzt Julius Robert Mayer im Jahre 1842 ausgesprochen. Während einer Reise nach Java fiel ihm bei Ge- legenheit von Aderlässen auf, daß die dort lebenden Menschen auffallend hell- rot gefärbtes, also mit wenig Sauerstoff beladenes Blut besaßen.

Ausgehend von der schon damals wohlbekannten Vorstellung, daß alle ani- malische Wärme das Produkt einer chemischen Verbindung des Sauerstoffes mit den aufgenommenen Nahrungsmitteln sei, erklärte er sich seine Beobach- tungen dadurch, daß der Organismus in dem heißen Klima, wo die Wärmeab- gabe nach außen gering ist, nur wenig Wärme zu entwickeln braucht, um seine Temperatur stets auf gleicher Höhe zu halten. Von besonderer Wichtigkeit ist, daß nach Mayers Anschauung auch die vom Menschen geleistete mechanische Arbeit durch die Oxydationswärme der Nahrungsmittel kompensiert werden muß. Er zweifelte nicht daran, daß alle mechanische Arbeit sich in Wärme verwandeln lassen müßte, und zwar nach ganz bestimmten durch Zahlen aus- drückbaren Verhältnissen, die auch für die Gewinnung von Arbeit aus Wärme maßgebend sein müßten. Durch Mangel an physikalischen Kenntnissen stark behindert, gelang es ihm dennoch, aus längst bekannten Beobachtungsdaten das mechanische Wärmeäquivalent zu berechnen.

Mayers Gedanken, die zwar vielfach mit philosophischen Betrachtungen durchwebt waren, wurden zunächst wenig beachtet. Nur mit Mühe fand er einen Ort für ihre Veröffentlichung. In einer zweiten im Jahre 1845 erschie- nenen Schrift verallgemeinerte er sein Prinzip, indem er das für die gesamte Natur gültige Gesetz von der Erhaltung der Energie aufstellte, das sich also nicht nur auf Wärme und mechanische Arbeit, sondern auch auf alle elektri- schen, magnetischen und chemischen Vorgänge bezieht. Helmholtz, der die May er sehen Arbeiten nicht kannte, hat im Jahre 1847 dieselben Gedanken ausgesprochen, allerdings in einer sehr viel durchgeistigteren Form. Von be- kannten Tatsachen ausgehend, entwickelte er in seiner Abhandlung „Über die Erhaltung der Kraft*' jenes Grundgesetz, das wir den ersten Hauptsatz der Thermodynamik nennen, mit aller ihm zu Gebote stehenden mathematischen Schärfe und legte gleichzeitig das Fundament für eine Anzahl späterer Arbeiten, in denen er verwickelte physikalische und chemische Erscheinungen klarlegte. Die Priorität Mayers hat Helmholtz stets anerkannt. Er hat überhaupt nie

Erster Hauptsatz j2i

den Anspruch erhoben, die Gleichwertigkeit von Wärme und Arbeit entdeckt zu haben, denn erführt in seiner Schrift die von Holtzm^nn und Joule be« rechneten Werte des Wärmeäquivalents an. Holtzmann ging bei seiner Be- rechnung den Weg Mayers, sich ebenfalls auf Beobachtungen anderer Autoren stützend. Joule stand auf eigenen Versuchen. Sein Verdienst ist es, durch zahl- reiche, mit kritischem Scharfblick durchgeführte Beobachtungen die Frage der Wärmeerzeugung durch Arbeit auf rein experimentellem Wege beantwortet zu haben.

Er ging aus von der durch elektrischen Strom erzeugten Wjlrme. Wenn dm warme- er die Pole eines galvanischen Elements durch einen Draht verband, so wußte ^"^ *"^ er, daß die in dem Draht entstehende Wärme proportional dem Widerstand des Drahtes und dem Quadrat der Stromstärke ist. Wo die Quelle der Wärme zu suchen sei, blieb einstweilen unentschieden, da es nicht ausgeschlossen schien, daß sie aus dem Element, dessen Temperatur infolge des chemischen Vorganges bei Stromentnahme stets anstieg, durch Leitung herbeigeführt sei. Es entstand nun die Frage, ob etwa die gleiche Gesetzmäßigkeit auch für einen von Induk- tionsströmen durchflossenen Leiter gelte, der also mit keiner Wärmequelle in leitender Verbindung stand. Zu dem Zweck ließ Joule eine von Wasser um- gebene Spule zwischen Magneten rotieren. Er beobachtete die Stärke des In- duktionsstromes sowie die Temperatursteigerung des Wassers und fand sein Ge- setz bestätigt. Ihm war nicht zweifelhaft, daß bei diesem Versuch die Arbeit, welche zur Rotation der Spule aufgewendet wurde, in der Erwärmung der Spule und deren Umgebung wieder zum Vorschein kam. Er maß die geleistete mechanische Arbeit durch ein herabsinkendes Gewicht, das durch Schnurlauf und Rolle die Drehung der Spule bewirkte, und gelangte so zu feiner Be- stimmung des Wärmeäquivalents. Diese wichtige Größe leitete er außerdem aus zahlreichen anderen Versuchen ab. Er ließ z. B. in Wasser oder Queck- silber ein Schaufelrad laufen, das unter Aufwand einer bestimmten Arbeit gedreht wurde, und beobachtete gleichzeitig die Temperaturerhöhung der Flüssigkeit. Er bestimmte ferner die Erwärmung, die beim Zusammendrücken eines Gases auftritt und die Abkühlung, die ein komprimiertes Gas erleidet, wenn es bei seiner Ausdehnung den Druck der Atmosphäre überwindet. Gelegentlich dieses letzteren Versuches ist der Nachweis interessant, daß die Abkühlung ausbleibt, wenn das Gas in ein Vakuum strömt und also keine Arbeit zu leisten hat.'

Seit jener Zeit ist das Wärmeäquivalent sehr häufig mit allmählich wach- sender Genauigkeit bestimmt worden. Nach dem augenblicklichen Stande ist die mechanische Arbeit, durch die eine Kalorie erzeugt werden kann, d. h. durch die ein Gramm Wasser von 14,5*^ auf 15,5^ C erwärmt werden kann, 427,1 mal so groß als diejenige Arbeit, welche ein Gramm um ein Meter ent- gegen der Anziehungskraft der Erde unter der geographischen Breite von 45° zu heben vermag. Oder wenn wir die J 0 u 1 e sehe Stromwärme als Maß benutzen, so können wir sagen: eine Kalorie wird durch 4,188 Wattsekunden erzeugt, d. h. eine Kalorie ist 4, 188 mal so groß als die Wärme, welche während einer Sekunde

122 5* F- ^^^l^^O' Entwicklung der Thennodynamik

durch einen Strom von einem Ampere in einem Draht von einem Ohm Wider- stand erzeugt wird.

Bevor wir die Entwicklung der Thermodynamik weiter verfolgen, lohnt es sich, noch einen Augenblick bei einigen Versuchen des Kolmarer Ingenieurs Hirn zu verweilen, durch die er die Äquivalenz von Wärme und Arbeit sehr schön illustrierte. Er zeigte experimentell, daß Wasserdampf, der direkt in den Kondensator geleitet wurde, mehr Wärme abgab, als wenn er unter sonst glei- chen Bedingungen zuvor den Kolben der Maschine bewegte und also Arbeit ge- leistet hatte. Andere seiner Beobachtungen beziehen sich auf das Gebiet der Physiologie und knüpfen an die oben erwähnten May er sehen Überlegungen an. Hirn setzte einen Menschen in einen völlig abgeschlossenen Raum und maß die von ihm verbrauchte Menge Sauerstoff sowie die von ihm erzeugte Wärme. Befand sich der Mensch in völliger Ruhe, so entwickelte er pro g Sauerstoff 5,2 kg-Kal. Stieg er ein Tretrad hinauf, wobei er also Arbeit leisten mußte, die einen Teil der Oxydationswärme absorbierte, so sank jene Zahl auf 2 kg-Kal; sie ging über 5,2 kg-Kal. hinaus, wenn er unter Arbeitsgewinn das Tretrad hinabstieg. Weitare Dic modemc Anschauung von der Wärme als einer Form der Energie fand

der^e<!rie.in der wissenschaftUchcn Welt nur sehr langsam Eingang. Zwar gab es einige Forscher, die selbst das viel umfangreichere Gesetz von der Erhaltung der Ener- gie als etwas a priori Gewisses ansahen, was in jener Zeit, in der die Philosophie so große Geltung besaß, nicht wundernehmen kann. Die meisten beharrten da- gegen bei der Stoff theorie der Wärme, die der Vorstellung zunächst viel sicherere Angriffspunkte bot. Zu dieser letzteren Gruppe gehörte noch im Jahre 1849 Sir William Thomson, einer der bevorzugtesten Geister auf dem Gebiete der Physik. Die Versuche Joules waren ihm sehr wohl bekannt, aber er bemühte sich, sie von dem Carnot sehen Standpunkt aus zu erklären. Dies Beispiel ist wohl geeignet, uns die Größe der Tat Mayers, Joules und Helmholtz' ins rechte Licht zu rücken.

Zweifellos aber waren die Carnot sehen Ideen nicht völlig zu verwerfen, denn wie die Erfahrung lehrt, kann Wärme tatsächlich nur dann fortdauernd in Arbeit verwandelt werden, wenn sie von höherer auf tiefere Temperatur strömt. Es war also nötig, das Gute aus der alten Theorie herauszuschälen und mit dem Neuen zu vereinigen. Diese Tat ist im Jahre 1850 von Clausius voll- bracht worden, der dadurch die Thermodynamik zu einem Werkzeug machte, vor dem sich die Pforten vieler Geheimnisse der Natur öffneten, die bisher un- erforscht bleiben mußten. Clausius erkannte, daß bei der Arbeitsleistung nicht alle Wärme, welche aus dem Behälter höherer Temperatur vom Wasserdampf der Maschine aufgenommen wird, an den Behälter der tieferen Temperatur wie- der abgegeben wird. Ein Teil der Wärme geht bei diesem Vorgang verloren und wird in Arbeit verwandelt. Der Bruchteil der aufgenommenen Wärme, der in nutzbare Arbeit umgesetzt werden kann, läßt sich für den idealen Carnot- sehen Prozeß berechnen. Er ist nur abhängig von den Temperaturen der Wärme- behälter, nicht aber von der Substanz, die die Wärmemenge transportiert. Es

Zweiter Hauptsatz 123

ist dies das Car not sehe Resultat, übersetzt in die neue Anschauung vom Wesen der Wärme.

Der Tatsache, daß immer nur ein Teil der überströmenden Wärme in Ar- Der zweite beit verwandelt werden kann, liegt ein sehr allgemeines Gesetz zugrunde, das ^^^p*"*** Claus i US ebenfalls aufgestellt hat, und das als der zweite Hauptsatz der Ther- modynamik bezeichnet wird. Um es auseinanderzusetzen, müssen wir ein wenig weiter ausholen. Es gibt in der Natur gewisse Prozesse, die sozusagen von selbst vor sich gehen; wenn man z. B. das eine Ende eines Metallstabes erwärmt, so fließt die Wärme ohne unser Zutun „von selbst** zu dem kälteren Ende; oder wenn man einen Klotz durch Hammerschläge bearbeitet, so entsteht ohne wei- teres eine Wärmemenge, die dem ersten Hauptsatz nach zu berechnen ist. Solche Vorgänge nennt Claus ius positive. Weit schwieriger ist es, dem kalten Ende des Metallstabes durch weitere Abkühlung Wärme zu entziehen und sie dem wärmeren Ende zuzuführen. Nennt man einen solchen und ähnliche Prozesse negativ, so können wir den zweiten Hauptsatz so aussprechen: ein negativer Prozeß ist nur dann in der Natur möglich, wenn er durch einen positiven Pro- zeß von mindestens der gleichen Stärke begleitet wird. Ob und wie stark positiv oder negativ ein Prozeß ist, läßt sich an einer von Clausius aufgestellten Funktion erkennen, welche die Größe der auftretenden Veränderungen und die Temperatur des betreffenden Körpers enthält. Diese Funktion heißt die Entro- pie. Bei den positiven Prozessen wächst sie, bei den negativen nimmt sie ab. Da erstere in der Natur stets überwiegen, so nimmt die Entropie dauernd zu. Nur im Grenzfall, wie er etwa im idealen Carnotschen Prozeß auftritt, bleibt sie konstant. Während Wärmeentwicklung aus Arbeit ein positiver Prozeß ist, so ist die Verwandlung von Wärme in Arbeit, wie sie in der Dampfmaschine stattfindet, ein negativer Prozeß; der kompensierende posi- tive Vorgang ist der gleichzeitige Übergang von Wärme von höherer zu niedrigerer Temperatur (vgl. Artikel 32).

Während also der erste Hauptsatz etwas über die Energiemengen aussagt, welche bei einem Prozeß umgesetzt werden, so gibt der zweite Hauptsatz die Richtung an, in der der Prozeß verläuft. Dem ersten Hauptsatz widerspräche es nicht, wenn wir praktisch unbegrenzte Arbeitsenergie dadurch gewinnen wollten, daß wir dem Wasser der Weltmeere Wärme entzögen, wobei natürlich Abkühlung eintreten müßte. Der zweite Hauptsatz lehrt aber die Aussichts- losigkeit dieses Planes, denn er eröffnet uns, daß wir es mit einem negativen Prozeß zu tun haben, der, seine positive Kompensation erheischend, entweder dauerndes Abströmen der Wärme in ein Reservoir tieferer Temperatur oder etwa dauerndes Abströmen eines Gases in einen Raum tieferen Druckes verlangt. Die Aufrechterhaltung der tieferen Temperatur oder des tieferen Druckes er- fordern aber mehr Aufwand von Arbeit, als der aus dem Meerwasser entnom- menen Wärme entspricht.

Der zweite Hauptsatz ist ebenso wie der erste lediglich ein Ausdruck der Erfahrung. Wir müssen uns hüten, diese Sätze darüber hinaus zu verallge- meinern, wie es z. B. geschieht, indem man sie auf den unbegrenzten Raum

124 5* F.Henning: Entwicklung der Thermodynamik

der Welt anwendet. Wenn wir ein endliches System vollkommen nach außen abschließen könnten, so dürften wir aus den thermodynamischen Gesetzen fol- gern, daß sich mit der Zeit alle Temperaturunterschiede ausgleichen, so daß schließlich keine Möglichkeit zur Leistung von Arbeit mehr gegeben ist und der sog. Wärmetod eintHtt. Nicht gilt das gleiche von einem unendlichen Raum, in dem jeder Ausgleiqh unendliche 2^it erfordert.

Clausius gibt selbst eine große Zahl wichtiger Anwendungen des zweiten Hauptsatzes. Aber auch andere Forscher haben sich um den Ausbau dieses Zweiges der Wissenschaft sehr verdient gemacht, so z. B. Gibbs, Ränkine, van'tHoff, Planck. In allererster Linie ist aber jener William Thomson ?u nennen, der sich so lange sträubte, die Carnotschen Vorstellungen aufzu- geben und diese erst im Jahre 1851 völlig abgestreift hat. Die Claus iusschen Gedanken führte er unabhängig durch, ja, er überholte bisweilen den deutschen Forscher in seinen Entwicklungen, niermodyna- Thomsous Verdienst ist es auch, eine der schönsten und wichtigsten An- ^^g^^* Wendungen des zweiten Hauptsatzes gegeben zu haben, indem er auf ihn eine Methode zur Messung der Temperatur gründete, die von allen speziellen Eigen- schaften eines Körpers unabhängig ist und völlig übereinstimmende Resul- tate ergeben muß, gleichgültig, ob wir ein Gas oder eine Flüssigkeit, ja selbst einen festen Körper zur Durchführung der Messungen dienen lassen. Noch in den alten Carnotschen Ideen befangen, welche zu dem Schluß führen, daß. die Arbeitsleistung eines Quantums Wärmestoff, das von höherer zu niederer Tem- peratur strömt, nur von diesen Temperaturen, aber nicht von dem Träger der Wärme abhängt, schlug er vor, die Arbeitsleistung der Wärmeeinheit als Maß für die Temperatur zu wählen. Die neue Theorie erforderte gewisse Abänderun- gen dieses Vorschlages, der dem Prinzip nach aber vollständig aufrechterhalten werden konnte. In Gemeinschaft mit Joule stellte Thomson seine berühm- ten Versuche über die Temperaturänderung beim Strömen von Gasen durch einen porösen Stopfen an und leitete aus ihnen sowie den nicht minder berühmten R e gn au It sehen Untersuchungen über die spezifische Wärme und die Aus- dehnung der Gase die thermodynamische Temperaturskala in der heute gül- tigen Form ab. Die Bedeutung dieser Tat für die messende Physik wird klar, wenn man bedenkt, daß alle anderen Temperaturskalen, die man aufge- stellt hat und die auf irgendeiner speziellen Eigenschaft eines Körpers und deren Veränderung mit der Temperatur beruhen, stets Abweichungen von- einander zeigen, selbst wenn man sie auf so ähnliche Körper wie die Gase gründet (vgl. Artikel 3). Entropie und Aber trotz aller Erfolge der Thermodynamik und der Fruchtbarkeit des HcM^eit " Entropiebegriffs läßt es sich nicht verhehlen, daß diese letztere Größe, die sich bei allen Vorgängen der Natur vermehrt, mit einem gewissen geheimnisvollen Nimbus umgeben erscheint, und daß der Wunsch rege werden muß, dies Dunkel zu ergründen. In dieser Richtung hat Ludwig Boltzmann (1868) bahn- brechend gewirkt. Er ging von der Betrachtung der Gase aus, die man sich aus äußerst vielen gleichartigen Teilen, den Molekülen, bestehend denkt.

Entropie 125

Der erste Hauptsatz ist leicht verständlich, wenn man sich die Moleküle aller Körper in schneller Bewegung vorstellt und die gesamte lebendige Kraft der molekularen Bewegung als den Wärmeinhalt des Körpers ansieht. Dann ist Wärme nichts anderes als mechanische Bewegungsenergie und die Äqui- valenz beider Größen wird zur Selbstverständlichkeit. Boltzmann schürfte tiefer. Er erkannte, daß in jedem Körper gleichförmiger Temperatur die mo- lekulare Bewegung eine völlig ungeordnete zu werden strebt, so daß Größe und Richtung der Geschwindigkeit eines bestimmten Moleküls fortwährend ohne jede Regel wechselt. Dieses Ziel wird durch die vielen Zusammenstöße der Moleküle erreicht, wobei ein dauernder Austausch von Energie statt- findet. Anders ausgedrückt kann man sagen, daß eine geordnete Bewegung der Moleküle ein viel unwahrscheinlicherer Zustand ist, als eine ungeord- nete, und daß stets der wahrscheinlichste Zustand angestrebt wird. Um sich das zu veranschaulichen, denke man an einen Behälter,^ der mit sehr vielen ver- schieden gefärbten Kugeln angefüllt ist. Ordnet man dieselben zunächst so an, daß etwa alle blauen Kugeln an der Oberfläche liegen, und versetzt man nun den Behälter in lebhafte Erschütterungen, so mischen sich die blauen Kugeln immer mehr unter die übrigen, bis in ihrer Verteilung keine Änderung mehr eintritt, dann ist der völlig ungeordnete Zustand erreicht, der unter den vorhandenen Bedin- gungen der wahrscheinlichste ist, während die anfängliche Ordnung nur unter Anwendung künstlicher Mittel aufrechterhalten werden kann. Boltzmann hat nun die Wahrscheinlichkeit in nahe Beziehung zur Entropie gebracht. Die Wahrscheinlichkeit eines Zustandes sowie seine Entropie wachsen, wenn die Molekularbewegung der völligen Unordnung näher komn^t. Die Prozesse, bei denen das eintritt, sind die oben als positiv bezeichneten, die von selbst vor sich gehen. Werden aber die Moleküle in einen weniger wahrscheinlichen Zustand gebracht, so haben wir einen negativen Prozeß, der seine Kompensation in einem gleichzeitigen positiven Vorgang verlangt. Die Kompensation >muß so bemessen werden, daß die gesamte aus positivem und negativem Teil zusam- mengesetzte Veränderung einem Zustand höherer Wahrscheinlichkeit zustrebt. Die Grundlage der Boltzmannschen Theorie, nämlich die molekulare Struk- tur der Materie ist in unseren Tagen über die Unsicherheiten einer Hypothese hinausgewachsen. Wir können sie nunmehr als Gewißheit ansehen, denn es ist gelungen, die unter dem Einfluß der Wärme stattfindende Bewegung von Mole- külkomplexen direkt sichtbar zu machen. Am besten ist diese Erscheinung, die nach ihrem Entdecker die Brown sehe Bewegung genannt wird, an kolloi- dalen Lösungen zu beobachten. Erschüttern wir die Flüssigkeit, d. h. brin- gen wir in die Bewegung der Molekülkomplexe unter Aufwendung mechanischer Arbeit eine gewisse Ordnung, so können wir mit unseren Augen verfolgen, wie allmählich wieder völlige Unordnung eintritt und wir es also wieder mit einer reinen Wärmebewegung zu tun haben (vgl. Artikel il u. 12).

Die eigentliche Thermodynamik liefert zwar exakt gültige Beziehungen Die zustande. zwischen verschiedenartigen physikalischen Größen, sie läßt uns aber über die ^^***^****"*^- Größen selber völlig im unklaren. Zu zahlenmäßigen Angaben für diese

theorie and das Theorem von

126 5- F.Henning: Entwicklung der Thermodynamik

können wir nur gelangen, wenn wir die Thermodynamik durch die Theorie von der molekularen Struktur der Materie ergänzen. In der Tat sind auf diese Weise besonders auf dem Gebiet der spezifischen Wärme Ergebnisse erzielt, die mit den Beobachtungen in guter Übereinstimmung stehen. Das Ideal wäre, eine allgemeingültige Zustandsgieichung aufzustellen, d. h. eine zahlenmäßige Beziehung zwischen den für den Zustand eines Körpers charakteristischen Grö- ßen: Temperatur, Druck und Volumen. Mit Hilfe der Thermodynamik könnte man dann alle Eigenschaften unter den verschiedensten Bedingungen in Zah- len ausdrücken.

Einen sehr beachtenswerten Schritt nach dieser Richtung hat van der Waals getan, indem er eine Zustandsgieichung für Gase und Flüssigkeiten auf- stellte, die insbesondere für Gase innerhalb gewisser Grenzen befriedigend zu- trifft; für Flüssigkeiten gilt sie erheblich schlechter. Für eine Zustandsgieichung fester Körper sind erst in neuester Zeit Erfolg versprechende Ansätze gemacht worden. Die Quanten- Die molckularc Thcorie hat besonders auf dem Gebiete der Strahlung be-

fruchtend gewirkt. Zu sehr schönen Resultaten, die in Übereinstimmung mit Nenut der Erfahrung stehen, ist Planck hier gelangt, indem er sich die eigentümliche Vorstellung bildete, daß ein oszillierendes Elektrizitätsteilchen die Energie seiner Bewegung nicht kontinuierlich, sondern nur als Vielfaches gewisser kleinster Energiequanten in den Raum hinaussenden kann. Die Größe dieser Elementar- quanten ändert sich mit der Tourengeschwindigkeit des hin- und herschwingen- den Teilchens (vgl. Artikel lo). Diese geniale Idee hat Einstein nun wieder auf die ponderablen Körper verpflanzt und sie, indem er unsere Anschauung von der Wärmebewegung der kleinsten Teilchen modifizierte, auf alle um eine Ruhelage pendelnden Moleküle und Atome angewendet, wie sie am häufigsten bei den sehr fest gegenseitig gebundenen Molekülen der starren Körper vorkommen (vgl, Artikel 12). Sind mit den Massenteilchen elektrische Ladungen verknüpft, so gibt sich die Schwingungsperiode der Moleküle bzw. Atome in den Absorptions- linien kund, die der betreffende Körper in dem langwelligen Teil des Spek- trums besitzt. Es läßt sich somit in überraschender Weise eine Beziehung zwi- schen der Optik und dem Wärmeinhalt oder auch der spezifischen Wärme eines starren Körpers aufstellen. Auf diesem Grenzgebiet liegen jetzt erst die Anfänge der experimentellen Forschung vor. Das wichtigste bisher gewonnene Resultat ist eine stetige Abnahme der spezifischen Wärme mit abnehmender Temperatur, die für den absoluten Nullpunkt der Temperatur dem Wert o zuzustreben scheint. Höchst beachtenswert ist es, daß zu derselben Forderung ein von N ernst aufgestelltes Theorem führt, das auf experimenteller Grund- lage ruht und in der Planck sehen Fassung lautet: Die Entropie der festen und flüssigen Körper besitzt im absoluten Nullpunkt der Temperatur den Wert o. Die van der Waals sehe Zustandsgieichung liefert ein anderes Resultat, sie muß also einer Modifikation unterzogen werden.

Die Lehre von der Wärme erschien noch vor einigen Jahren als ziemlich abgeschlossen; jetzt ist sie wieder in ein Stadium lebhafter Entwicklung ge-

Zustandsgieichung. Neueste Entwicklung 127

treten. Sie steht nun nicht mehr hinter den mit Eile fortschreitenden anderen Gebieten der Physik zurück, und wenn sie auch schon seit ihrem Bestehen viele Zweige unserer Wissenschaft mit der gewaltigen Kraft ihrer unumstöß- lichen Grundgesetze durchdrungen hat, so ist sie jetzt im Begriff, innige Be- ziehungen zwischen scheinbar heterogenen Erscheinungen herzustellen und mit Macht den Gedanken an eine große Einheit in den mannigfaltigen Gesetzen der Natur zu stützen.

Literatur.

JOULB, 1884: Scientific Papers. London.

J.R. Mayer: Die Mechanik der Wärme. Ostwalds Klassiker Nr. 180. HjelbcholTz, 1854: Vortrag über die Wechselwirkung der Naturkräfte. Planck, 1900 : Prinzip der Erhaltung der Energie. 2. Aufl Leipzig.

6.

MECHANISCHE UND THERMISCHE EIGENSCHAFTEN DER MATERIE IN DEN DREI

AGGREGATZUSTÄNDEN.

Von

L. Holborn.

Die Stoffe kommen in drei Aggregatzuständen vor. Mit dem festen Zu- stande ist eine bestimmte Gestalt verbunden«, die einer Änderung einen Wider- stand entgegensetzt, welcher nur unter dem Aufwand äußerer Kräfte zu über- winden ist. In dem flüssigen Zustande besitzen die Stoffe zwar noch ein ge- wisses Volumen, aber die einzelnen Teile sind leicht gegeneinander verschieb- bar und folgen, ohne großen Widerstand zu leisten, Kräften, welche die Form verändern. In dem gasförmigen Zustande endlich haben die Stoffe das Be- streben, einen möglichst großen Raum einzunehmen; sie füllen Gefäße, in denen sie eingeschlossen werden, gleichmäßig aus. Die Beschreibung der Eigenschaf- ten der Stoffe wird die einzelnen Zustände noch schärfer kennzeichnen. Dichte Als Dichtc eincs Körpers bezeichnet man die Masse, welche in der Einheit

des Volumens eingeschlossen ist. In dem 2^ntimetergrammsystem, wo das Gramm die Einheit der Masse und das Kubikzentimeter die Einheit des Vo- lumens darstellt, hat das Wasser bei der Temperatur von 4*^ die Dichte Eins. Die Dichte eines Stoffes ist in diesem System gleich dem spezifischen Gewicht, d. h. gleich dem Gewicht des Stoffes geteilt durch das Gewicht einer Wasser- menge von vom Volumen des Stoffes.

Um die Dichte eines festen Körpers zu bestimmen, muß man sein Volumen und seine Masse messen. Die zweite Größe ist das Ergebnis einer Wägung, zur Ermittlung der ersten führt nur selten eine Messung der Dimensionen zum Ziele. Es gelingt dies nur bei ganz regelmäßigen Gestalten. Man ist deshalb gezwungen, eine Bestimmung des spezifischen Gewichts vorzunehmen. Es ge- schieht dieses nach der Regel von Archimedes, wonach ein in eine Flüssigkeit getauchter Körper soviel an Gewicht verliert, wie das Gewicht der verdrängten Flüssigkeit ausmacht. Außer der gewöhnlichen Wägung in Luft für die Bestim- mung der Masse, wird deshalb der zu untersuchende Körper noch unter Wasser gewogen. Der Unterschied beider Wägungen entspricht dem Gewicht einer Was- sermenge, die denselben Raum einnimmt wie der Körper und liefert damit das Volumen. Neben der gewöhnlichen Wage benutzt man für diesen Zweck ein besonderes Instrument, die Senkwage, die derart mit Gewichten belastet wird, daß sie stets bis zu einer bestimmten Marke in das Wasser eintaucht, sei es,

fester Körper.

Dichte

129

daß sich der zu wägende Körper in Luft, sei es, daß er sich unter Wasser be- findet. Ferner dient das Pyknometer, das von Klaproth (1800) angegeben und von Regnault zuerst zu umfassenden Messungen benutzt wurde, für die Bestimmung des spezifischen Gewichts. Es besteht aus einem Glasgefäß^ dessen Gewicht zu ermitteln ist, einmal wenn es bis zu einer gewissen Marke ganz mit Wasser gefüllt ist, sodann wenn ein Teil dieser Flüssigkeit durch den zu messenden Körper von bekanntem Gewicht ersetzt wird.

Dieselben Verfahren lassen sich auf die Untersuchung von Flüssigkeiten an* Dichte von wenden. Man bestimmt den Gewichtsverlust eines an einer Wage hängenden ^ ""** ****"' Senkkörpers in Wasser und in der betreffenden Flüssigkeit, deren spezifisches Gewicht alsdann gleich dem Quotienten dieser beiden Größen ist. Das Pykno- meter füllt man abwechselnd mit Wasser und der zu prüfenden Flüssigkeit und ermittelt auf diese Weise die Gewichte gleicher Volumina beider Stoffe. Bei dem Gebrauch von Senkwagen benutzt man meistens Instrumente konstanten Gewichts, auch Aräometer genannt, die um so tiefer eintauchen, je leichter die Flüssigkeit ist: die spezifischen Gewichte verhalten sich umgekehrt wie die Volumina, die eintauchen. Diese Apparate haben eine große Verbreitung für die Untersuchung von Flüssigkeitsgemischen gefunden und werden für die ver- schiedenen Zwecke nach willkürlichen Skalen geeicht.

Das Prinzip von Archimedes gilt für Gase ebenso wie für Flüssigkeiten, nicht« Doch ist man erst spät zu der Einsicht gelangt, daß die Gase der Schwerkraft "^^ "^' unterliegen. Galilei stellte hierüber die ersten Versuche an, auf Grund deren es seinem Schüler Toricelli gelang, den Luftdruck mit dem Quecksilberbarometer zu messen. Die Erfindung der Luftpumpe durch Otto von Guericke (1650) ermöglichte es dann, die Luft in beliebig großen Gefäßen zu verdünnen. Er gab auch ein Instrument an, das Baroskop, mit dem die Dichte der Luft gemessen werden konnte : eine empfindliche Wage, deren Balken auf der einen Seite eine Hohlkugel von großem Durchmesser, auf der anderen eine kleine massive Kugel trug. Brachte er diesen Apparat unter der Glocke einer Luftpumpe zum Ein- spielen, so sank die Hohlkugel infolge des verminderten Auftriebs, wenn die Glocke ausgepumpt wurde. Denkt man sich diese statt mit Luft mit einem anderen Gase gefüllt, so läßt sich dessen Dichte aus dem Auftrieb der Hohl- kugel bestimmen. In der Tat sind nach diesem Prinzip noch neuerdings Gas- wagen von Lommel und von Lux angegeben worden.

Ein anderer Versuch Guerickesist für die Messung von Gasdichten noch fruchtbringender geworden. Er tarierte auf einer Wage eine evakuierte große Hohlkugel und beobachtete ihre Gewichtszunahme, wenn Luft eingelassen wurde. Diese Anordnung ist für die Bestimmung von Gasdichten maßgebend geblieben: man wägt hierbei einen großen Glasballon einmal im evakuierten Zustande, sodann wenn er das zu messende Gas enthält; das zur Berechnung der Dichte notwendige Volumen des Ballons folgt aus einer Wägüng, bei der er mit Wasser gefüllt ist.

Regnault hat dieses Verfahren dadurch wesentlich verfeinert, daß er zur Tarierung des Glasballons einen zweiten gleichen benutzte. Hierdurch erreichte

K.d.G.in.m,Bdi Physik g

I30 6. L. HOLBORN: Mechanische und thermische Eigenschaften der Materie usw.

er, daß der Luftauftrieb, der mit dem Zustand der Atmosphäre entsprechend dem veränderlichen Feuchtigkeitsgehalt und dem wechselnden Barometer- stand schwankt, die Messung nicht beeinflußt. Allerdings ist zu berücksich- tigen, worauf später Rayleigh aufmerksam machte, daß das Volumen und damit der Auftrieb des Glasballons dadurch noch etwas veränderlich ist, daß er im evakuierten Zustande durch den Atmosphärendruck zusammengepreßt wird.

Wägungen, die im allgemeinen mit Gewichten aus Metall ausgeführt wer- den, erfordern eine Korrektion wegen des ungleichen Auftriebs, den die Körper auf den beiden Wagschalen wegen der Ungleichheit der Volumina erleiden. Wenn der Unterschied auch nicht immer so groß ist, wie in dem Falle, wo Gase zu wägen sind, so ist doch dieser Einfluß bei der großen Genauigkeit, deren die Wage fähig ist, meistens noch merklich. Man pflegt deshalb die Gewichte der Körper auf den leeren Raum zu reduzieren: zu dein scheinbaren Gewicht in der Luft ist eine Korrektion hinzuzufügen, die mit dem Unterschied der Volumina des gewogenen Körpers und der Gewichtsstücke wächst.

Da die Körper ihr Volumen mit der Temperatur ändern, so gelten alle An- gaben von Dichten nur für eine bestimmte Temperatur. Streng genommen gilt dasselbe für den Druck, unter dem die Körper stehen. Doch ist dieser Ein- fluß bei dem festen und flüssigen Zustande wenig merklich und spielt haupt- sächlich nur bei den Gasen eine Rolle. Als Norm gilt für die Dichtemessungen die Temperatur von O^ und der Druck der normalen Atmosphäre von 760 mm Quecksilber. Ausdehnung. Im allgemeinen dehnen sich die Körper mit wachsender Temperatur aus. Bei festen Körpern ist diese Ausdehnung klein; man pflegt sie deshalb für iso- trope Stoffe in der Weise zu bestimmen, daß die Vergrößerung der Längsrich- tung eines langen Stabes in einem größeren Temperaturintervall ermittelt wird, wobei man nach dem Vorgang von Lavoisier und Laplace (1816) unter Be- nutzung eines Komparators die Ausdehnung auf optischem oder mechani- schem Wege stark vergrößert. Fizeau (1864) hat ein ungleich empfindlicheres Verfahren angegeben, das die lineare Ausdehnung unmittelbar in Wellen- längen einer homogenen Lichtquelle auswertet; hierzu sind nur kleine Probe- körper erforderlich.

Lange Zeit hat man sich bei den genauen Untersuchungen über die Aus- dehnung fester Körper auf das Temperaturbereich zwischen o*^ und lOO*^ be» schränkt. Erst mit Hilfe der elektrischen Heizung ist es möglich geworden, höhere Temperatur auf der ganzen Länge ausgedehnter Stäbe in ähnlicher Gleichmäßigkeit herzustellen, wie sie Flüssigkeitsbäder bei tieferen Tempera- turen gewähren. Auf diese Weise wurden namentlich die hoch schmelzenden Metalle zuerst bis 1000® auf ihre Ausdehnung von Holborn und Day (1900) untersucht. Nach unten sind viele Stoffe bis zur Temperatur der flüssigen Luft, teilweise sogar bis zu der des flüssigen Wasserstoffs gemessen. Die Aus- dehnung steigt im allgemeinen mit der Temperatur beschleunigt an, und die vorliegenden Ergebnisse machen es wahrscheinlich, daß die Ausdehnung der Metalle im absoluten Nullpunkt der Temperatur verschwindet.

Ausdehnung X 3 X

Bei Flüssigkeiten und Gasen, die keine eigene Gestalt haben, kommt nur die kubische Ausdehnung, d. h. die Vergrößerung ihres Volumens in Betracht. Man schließt sie für die Beobachtung in Gefäße ein, deren Ausdehnung geson- dert bestimmt werden muß. Nur ein Verfahren, das vielfach für die Unter- suchungen von Flüssigkeiten gedient hat, ist unabhängig von der Ausdehnung des Gefäßes: man füllt hierbei die Flüssigkeit in kommunizierende Röhren, deren Schenkel man auf verschiedenen Temperaturen hält. Da sich die Höhen der Flüssigkeitssäulen beider Schenkel umgekehrt wie ihre Dichten verhalten, so gibt der Höhenunterschied der Säulen ein Maß für die Ausdehnung. Das Ver- fahren ist besonders auf Wasser und Quecksilber angewandt und nach Dulong und Petit (1818), welche damit begannen, von spätem Forschern oft wieder aufgenommen und verfeinert worden, weil diese Stoffe für die Auswägung von Gefäßen hauptsächlich in Betracht kommen. Außerdem bietet das Wasser des- halb ein besonderes Interesse, weil es bei 4 ^ ein Maximum der Dichte besitzt.

Die Ausdehnung der Gase machte sich wegen ihrer Größe am leichtesten bemerklich. Sie wurde zu Beginn des 19. Jahrhunderts von Gay-Lussac ge* messen, der keinen Unterschied in dem Verhalten verschiedener Gase fand. Der von ihm gefundene Wert für die Ausdehnung zwischen o^ und 100® fiel wahrscheinlich wegen des Feuchtigkeitsgehalts der Gasproben zu groß aus und wurde später von Rudberg, Magnus und Regnault (von 1840) berichtigt. Die beiden letzteren fanden auch Unterschiede zwischen den Ausdehnungs- koeffizienten verschiedener Gase, die bis dahin wegen ihrer geringen Größe der Beobachtung entgangen waren. Eine Anordnung, mit der sich die Änderung der Dichte eines Gases infolge der Erwärmung unmittelbar aus dem von einer Säule dieses Gases ausgeübten Druck in ähnlicher Weise bestimmen läßt, wie Dulong und Petit dies für Flüssigkeiten ausgeführt haben, ist von A. Top- 1er (1895) angegeben worden. Es ist hierfür ein sehr empfindliches Differential- manometer nötig, das der genannte Forscher mit seiner Drucklibelle geschaffen hat. Dieser einfache Apparat besteht aus einem geknickten Glasrohr, in dem sich der Faden aus einer Flüssigkeit, z. B. aus Xylol, unter dem Einfluß der auf beiden Seiten vorhandenen Drucke verschiebt.

Es ist schon bei der Definition des festen Zustandes darauf hingewiesen, Eiastixität daß jeder feste Körper der Änderung seiner Form einen Widerstand entgegen- ****•' ^"''**'- setzt, der als eine Spannung der ursprünglichen Anordnung der Teilchen auf- gefaßt werden kann. Hierdurch werden Gegenkräfte im Innern des Körpers hervorgerufen, die den deformierenden äußeren Kräften das Gleichgewicht hal- ten. Diese mögen so klein gewählt werden, daß nach ihrem Aufhören auch die Deformation zurückgeht, so daß keine bleibenden Änderungen des beanspruch- ten Körpers entstehen. Auch betrachten wir nur isotrope Körper, d. h. solche, die auf eine Beanspruchung von verschiedener Richtung in derselben Weise wirken. Bei einem isotropen festen Körper unterscheidet man die Volumen- und die Gestaltselastizität. Bei der ersteren sind die deformierten Formen der ursprünglichen ähnlich : einen solchen Vorgang beobachtet man, wenn der Kör- per durch einen allseitig in gleichem Maße wirkenden Druck zusammengepreßt

9*

132 6. L. Holborn: Mechanische und thermische Eigenschaften der Materie usw.

wird. Außerdem treten noch Gestaltsänderungen auf, z. B. bei der einseitigen Dehnung oder der Biegung. Dehmuig Den einfachsten Fall für die Untersuchung bietet die Dehnung durch einen

esttBg. 2yg j^^j Körpern, die sich in Stab- oder Drahtform besonders nach einer Rich- tung hin erstrecken. Hierfür fand Hooke (1675) durch Beobachtung die bei- den Regeln, daß die Größe der Deformation der Beanspruchung proportional ist und daß sie sich bis auf das Vorzeichen nicht ändert, wenn die äußere Kraft die entgegengesetzte Richtung annimmt, ein Zug z. B. also durch einen gleich großen Druck ersetzt wird. Die Versuchsanordnung ist derart, daß ein runder Stab z. B. in senkrechter Stellung an seinem einen Ende eingeklemmt und an dem anderen mit Gewichten von verschiedener Größe belastet wird. Das Ver- hältnis der auf die Einheit des Querschnitts ausgeübten Zugkraft zu der Ver- längerung, bezogen auf die Längeneinheit, nennt man den Elastizitätsmodul. Er ist für das elastische Verhalten eines Stoffes charakteristisch, bestimmt es aber noch nicht vollständig. Hierzu bedarf es noch der Kenntnis der Verkür- «ung, die der Durchmesser des Stabes infolge der Dehnung erfährt; das Ver- hältnis von Querkontraktion zu Längsdilatation, das man als Poissonsche Zahl bezeichnet, liefert alsdann die zweite charakteristische Größe für einen isotropen Körper. Aus dem Elastizitätsmodul und dem Verhältnis von Quer- kontraktion zur Längsdilatation lassen sich alle Deformationen ableiten, die «in isotroper fester Körper unter Einwirkung irgendwelcher Kräfte erfährt. Umgekehrt ergeben die Deformationen die elastischen Konstanten. So folgt aus der Biegung eines Stabes, der entweder an seinen beiden Enden fest einge- spannt ist oder lose aufliegt oder an dem einen Ende frei und an dem andern eingeklemmt ist, der Elastizitätsmodul. Man pflegt zu diesem Zweck den Bie- gungspfeil oder den Biegungswinkel zu messen. Zur Bestimmung der Poisson- schen Zahl wird die Deformation beobachtet, welche die zur Biegungsebene senkrechte Grenzfläche erleidet. DriWung. Das Verhalten der Körper bei der Drillung beobachtete zuerst Coulomb (1784). Ein Metalldraht wurde an seinem oberen Ende fest aufgehängt, wäh- rend das untere ein Gewicht trug, das ihn spannte. Der Winkel, um den ein am unteren Ende angebrachtes Kräftepaar den Draht tordiert, ist proportional der tordierenden Kraft und der Länge des Drahtes, ferner umgekehrt proportio- nal der vierten Potenz des Drahtdurchmessers und einer Konstanten, die von der Natur des Probekörpers abhängt und die als Torsionsmodul bezeichnet wird. Die äußere Form des Drahtes wird durch die Torsion nicht geändert, sein Volumen bleibt dasselbe; gleichwohl erleiden seine Teile Verschiebungen gegeneinander: eine geradlinige Erzeugende der zylinderförmigen Oberfläche wird in eine Schraubenlinie deformiert. Der Torsionsmodul ist eine einfache Funktion des Elastizitätsmoduls und der Poissonschen Zahl. Beitimmong Für die Beobachtung der Dehnung, Biegung und Drillung kommen im

llcoiMtaiiteü!" wesentlichen ähnliche Methoden zur Anwendung, wie sie zur Bestimmung der linearen Ausdehnung im Gebrauch sind. Außer diesen statischen Verfahren zur Bestimmung der Deformationen kann man aber auch den Probekörper durch

Elastizität

133

eine äußere Kraft in Schwingungen versetzen, deren Dauer beobachtet wird. Nach dieser dynamischen Methode fand Coulomb die Gesetze der Torsions- elastizität. Er drehte das spannende Gewicht des Drahtes mit der Hand und überließ die Vorrichtung sich selbst. Der Draht drehte sich dann unter, der Wirkung der elastischen Kraft wieder rückwärts, überschritt dabei die Ruhe- lage und schwang infolge der erlangten Geschwindigkeit darüber hinaus usw., so daß Schwingungen entstanden, deren Amplitude sehr langsam abnahm. Die Dauer dieser Schwingungen war unabhängig von ihrer Weite, d. h. von dem Torsionswinkel, woraus folgte, daß die Torsionskraft dem Torsionswinkel proportional ist. Die übrigen Gesetze der Torsionselastizität lassen sich eben* falls aus Beobachtungen der Schwingungsdauer ableiten.

Auch für die Beobachtung der Dehnungs- und Biegungselastizität läßt sich das dynamische. Verfahren benutzen, indem man die zu untersuchenden Kör- per in longitudinale oder transversale Schwingungen versetzt. Bei passenden Abmessungen geben alsdann die Körper einen Ton, aus dessen Höhe sich die Schwingungsdauer ergibt.

Die größten Schwierigkeiten hat der Beobachtung das Verhältnis der Quer- kontraktion zur Längsdilatation geboten. Aus einer unvollkommenen Theorie hatte Nävi er und darauf Poisson (1830) gefolgert, daß es für alle isotropen Körper gleich 74 sein müsse. Beobachtungen von Cagniard de la Tour schie- nen dieses Ergebnis zu bestätigen. Er umgab einen zu dehnenden Kupferdraht, der an seinem unteren Ende befestigt war, während auf seinem oberen Ende mittels eines Wagebalkens ein Zug ausgeübt wurde, mit einer engen Glasröhre, die mit Wasser gefüllt war. Wurde der Draht um eine bestimmte Strecke gedehnt, so erfuhr sein ins Wasser tauchendes Volumen infolge der Querkontraktion eine Verkleinerung, die sich aus der Höhe ergab, um welche die Wasseroberfläche sank. Es ist ersichtlich, daß dieser Versuch keiner großen Genauigkeit fähig ist, da der Stand der Flüssigkeitskuppe nur unsicher abgelesen werden kann und Wasser von dem emporgezogenen Draht mitgenommen wird. Auch gegen die Theorie Poissons wurden Einwendungen erhoben, die neue theoretische Untersuchungen von Seiten Cauchys, Lam^s und Kirchhoffs veranlaßten. Aus den Betrachtungen dieser Forscher ging hervor, daß der Wert des Verhält- nisses von Längsdilatation zur Querkontraktion zwischen o und liegen kann. Neue Beobachtungen stellte Wert he im an, indem er festzustellen suchte, welche Änderungen der Hohlraum von Glas- und Messingröhren durch die Deh- nung erleidet. Sie. waren mit Wasser gefüllt und endigten oben in eingekittete Kapillarrohre, in denen der Stand der Flüssigkeitskuppe beobachtet werden konnte. Doch sind auch diese Versuche wegen der schwer zu berücksichtigen- den Ungleichmäßigkeit der Wandstärke der benutzten Rohre nicht einwandfrei. Bessere Ergebnisse lieferte die von Kircbhoff vorgeschlagene Versuchsanr Ordnung, bei der die Poissonsche Zahl an Stäbeii bestimmt wurde, welche gleichzeitig einer Biegung und einer Torsion unterworfen wurden. Ferner ist man neuerdings dazu . übergegangen, die Querkontraktion unmittelbar zu messen. Man legt zu diesem Zweck sehr empfindliche Fühlhebel an die zu deh*

I j^, 6. L. Holborn: Mechanische und thermische Eigenschaften der Materie usw.

nenden Stäbe, deren Ausschläge durch Übertragungen vergrößert und meistens ähnlich wie bei der Fi ze au sehen Methode für die Bestimmung der linearen Ausdehnung in Wellenlängen einer homogenen Lichtquelle ausgewertet wer- den. Für die meisten Körper, besonders für die Metalle, hat die Beobachtung für die Foissonsche Zahl Werte zwischen 7i und Vi geliefert, die von Stoff zu Stoff verschieden sind. Hiernach entspricht einem Zuge stets eine Zunahme des Volumens, dem Drucke eine Abnahme. Den Grenzwert Y„ bei dem sich das Volumen wie bei Flüssigkeiten weder unter Druck, noch unter Zug ändert, zeigt innerhalb gewisser Beanspruchungen der Kautschuk und noch ausge- prägter die Gelatine. Kork, der sich bei einseitigem Druck nur verschwindend wenig ausbaucht, besitzt den Wert o. Kompressibilität Die Volumelastizität eines isotropen festen Körpers wird vollständig durch

fester Körper. ^^^ Elastizitätsmodul und die Foissonsche Zahl bestimmt. Für die Beobach- tung der Kompressibilität, d. h. die relative Volumenabnahme durch die Ein- heit eines allseitig wirkenden Drucks, eignen sich am besten Hohlkörper, für welche die Regel gilt, daß das äußere und das innere Volumen unter einem äußern und Innern Druck von gleicher Stärke beide in demselben Maße ver- kleinert werden, wie gleich große Vollkörper unter demselben äußern Druck. Hiernach gewährt die Anwendung von Flüssigkeitsdrucken, auf die unten näher eingegangen wird, ein Mittel, die Volumelastizität fester isotroper Körper zu bestimmen.

Es besteht auch die Möglichkeit, die Kompressibilität aus der Längsdila- tation und der Querkontraktion eines Körpers zu berechnen; für den Fall z. B., daß die Foissonsche Zahl gleich y, ist, ergibt sich die Kompressibilität gleich der Längsdilatation. Es ist jedoch bei solchem Vorgehen im Auge zu behalten, daß die von der Theorie vorausgesetzte Isotropie und Homogenität der Stoffe in der Natur selten vollkommen vorhanden sind. Man wird also auf Abweichun- gen gefaßt sein müssen, wenn für die Bestimmung der einzelnen Konstanten verschiedene Teile desselben Körpers oder gar mehrerer Körper in Betracht kommen. In letzterem Falle namentlich kann die Untersuchung oft mehr eine Probe auf die Gleichmäßigkeit des Materials, als eine Bestimmung seiner elasti- schen Konstanten darstellen.

Außer der chemischen Zusammensetzung machen sich bei der Beobach- tung der elastischen Konstanten noch mannigfache Einflüsse bemerkbar, die von der mechanischen und thermischen Vorgeschichte des Materials herrühren. So pflegen übermäßige Beanspruchungen, welche die Elastizitätsgrenze über- schreiten, den Modul zu erhöhen; in demselben Sinne wirkt eine Vergrößerung der Dichte. Für zusammengesetzte Stoffe läßt sich zuweilen das elastische Ver- halten aus dem der Komponenten vorhersagen, in anderen Fällen trifft eine solche Mischungsregel nicht zu. Dabei ist zu berücksichtigen, daß sich die elastischen Eigenschaften immer nur für kleine Deformationen als konstant er- weisen; mit wachsender Spannung nimmt z* B. der Elastizitätsmodul ab. Ferner kommt der Einfluß der Temperatur in Betracht. Der Elastizitätsmodul wird mit steigender Temperatur kleiner, die Kompressibilität größer, während

Elastizität

135

das Verhältnis von Längsdilatation zur Querkontraktion nach Grüneisen für harte Metalle einen mit der Temperatur wenig veränderlichen Wert besitzt und für weiche mit wachsender Temperatur zunimmt.

Läßt man die äußeren Kräfte längere Zeit auf feste Körper wirken, so Elastisch« wachsen die hierdurch hervorgebrachten Deformationen etwas an, und zwar ^*^^''*'*^**"^" steigt dieses Wachstum mit der Größe und der Dauer der Deformation. Um- gekehrt geht die Deformation mit dem Verschwinden der äußeren Kräfte nicht sogleich zurück, sondern es bleibt ein Rest bestehen, der erst allmählich und nach langer Zeit nachläßt. Diese Erscheinung, die W.Weber (1835) an Seidenfäden entdeckte und als elastische Nachwirkung bezeichnete, ist von vielen Physikern experimentell und theoretisch verfolgt worden, wohl weil man auf diesem Wege zu einer Einsicht in den Bau der festen Körper zu gelangen hoffte. Die Gesetze scheinen jedoch sehr verwickelt und bedürfen noch weiterer Klärung. Bei wenig homogenen Stoffen, wie den organischen, scheint die elastische Nachwirkung besonders groß; bei den gleichmäßig gebauten Metallen ist sie schon geringer, und bei den Kristallen macht sie sich am wenigsten bemerklich. Bei der Ver- wendung der elastischen Kräfte für messende Zwecke, z. B. der Torsionskraft der Drehwage oder der Biegungselastizität der Aneroidmanometer, ist diese Eigenschaft der festen Körper sehr hinderlich. Man muß sich für solche Zwecke auf diejenigen Stoffe beschränken, welche eine geringe elastische Nachwirkung aufweisen. Es sind dieses besonders die harten Stoffe; unter den Metallen die- jenigen, die von ihrem Schmelzpunkt weit entfernt sind, namentlich kommen Stahl, sowie Platin und seine Legierungen in Betracht. Besonders ist auch Quarzglas sehr geeignet.

Bei Flüssigkeiten kann nur von einer Volumenelastizität die Rede sein. KompiMsibiutät Sie müssen in Gefäße eingeschlossen werden, die man einem allseitig wirkenden pinnl^eiten. Druck unterwirft. Den ersten Nachweis für die Zusammendrückbarkeit des ' Wassers brachte Canton (1760), nachdem die Versuche von Bacon und der Florentiner Akademie zu keiner endgültigen Entscheidung geführt hatten. Canton füllte das Wasser in ein thermometerartiges Gefäß und tri^b die Luft durch das Sieden der Flüssigkeit aus. Nach dem Zuschmelzen und Abkühlen wurde das Gefäß unter die Glocke einer Luftpumpe gesetzt; nach deren Eva- kuierung herrschte sowohl im Innern, wie auch auf der Außenseite des Gefäßes nahezu der Druck Null. Als Canton nun die Spitze der aus der Glocke her- ausragenden Kapillare abbrach und damit den Atmosphärendruck auf das Wasser wirken ließ, sank die Wasserkuppe in der Kapillare, hob sich aber wieder, wenn auch nicht bis zu der ersten Höhe, nachdem in die Glocke ebenfalls Luft eingelassen wurde. Canton nahm an, was allerdings nicht genau zutrifft, daß das Gefäßvolumen anfangs, als außen und innen kein Druck vorhanden war, und am Ende, wo außen und innen Atmosphärendruck wirkte, dasselbe wäre und erhielt auf diese Weise einen ziemlich richtigen Wert für die Kompression, die das Wasser durch den Druck von einer Atmosphäre erleidet*

Die heute gebräuchliche Versuchsanordnung, die auch für höhere Drucke piexometer anwendbar ist, rührt von örstedt (1820) her und wurde von ihm Piezometer

136 6' L. Holborn: Mechanische und thermische Eigenschaften der Materie usw.

genannt. Das thermometerartige Gefäß mit der zu untersuchenden Flüssig- keit wurde dabei in einem weiten, mit Wasser gefüllten Glasrohr aufgestellt und gegen dessen Inhalt durch einen Quecksilbertropfen abgeschlossen. Man ließ den Druck auf das äußere Wasser wirken, so daß das Versuchsgefäß innen und außen stets unter demselben Druck stand. Bei diesen Beobachtungen, die besonders unter dem unvollkommenen Abschluß durch den Quecksilber- tropfen litten, wurde die Kompressibilität der Hülle vernachlässigt, sie ist erst später von Regnault berücksichtigt worden. Zu noch größeren Drucken, bis zu 600 Atm., ging Cailletet ü1:>er, der als Außengefäß für das Piezometer ein Stahlrohr nahm; seine Versuche wurden jedoch bald von Amagat weit über- holt, der die Drucke bis auf 3000 Atm. steigerte. Die Volumenänderung der zu untersuchenden Flüssigkeit wurde durch ein elektrisches Kontaktverfahren gemessen. Die Technik der neuesten Zeit hat sich Bridgman zunutze ge- macht und unter Verwendung von ganz besonders festen Stahlrohren die Drucke bis auf 12000 Atm. gesteigert.

Die Beobachtung von Flüssigkeiten im Piezometergefäß, das außen und innen unter demselbcin Druck steht, liefert die scheinbare Kompressibilität, zu der noch die Kompressibilität des Gefäßes hinzugefügt werden muß, wenn man die wirkliche erhalten will. Läßt man den Druck nicht nur beiderseits wirken, sondern auch auf einer Seite allein entweder innen oder außen , so kann man mit Hilfe der Theorie Beziehungen aufstellen, aus denen sich bei dem Ge- brauch regelmäßiger Gefäße, die sowohl einseitig, wie beiderseitig gedrückt werden, die Kompressibilität der festen Hülle und die des flüssigen Inhalts er- geben. Regnault hat auf diese Weise mit Hohlkugeln aus Kupfer und Messing und einem Hohlzylinder aus Glas gearbeitet. Die Werte für die Kompressibili- tät des Wassers, mit denen er jene drei Gefäße füllte, stimmten nicht besonders untereinander, was darauf zurückzuführen ist, daß die von der Theorie gemach- ten Voraussetzungen in bezug auf die Regelmäßigkeit der Form, der Gleich- mäßigkeit der Wandstärke in Wirklichkeit nur näherungsweise zutreffen, so daß Unregelmäßigkeiten in der Änderung des Gefäßvolumens nicht zu vermei- den sind. Ferner war in der Rechnung der Wert der Poissonschen Zahl durch- weg mit 7^ eingesetzt worden. Amagat (1891), der diese für die Messungen mit dem Piezometer grundlegende Frage wieder aufgenommen hat, konnte den Anforderungen der Theorie 'weit vollkommener genügen, indem er den Gefäßen eine längliche Zylinderform von gleichmäßiger Wandstärke gab. Auch be- stimmte er die Kompressibilität der festen Hülle noch nach mehreren anderen Verfahren. Von diesen hat dasjenige besonders Eingang gefunden, bei dem die Kompressibilität der als Gefäß zu verwendenden Röhre aus der Verkürzung bei allseitig wirkendem Druck abgeleitet wird. Diese Methode, die allerdings auch vollkommene Isotropie des Materials voraussetzt, entspricht der Bestimmung der kubischen Ausdehnung aus der linearen.

Hat mai;i mit einem Piezometergefäß von bekannter Kompressibilität erst eine Flüssigkeit gemessen, so kann diese natürlich dazu dienen, weitere Ge- fäße zu eichen. Als eine solche Eichflüssigkeit empfiehlt sich Quecksilber^

Elastizität

137

dessen Kompressibilität klein ist; sie beträgt nur das Doppelte von der des Glases. Bei anderen Flüssigkeiten ist sie um mehr als das Zehnfache großen

Die Kompressibilität nimmt bei den Flüssigkeiten mit wachsendem Druck ab, und zwar derart, daß sich die Werte für verschiedene Stoff e mit wachsendem Druck immer mehr einander nähern. Mit wachsender Temperatur nimmt die Kompressibilität bei allen Drucken zu. Nur das Wasser bildet eine Ausnahme, was darauf beruht, daß dieser Stoff bei 4^ ein Maximum der Dichte besitzt. Die Kompressibilität nimmt hier mit wachsender Temperatur ab. Doch verwischt sich dieser Unterschied bei höheren Drucken, bei denen das Dichtemaximum immer mehr nach tieferen Temperaturen wandert; bei 145 Atm. liegt es schon bei 0,6 ^

Vielfach sind auch wäßrige Lösungen untersucht worden. Ihre Kompressi- bilität ist geringer als die des reinen Wassers und nimmt mit steigender Kon- zentration, ebenso wie mit wachsender Temperatur ab. Die Kompressibilität von Mischungen ist meistens geringer, als der Mischungsregel entspricht.

Für die Zusammendrückbarkeit der Gase, welche die der Flüssigkeiten Ebut»ität bedeutend übertrifft, gilt ein einfaches Gesetz, das fast gleichzeitig von dem ^^ "*' Engländer Boyle (1662) und dem Franzosen Mariotte (1676) entdeckt wurde. Hiernach ist das Volumen einer bestimmten Gasmenge umgekehrt proportional dem Druck, unter dem das Gas steht, oder anders ausgedrückt: Das Produkt aus dem Volumen und dem Druck ist konstant. Dieses Gesetz gilt, wenn die Tem- peratur des Gases während des Versuchs nicht geändert wird, mit einigen Ein- schränkungen, auf die wir später eingehen, für alle Temperaturen. Nun haben wir schon gesehen, daß sich nach den Untersuchungen von Gay-Lussac alle Gase nahezu in gleichem Maße ausdehnen, wenn sie bei konstantem Druck um gleiche Temperaturbeträge erwärmt werden. Läßt man die Ausdehnung nicht zu* Standekommen, sondern hält bei der Erwärmung das Volumen konstant, so muß nach dem Mariotteschen Gesetz die Spannung in demselben Grade zu- nehmen wie vorher das Volumen. Durch die Vereinigung des Mariott eschen mit dem Gay- Lussa eschen Gesetze gewinnen wir also eine .Gleichung, die uns lehrt, wie die Spannung von dem Volumen bei gleichzeitiger Änderung der Temperatur abhängig ist. Eine solche Beziehung bezeichnet man als Zustands- gieichung.

Mariotte bewies sein Gesetz für Luft mit Hilfe der nach ihm benannten Manottei Röhre, die von U-f örmiger Gestalt, einen kurzen geschlossenen und einen langen ******' offenen Schenkel besitzt. Er stellte sie senkrecht und sperrte durch Eingießen von Quecksilber eine Luftmenge bei Atmosphärendruck in dem kurzen Schen- kel ab. Durch Nachgießen von Quecksilber kann man den Druck der Luft- masse regeln und dabei das von ihr eingenommene Volumen messen. Ein zwei- ter Apparat diente in ähnlicher Weise für Drucke, die unterhalb der Atmo- sphäre liegen.

Unter Benutzung einer Druckpumpe gelangte später Du long (1830) mit einer etwas abgeänderten Anordnung bis zu Drucken von 27 Atm. und Pouillet (1837) zu mehr als 100 Atm. Letzterer unterwarf außer Luft noch andere Gase,

138 6* L. Holborn : Mechanische und thermische Eigenschaften der Materie usw.

wie Sauerstoff, Stickstoff, Wasserstoff, der Untersuchung und fand das Gesetz auch für diese bestätigt, während eine Reihe anderer Stoffe, wie schweflige Säure, Ammoniak, Kohlenoxyd und Stickoxydul, eine größere Zusammen- drückbarkeit aufwiesen, wenn ihr Volumen auf den dritten oder vierten Teil ver- kleinert wurde. Die Versuche von Regnault(l847) haben das zweite Ergeb- nis bestätigt, sie ergaben aber auch schon für die erste Reihe der Gase geringe Abweichungen vom Mariotteschen Gesetz. Daß diese der Beobachtung der älteren Forscher, entgingen, lag an dem von Mariotte eingeführten Unter- suchungsverfahren, das mit steigendem Druck und abnehmendem Volumen der abgesperrten Gasmenge immer ungenauer wird. Regnault brachte nach jeder Drucksteigerung das Volumen des Gases mit Hilfe einer Druckpumpe wieder auf das ursprüngliche Volumen und bestimmte den Druck, der hinreicht, das* selbe Volumen auf die Hälfte zu verkleinern. Er wechselte also ständig die An- fangsdrucke. Außerdem wurde die das Gas enthaltende Röhre mit einer zweiten umgeben, durch die fortwährend Wasser von konstanter Temperatur floß, damit die wechselnde Temperatur der Umgebung keinen Einfluß auf die Messung ausübte. Es kamen Luft, Stickstoff, Kohlensäure und Wasserstoff bis zu Drucken von 15 Atm. zur Untersuchung. Für die ersten drei Stoffe er- gab es sich, daß sie stärker zusammengedrückt werden, als es dem Mariotte- schen Gesetz entsprach, Luft und Stickstoff allerdings nur in sehr geringem Maße, Kohlensäure viel mehr; Wasserstoff dagegen zeigte die entgegengesetzte Abweichung, er erfuhr eine langsamere Volumenverminderung. Regnault zog hieraus den Schluß, daß sich alle Gase bei geringer Dichte wie Wasserstoff ver- hielten, daß sie dann bei zunehmendem Druck dem Mariott eschen Gesetz folgten, in diesem Zustande also vollkommen oder ideal wären und sich bei weiterwachsender Dichte von dem Mariotteschen Gesetz wieder entfernten, aber in entgegengesetzter Richtung.

Die spätere Erfahrung, die über Versuche in weiteren Druckgebieten und größeren Temperaturbereichen verfügte, hat diese Auffassung Regnaults nicht bestätigt. Wir wissen heute, daß jedes Gas dem vollkommenen Zustande in äußerster Verdünnung, also bei sehr geringer Dichte am nächsten kommt, daß im allgemeinen mit wachsender Dichte bei demselben Stoffe Abweichungen vom Mariott eschen Gesetz nach beiden Richtungen auftreten können und daß es von der Größe des Drucks und von der Höhe der Temperatur bei jedem einzelnen Gas abhängt, in welchem Sinne die Abweichung verläuft. Auf höhere Drucke wurden die Versuche Regnaults zunächst von Natterer (1850) und Cailletet (1870) ausgedehnt; das größte Beobachtungsmaterial verdanken wir jetzt Amagat, der hier ebenso wie bei den Bestimmungen der Elastizität von Flüssigkeiten das Piezometer benutzte. Seine Versuche erstrecken sich bis auf Drucke von 3000 Atm. und auf Temperaturen zwischen und 200®. Für tie» fere Temperaturen haben die Messungen von Kamerlingh Onnes wertvolle Ergänzungen gebracht. Auch für Drucke unterhalb einer Atmosphäre liegen zahl- reiche Ergebnisse vor; die auf diesem Gebiet anfangs beobachteten Anomalien haben gegenüber den genauen Messungen von Rayleigh und Thiesen, die

Druckmessung 139

sich auf Drucke von einigen Zehntel Millimeter Quecksilber beziehen, nicht standgehalten. In diesem Bereiche der kleinsten Drucke gilt das Mario ttesche Gesetz mit aller Strenge, deren die Beobachtung fähig ist; die geringen Ab- weichungen, die schon bei Drucken von l Atm. auftreten, sind für Luft, Stick- stoff und Kohlensäure von Chappuis zwischen und 100® ermittelt, für Wasserstoff ließen sich nur ganz geringe Unterschiede gegenüber dem idealen Zustande innerhalb dieser Grenzen nachweisen.

Die Abweichungen, die die natürlichen Gase von dem idealen Zustande aufweisen, haben viele Forscher bewogen, neue Zustandsgieichungen an Stelle des Mar io tt e - Gay -Lu SS a eschen Gesetzes zu bilden. Diese Beziehungen, auf die wir in* einem andern Zusammenhang zurückkommen, gelten jedoch meistens nur für enge Bereiche des Drucks und der Temperatur.

Wir wollen diesen Gegenstand nicht verlassen, ohne mit einigen Worten Druckmessuag. auf die Mittel für die Druckmessung einzugehen, we}che die Grundlage der ge- wonnenen Beobachtungsergebnisse bildet. Das verbreitetste Instrument ist das Quecksilber-Manometer, das sich an das für die Messung des Luftdrucks von Toricelli eingeführte Barometer lehnt. Für große Drucke erfordert dieses Manometer bedeutende Höhen, so daß es sich nur in hohen Türmen, Brunnen oder Schächten von Bergwerken unterbringen läßt. Das größte Instrument dieser Art hat eine Höhe von 300 m und ist an dem Pariser Eiffelturm ange- bracht. Will man die Genauigkeit der Längenmessung bei so großen Höhen ausnutzen, so muß man allerdings auf die Temperaturmessung des Quecksilbers große Sorgfalt verwenden. Für diesen Zweck empfehlen sich elektrische Wider- standsthermometer, mit denen sich beliebige Langen abgreifen lassen. Wo eine große Höhe nicht zur Verfügung steht, hat man wohl die Länge des Instruments in viele Teile zerlegt, die man parallel nebeneinander aufstellt, und den Druck nach den aufeinanderfolgenden Röhren durch Verbindungen übertragen, die mit einer leichteren Flüssigkeit, z. B. Wasser, oder mit einem Gase gefüllt sind. Das Gewicht, das diese Füllung der Nebenröhren besitzt, wird von dem des Quecksilbers in Abzug gebracht. Das Instrument hat den Nachteil, daß es eine große Anzahl von Ablesungen für den Stand des Quecksilbers in den vielen Röhren verlangt. Bequemer und ebenso genau als die gebrochenen Manometer sind die Druckwagen, bei denen der Druck auf einen in einem Metallzylinder frei beweglichen Stempel wirkt, der durch Gewichte belastet wird. Er bewegt sich in einer zähen Flüssigkeit, die sich unter dem Einfluß des Drucks in den engen Zwischenraum zwischen Zylinder und Stempel preßt und den Druckraum gegen die Atmosphäre abdichtet. Die Vorrichtung besitzt eine große Empfindlichkeit, wenn der Stempel während der Herstellung des Gleichgewichts in drehende Be- wegung versetzt wird. Der zu messende Druck ergibt sich aus dem auf die Ein- heit des Stempelquerschnitts lastenden Gewicht.

Für die Messung hoher Drucke kommen als sekundäre Apparate die Gas- manometer in Betracht, die auf der Zusammendrückbarkeit einer durch Queck- silber abgesperrten Gasmenge beruhen. Sie verlangen eine sorgfältige Kalibrie- rung des von dem Gase eingenommenen Gefäßes und eine genaue Bestimmung

i^o 6. L. Holborn : Mechanische und thermische Eigenschaften der Materie usw.

ihrer Temperatur, sowie die Kenntnis der Abweichungen der Füllung vom Ma- rio tt eschen Gesetz. Außerdem wird neuerdings nach dem Vorgang von Lisell (1902) ein elektrisches Manometer benutzt, das auf der Widerstands- zunahme beruht, die ein Manganindraht unter dem Einfluß des Drucks erfährt. Auch bei diesem Instrument ist eine genaue Temperaturmessung nicht zu um- gehen.

Schließlich ist die Elastizität fester Körper für die Anzeige von Drucken verwendet worden. Die größte Verbreitung haben die Metallmanometer ge- funden, bei denen die Gestaltsänderung einer metallischen Membran oder Röhre beobachtet wird. Sie lassen sich den verschiedensten Druckbereichen anpassen, ihre Genauigkeit ist aber durch die elastische Nachwirkung beschränkt. Auch ein gewöhnliches Quecksilberthermometer, das allseitig einem^äußeren Druck ausgesetzt wird, kann als Manometer dienen und hält bei passend gewählten Abmessungen etwa lOCX) Atm. aus. Solche Instrumente werden z. B. bei der Bestimmung von Meerestiefen benutzt, die sich aus dem Druck berechnen lassen, dem ein auf den Grund herabgelassenes Thermometer ausgesetzt ist. Die Temperatur, die von großem Einfluß ist, muß gleichzeitig durch ein vor der Einwirkung des Drucks geschütztes Thermometer gemessen werden. Innere Keitrang Wir haben schon oben auf die Erscheinung der inneren Reibung fester Fiüwl^eiten. Körper hingewiesen. Auf ihr beruht die Dämpfung, welche die Schwingungen der elastischen Körper erfahren, z. B. die Schwingungen eines belasteten tordierten Drahtes, die allein durch die Reibung an der Luft nicht erklärt werden können. Das Studium dieser Vorgänge hat indessen noch nicht zu sicheren Ergebnissen geführt. Viel weiter ist unsere Kenntnis der inneren Rei- bung bei den Flüssigkeiten gelangt. Taucht man in eine Flüssigkeit eine an einem Draht aufgehängte Scheibe und setzt sie durch eine Torsion der Auf- hängung in drehende Schwingungen, so erleidet die Bewegung eine Dämpfung, die von der inneren Reibung der Flüssigkeit herrührt. Denn die der Scheibe unmittelbar benachbarte Flüssigkeitsschicht nimmt an der Bewegung nicht teil, sie haftet an der Scheibe und findet einen Widerstand an der anstoßenden Schicht usw. Die innere Reibung. beherrscht auch die Bewegung von Flüssig- keiten in engen Röhren, an deren Wandung die Grenzschicht in Ruhe bleibt, über welche sich die übrigen Flüssigkeitsschichten mit nach der Mitte wach- sender Geschwindigkeit hin bewegen. Beide Versuchsanordnungen sind zum Studium der inneren Reibung benutzt worden; die erste wurde von Coulomb (1802) angegeben und besonders von 0. E. Meyer {1861) verwendet, die zweite von Poiseuille (1842) studiert, der das nach ihm benannte Gesetz für die Ge- schwindigkeit der strömenden Flüssigkeiten aufstellte.

Die innere Reibung oder Zähigkeit der natürlichen Flüssigkeiten ist sehr verschieden, nimmt aber stets mit wachsender Temperatur stark ab: einer Zu- nahme der Temperatur um i ® entsprechen oft mehrere Prozente Abnahme der inneren Reibung. Bemerkenswert ist, daß sie bei wäßrigen Lösungen den- selben Verlauf mit der Temperatur zeigt wie der elektrische Widerstand der Ionen. Denn diese Tatsache erlaubt eine Verknüpfung jener beiden Erschei-

Innere Reibung 141

nungen, durch die sich ein Bild über den Vorgang der elektrolytischen Leit- fähigkeit gewinnen läßt (vgl. Artikel 20).

Das Poiseuillesche Gesetz setzt voraus, daß die Flüssigkeit in parallelen Fäden strömt. Eine solche Bewegungsart ist jedoch nur bis zu einer bestimm- ten Größe der Geschwindigkeit stabil, deren Berechnung Reynolds (1883) an- gegeben hat. Jenseits dieser Grenze entstehen Wirbel, wie aus der Trübung des aus dem Rohr austretenden Strahls erkannt werden kann.

Auch die Gase besitzen eine innere Reibung, die sich nach denselben Ver- innere Koibang: fahren wie die der Flüssigkeit bestimmen läßt. Schon Graham hat eine weit- läufige Untersuchung über das Strömen der Gase in engen Röhren angestellt, aus der O. E. Meyer später die innere Reibung berechnet hat. Letzterer be- nutzte auch die schwingende Scheibe und änderte diese Versuchsanordnung für die Messung der Gasreibung dahin ab, daß er auf dieselbe Achse mehrere Schei- ben aufsteckte, die nach Bedarf zu einer einzigen vereinigt werden konnten. Maxwell brachte über und unter den beweglichen Scheiben feste an, wodurch die Reibung vergrößert und die Berechnung der Versuche vereinfacht wird. Durch diese Anordnung bestätigte er den von ihm aus der Theorie vorhergesag- ten Satz, daß die Reibung von dem Druck des Gases unabhängig ist. K u n d t und Warburg, die nur eine einzige bewegliche Scheibe anwandten, welche von zwei festen Scheiben um genau meßbare Abstände entfernt ist, zeigten, daß das Maxwel Ische Gesetz nicht auf sehr kleine Drucke ausgedehnt werden darf. Alsdann haften die Gasteilchen nicht mehr an den festen Wänden, sondern gleiten an ihnen entlang (vgl. Artikel II).

Mit der Zunahme der Temperatur wächst die innere Reibung der Gase, im Gegensatz zu derjenigen der Flüssigkeiten. Das Gesetz über die Abhängig- keit von der Temperatur ist der Gegenstand zahlreicher Versuche gewesen. Nach der Theorie der Gase sollte ihre innere Reibung der Wurzel aus der abso- luten Temperatur proportional sein. Die Versuche ergaben jedoch eine viel stärkere Zunahme, für die erst Sutherland (1893) ^^^^ zutreffende Formel gefunden hat.

Zwei mischbare Flüssigkeiten, die aneinander grenzen, mischen sich gegen- Diffusion voa seitig. Verläuft dieser Vorgang ohne die Einwirkung äußerer Kräfte, so bezeich- *^***^ ***~' net man ihn als Diffusion. Graham (1850) , von dem die ersten Untersuchungen dieser Erscheinung herrühren, benutzte zwei Verfahren hierfür. Bei dem einen stellte er ein kleines Fläschchen, das mit der schwereren Flüssigkeit angefüllt war, auf den Boden eines viel größeren, das die leichtere Flüssigkeit enthielt. Nach Verlauf mehrerer Stunden ließ sich nachweisen, daß die schwerere Flüs- sigkeit teilweise der Schwere entgegen in den großen Behälter gewandert war. Nach der zweiten Methode, die eine größere Genauigkeit gewährt, schichtete man die schwerere Flüssigkeit mittels einer Pipette auf den Boden des Gefäßes, das die leichtere Flüssigkeit enthielt. Die Mischung wurde nachgewiesen, in- dem man die einzelnen Schichten abheberte und analysierte. Auch kann man statt dessen nach dem Vorgang von W. Thomson das von Faraday ange- gebene Mittel für die Bestimmung der Dichte anwenden und eine Reihe Glas-

.^VC -'-^ 7-.'

142 L* Holborn : Mechanische und thennische Eigenschaften der Materie usw.

perlen von verschiedenem spezifischen Gewicht benutzen, die in der Weise aus- gewählt werden, daß sie anfangs alle auf der Trennungsschicht der beiden Flüssigkeiten liegen und sich später, je nach der Dichte der Schichten, in ver- schiedenen Höhen verteilen. Ferner sind Beobachtungsverfahren .ausgearbeitet^ die auf der Änderung der Lichtbrechung oder der elektrischen Leitfähigkeit der diffundierenden Flüssigkeiten beruhen. Zur Bestimmung der Diffusions- fähigkeit verschiedener Stoffe mißt man die Zeit, in der die Mischung gleich weit vorgeschritten ist. Die Erscheinung wird stark von der Temperatur be- einflußt: Steigen der Temperatur befördert die Diffusion. Die Analogie, welche zwischen der Diffusion und der Wärmeleitung besteht, hat schon Berthollet hervorgehoben, und Fick hat diesen Parallelismus weiter verfolgt.

Die Geschwindigkeit, mit der die einzelnen Körper diffundieren, ist sehr verschieden. Im allgemeinen unterscheidet man zwei voneinander stark ab- weichende Gruppen, die Graham als Kolloide und Kristalloide bezeichnete. Die letzteren, zu denen namentlich die Salzlösungen gehören, diffundieren mit- einander und mit ihrem reinen Lösungsmittel z. B. Wasser, während die Kol- loide, wozu man außer dem Leim die Eiweiße, Karamel, Gelatine und die Me- talloxyde rechnet, eine viel geringere Diffusionsgeschwindigkeit besitzen. Diese beiden Klassen von Körpern und ihre Lösungen verhalten sich auch in anderer Beziehung sehr verschieden. Die kolloidalen Lösungen ergeben beim Ein- dampfen einen Rückstand, der keine Kristalle bildet, sondern einen glasigen, amorphen Körper, welcher sich nachträglich nur sehr unvollkommen wieder auflöst. Ferner unterscheiden sich die Gefrierpunkte und Siedepunkte der kol- loidalen Lösungen nicht sehr von denen des Lösungsmittels, was bei den Lö- sungen der Kristalloide nicht der Fall zu sein pflegt. Man hat die Kolloide als Körper von sehr hohem Molekulargewicht zu betrachten und erklärt dieses Merkmal daher, daß sich viele einfache Moleküle zu größeren Komplexen ver- bunden haben.

Ähnlich wie bei der freien Diffusion verhalten sich zwei Flüssigkeiten, die durch eine durchlässige Scheidewand, z. B. Pergamentpapier oder tierische Membran, voneinander getrennt sind. Allerdings wird dieser Vorgang, den man als Osmose bezeichnet, noch von der Natur der Membran beeinflußt. Eine be- sondere Bedeutung hat der Fall gewonnen, wo die verdünnte Lösung eines Kör- pers durch eine halbdurchlässige Membran von dem Lösungsmittel geschieden ist. Für das Wasser und die wäßrige Lösung von Rohrzucker besitzt die von Pfeffer angegebene Niederschlagsmembran, die in einer Tonzelle durch die Einwirkung von Ferrozyankalium auf Kupfersulfat hervorgebracht wird, die Eigenschaft, nur das Wasser durchzulassen. Dieses geht so lange durch die Membran hindurch, bis der Überdruck auf der Seite der Lösung einen bestimm- ten Wert erreicht hat, den man osmotischen Druck nennt. Nach van*t Hoff (1885) ist dieser Druck der Konzentration des gelösten Stoffes proportional und verhält sich wie der Gasdruck, den die gelösten Moleküle im Gaszustande ausübten, wenn sie allein nach Entfernung der Lösungsmittel in dem Räume zurückblieben. Entsprechend ihrer geringen Diffusionsgeschwindigkeit üben

Diffusion

143

die Kolloide gegenüber den Kristalloiden einen kleinen osmotischen Druck aus. Graham hat auf diesem verschiedenen Verhalten der beiden Gruppen ein Verfahren zu ihrer Trennung, die Dialyse, gegründet.

Auch die Gase zeigen die Erscheinung der Diffusion, die wesentlich zur Diffusion Ausbildung unserer Vorstellungen über den molekularen Bau dieser Stoffe bei-^°°^"*" getragen hat. Man hat sowohl die freie Diffusion, als auch den Durchgang durch poröse Scheidewände beobachtet. Ist der Vorgang im ersten Falle zu Ende ge- kommen, so zeigt das Gasgemisch denselben Druck wie zu Anfang, wo sich beide Bestandteile unvermischt nebeneinander befanden. Hieraus folgt das nach Dalton (1802) benannte Gesetz: der Druck des in einem Gefäß befindlichen Gases hängt nicht davon ab, ob es darin allein oder zusammen mit anderen Ga- sen eingeschlossen ist, und der Druck eines Gasgemisches ergibt sich als die Summe der Drucke der einzelnen Bestandteile. Nach den Untersuchungen Loschmidts (1870) ist die freie Diffusion der Gase annähernd umgekehrt pro- portional der Wurzel aus dem Produkt ihrer Dichten. Dasselbe Gesetz be- obachtete Graham vielfach für die Diffusion zweier Gase, die durch eine poröse Wand getrennt waren. Es kommt hierbei auf die Weite der Poren an. So genügte eine dünne, künstlich gepreßte Graphitplatte, aus der die Blei- stifte hergestellt werden, dem Gesetz; ebenso eine unglasierte Porzellanmasse, während Gipspfropfen, deren Öffnungen weiter sind, schon eine große Ab- weichung ergaben.

Für den Durchgang der Gase durch Kautschukmembrane gilt ein anderes Gesetz. Denn hier dringt das schwere Kohlendioxyd leichter durch als Luft oder Wasserstoff. Für diese Erscheinung ist die Absorption, welche das Gas von dem festen Körper erfährt, maßgebend. Ebenso verhält es sich mit dem Durchgang der Gase durch glühende Metallwände. Denn auch diese besitzen die Eigenschaft, Gase in merklichem Maße zu absorbieren.

Umgekehrt ist diese Absorptionsfähigkeit fester Körper nicht immer mit einem Durchgang der Gase verbunden. Die Aufnahme der Gase beschränkt sich dann auf die Oberfläche der festen Körper, weshalb auch vorgeschlagen ist, in einem solchen Falle von einer Adsorptionsfähigkeit zu sprechen. Die ersten Messungen auf diesem Gebiete stammen von de Saussure (1814), welcher auch schon fand, daß die Adsorptionsfähigkeit mit dem Druck des Gases wächst und in besonders starkem Maße mit dem Wachsen der Tem- peratur abnimmt. Holzkohle zeichnet sich vor allen festen Körpern durch eine starke Verdichtung der Gase auf der Oberfläche aus und zugleich durch eine starke Veränderlichkeit dieser Eigenschaft mit der Temperatur. De war {1904), der diese Erscheinung bis zu den Temperaturen der flüssigen Luft untersuchte, gründete hierauf ein Verfahren zum Evakuieren: man erreicht den höchsten Verdünnungsgrad der meisten Gase in Gefäßen, die in der Weise ausgepumpt werden, daß man mit ihnen durch vorhergehende Erhitzung von Gas befreite Holzkohle in Verbindung bringt und diese dann in flüssiger Luft abkühlt. Die Aufnahmefähigkeit der Holzkohle ist für die verschiedenen Gase ungleich; am stärksten wird Sauerstoff absorbiert, dann folgt Argon, Stick-

144 ^* L. Holborn: Mechanische und thermische Eigenschaften der Materie usw.

Stoff, Wasserstoff. Am schwächsten und in sehr geringem Maße wird Helium aufgenommen. Die Adsorption ist mit der Entwicklung größerer Wärme- mengen verbunden.

Flüssigkeiten absorbieren ebenfalls Gase. Diese diffundieren alsdann von der Flüssigkeitsoberfläche in die tiefer liegenden Schichten, wobei sich das Gleichgewicht sehr langsam herstellt. Durch Schütteln der Flüssigkeit läßt sich das Eindringen des Gases jedoch leicht befördern. Die absorbierte Gasmenge nimmt mit wachsender Temperatur ab und ist im allgemeinen von der Natur des Gases und der Flüssigkeit abhängig. Für die Veränderung mit dem Druck des Gases besteht ein einfaches Gesetz, das nach seinem Entdecker Henry (1803) benannt ist. Darnach wird unter jedem Druck von derselben Flüssig- keit das gleiche Volumen eines Gases aufgenommen, vorausgesetzt, daß dieses Volumen unter demselben Druck gemessen wird, den das Gas über der Oberfläche der Flüssigkeit besitzt. Am besten ist die Absorption des Wassers untersucht : zahlreiche Messungen darüber besitzen wir namentlich von Bunsen (1857), die in neuerer Zeit von L. U. Win kl er fortgesetzt worden sind. Es ist bemer- kenswert, daß für die starke Absorption, die Wasser auf einige Gase, wie Am- moniak, Chlorwasserstoff usw., ausübt und die wahrscheinlich mit einer chemi- schen Wirkung verbunden ist, das Henry sehe Gesetz keine Gültigkeit besitzt. Oberflächen. Nicht in allen Fällen, in denen man zwei verschiedene Flüssigkeiten zu-

KapiiUrHät sammcnbrlugt, diffundieren diese ineinander, sie lagern sich dann getrennt ihrer Schwere entsprechend übereinander. Schaltet man die Wirkung der Schwerkraft aus, indem man zwei gleich schwere Flüssigkeiten vereinigt, z. B. öl und eine Mischung von Alkohol und Wasser, so nimmt die eine Flüssigkeit, die allseitig von der anderen umgeben ist, Kugelgestalt an. Auf diese Weise gelingt es, ölkugeln bis zu 10 cm Durchmesser in dem Wasser- Alkoholgemisch zu erhalten. Eine Flüssigkeit, die von äußeren Kräften nicht beeinflußt wird, besitzt also im Gleichgewichtszustande die kleinste Oberfläche, die ein Körper von gegebenem Inhalt aufweisen kann.

Ähnlich sind die Bedingungen bei der Bildung des Gleichgewichts in der leichten Flüssigkeitslamelle einer Seifenblase, auf deren dünne Schicht die Schwere nur in geringem Grade einwirkt. Das Häutchen übt auf die eingeschlos- sene Luft einen merklichen Druck aus, der sich unschwer mit einem kleinen Manometer messen läßt. Erzeugt man ferner an einem ebenen Drahtrechteck, dessen eine Seite beweglich ist, eine Lamelle aus Seifenwasser, wobei die Ebene des Drahtgestells senkrecht steht und die bewegliche Seite nach unten gekehrt ist, so beobachtet man, daß diese gehoben wird und sogar noch ein kleines an- gehängtes Gewicht mitnimmt, indem die Lamelle sich zusammenzieht. Diese und ähnliche Versuche haben zu der Vorstellung geführt, daß die Oberfläche einer Flüssigkeit einer gespannten Membran gleicht; eine solche Haut hat man sich sehr dünn zu denken, noch viel dünner als die Lamelle der Seifenblase, die auf jeder ihrer beiden Seiten eine solche gespannte Schicht besitzt. Die auf die Längeneinheit bezogene Spannung einer solchen Schicht bezeichnet man als Oberflächenspannung und drückt sie in Grammgewicht aus. In dem ange-

Kapillarität 145

führten Beispiel, würde also das Gewicht, das auf die Länge von ^i cm der beweglichen Rechteckseite im Gleichgewichtszustande entfällt, .die Oberflächen- spannung der Flüssigkeit darstellen, wenn diese an die Luft grenzte Wasser hat von allen. Körpern die größte Oberflächenspannung; sie beträgt 0,5. g für die Länge von t cm.

Die Oberflächenspannung derselben Flüssigkeit ändert sich, wenn das an- grenzende Medium wechselt, wenn also z. B. an Stelle von Luft eine Flüssigkeit tritt. Es kann auch der Fall eintreten, daß mehr als zwei Medien zusammen- stoßen. Bringt man z. B. einen Tropfen öl auf Wasser, so treten drei Ober- flächenspannungen auf: an den Trennungslinien von Ol und Wasser, von öl und Luft und von Wasser und öl. .In der Linie, in der alle drei Medien zu- sammenstoße, äiuß Gleichgewicht zwischen den drei Spännungen eintreten, wenn der öltropfen seine Gestalt behalten soll, und aus ;d6m Parallelogramm der Kräfte ergeben sich dann die Winkel, unter denen sich die Grenzflächen schneiden. Bei dem angenommenen Beispiel ist ein Gleichgewicht überhaupt nicht möglich, weil die Summe zweier Spannungen größer ist als die dritte und sich infolgedessen kein Kräfteparallelogramm konstruieren läßt. Da die Span- nung zwischen Wasser und Luft die Summe der beiden anderen' überwiegt, so bestimmt sie die Richtung der Bewegung: das öl breitet sich auf der Wasseroberfläche aus und überzieht sie in ganz dünner Schicht. Denn selbst wenn der Öltropfen schon sehr flach geworden ist, ist die Spannung der freien Wasserfläche immer noch gröiJer als die Spannungen der beiden Ober- flächen des Öls.

Man hat von dieser Erscheinung oft Gebrauch gemacht, um die geringste Moiekuure Dicke zu bestimmen, die eine Flüssigkeitsschicht aufweisen kann, und hat dann *°*®"****°*"- von der Dicke einer solchen Schicht auf die Größe eines Moleküls geschlossen. Bei der Ausbreitung des öltropfens auf dem Wasser beobachtet man nach einer gewissen 2^it ein 2^rreißen der ölschicht, und zwar an vielen Stellen gleichzei- tig, so daß die Annahme einer gleichmäßigen Dicke der ölschicht berechtigt ist. In diesem 2^itpunkt der Löcherbildung besitzt die Ölhaut eine Dicke von 0,0001 mm. Bis zu einer solchen Feinheit lassen sich auch die zähen Metalle Gold, Platin, usw. auswalzen. Aber auch jetzt ist die ganze Wasseroberfläche noch von einer zusammenhängenden Ölhaut überzogen, wie man nach dem Vorgang von Ray leigh durch Auf werfen von kleinen Kampferstückchen nach- weisen kann. Denn sie zeigen in diesem Stadium des Versuchs keine Bewe- gung, während sie auf Wasserflächen in Drehungen geraten. Bei einer Feinheit von etwa 0,0000005 mm läßt sich mit allen Mitteln keine zusammenhängende Ölhaut mehr pachweisen, sie scheint' sich dann in einzelne. Körnchen aufgelöst zu haben, die man als die Moleküle ansehen muß.

Dieselbe Größenordnung findet man für die Dicke der Wandung einer Seifenblase an den Stellen, wo sie zerplatzt, wo also die Wasserhaut den Zu- sammenhang verliert und sich in diskrete Teilchen auflöst. Der Grenzwert für das Bestehen zusammenhängender Flüs$igkeitslamellen . liegt denmach bei 0,000001 mmj diese Länge entspricht der Größenordnung nach dem Werte, den

K. d.G. in. DlyBdx Physik XO

146 6* L. Holborn: Mechanische und thermische Eigenschaften der Materie usw.

man auch aus anderen Erscheinungen für die Dimension eines Moleküls ge* funden hat (vgl. Artikel li).

Die Vorstellung von der Oberflächenspannung der Flüssigkeiten findet sich zuerst bei Segner (1752), ausgeprägter jedoch bei Young (1805). Hierauf baute Laplace (1806) die Annahme auf, daß neben der Gravitation noch eine Molekularanziehung zwischen den Massenteilchen besteht, die in meßbaren Entfernungen verschwindet, in kleinen Abständen dagegen sehr groß ist, und gelangte damit zu einer vollständigen Theorie der Kapillaritätserscheinungen, deren mathematische Ableitung alsdann von Gauß (1829) noch verallgemei- nert wurde. Während Laplace nämlich noch neben der Molekularanziehung voraussetzte, daß der „Randwinkel", d. h. derjenige Winkel, den die Oberfläche einer Flüssigkeit oder besser die Trennungsfläche zweier Flüssigkeiten mit einer festen Wand einschließt, konstant ist, zeigte Gauß, daß dieser Satz notwen- dig aus der Molekularanziehung folgt. Für die Berührung von Flüssigkeiten und festen Wänden ist jene Regel von Wichtigkeit. Denn überall da, wo Flüs- sigkeiten an feste Wände stoßen, muß sich auch ihre Oberflächenspannung ändern. Man beobachtet zwei Fälle, wofür Wasser und Quecksilber in Be- rührung mit einer festen Wand Beispiele liefern. Taucht man eine enge Glas- röhre in die erste Flüssigkeit, so steht diese im Innern der Glasröhre höher als außen und endigt in eine konkave Oberfläche. Die auf dem Umfang dieser Oberfläche wirkende Spannung übt einen Zug aufwärts, dem durch das Ge- wicht der in der Röhre gehobenen Flüssigkeitssäule das Gleichgewicht gehalten wird. Da der Zug der Länge der Begrenzungslinie, also dem Durchmesser der Röhre proportional ist, die gehobene Flüssigkeitssäule aber dem Inhalt, also dem Quadrat des Durchmessers, so ist die „Steighöhe'' dem Durchmesser um- gekehrt proportional. Diese Erscheinung liefert ein einfaches Mittel für die Bestimmung der Oberflächenspannung. Quecksilber steht in der engen Röhre niedriger als außen und endigt in einer konvexen Kuppe.

Eine einfache Bestimmung der Oberflächenspannung gewährt die Erschei- nung, daß eine Flüssigkeit aus einem engen Rohr in Tropfen ausfließt. Dieses Verfahren, das von Hagen angegeben und vielfach von Quincke angewandt wurde, hat freilich mancherlei Unsicherheiten, es kann aber z. B. auch für die Untersuchung geschmolzener Metalle benutzt werden, die man in Drahtform durch eine untergesetzte Flamme so weit erhitzt, daß die geschmolzene Masse in Tropfenform herunterfällt.

Die Oberflächenspannung nimmt mit wachsender Temperatur ab, ist aber namentlich stark von Verunreinigungen abhängig, so daß schon Flüssigkeits- oberflächen durch Stehen an der Luft ihre Spannung ändern. Für Wasser genügen namentlich die geringsten Spuren von Fetten oder Seifen u. dgl., um die Oberflächenspannung wesentlich herabzusetzen. Die Beobachtungen müssen daher an frischen Oberflächen schnell angestellt werden. spesifische Utttcr spezifischer Wärme eines Stoffes versteht man die Wärmekapazität seiner Masseneinheit (vgl. Artikel 4). Hiernach hat derjenige Stoff die spezi- fische Wärme i, von dem i g durch die Zuführung von l g-cali5 um i ® er-

Spezifische Wärme j^j

wärmt wird. Kennt man die Masse eines Körpers, so ergibt sich seine spezifi- sche Wärme aus der Wärmekapazität, die nach einem der angegebenen kalori- metrischen Verfahren (vgl. Artikel 4) bestimmt werden kann.

Die spezifische Wärme fester Körper ist in zahlreichen Untersuchungen Gaset* von

1 T it 1^ 1a- j nA. tr Dulong und Petit.

gemessen worden. Im allgememen wechselt sie von dem emen Stoffe zum anderen und verändert sich selbst, wenn man verschiedene Modifikationen des- selben Stoffes, z. B. Diamant und Graphit, betrachtet. Es zeigt sich aber eine Gesetzmäßigkeit in den Atomwärmen der Elemente im festen Zustande, d. h. den Produkten aus spezifischer Wärme und Atomgewicht. Diese sind, wie Dulong und Petit (181 8) fanden, näherungsweise gleich groß, nämlich 6,4. Für die Metalle trifft das Gesetz am besten zu; die größten Abweichungen zeigen einige Elemente mit kleinem Atomgewicht, besonders Bor, Kohlenstoff und Silizium. Bei diesen Stoffen ergibt sich jedoch eine starke Zunahme der spezifischen Wärme mit der Temperatur. Das stärkste Wachstum weist Dia- mant auf; auch nähern sich die spezifischen Wärmen von Diamant und Gra- phit, die in tiefen Temperaturen einen großen Unterschied aufweisen, mit wach- sender Temperatur und genügen immer besser dem Gesetz von Dulong und Petit. Man nahm deshalb an, daß dieses Gesetz nur für den Grenzzustand gelte, in welchem sich die spezifische Wärme nur noch langsam mit der Tempe- ratur änderte. Bestätigt wurde diese Vermutung durch neuere Bestimmungen der spezifischen Wärme fester Körper bei ganz tiefen Temperaturen, die von De war und Behn begonnen, von N ernst und seinen Schülern bis zur Tem- peratur des flüssigen Wasserstoffs herab fortgesetzt wurden. Wichtig für diese Untersuchungen über die Änderung der spezifischen Wärme mit der Tem- peratur erwies sich namentlich die Anwendung des Metallkalorimeters, dessen geringe Kapazität die Messung ,, wahrer spezifischer Wärmen'* erlaubt, deren Werte für eng begrenzte Temperaturgebiete gelten. Es ergab sich, daß die Atomwärme der Metalle, die bei Zimmertemperatur dem Gesetz von Dulong und Petit gehorchen, eine starke Abnahme erfährt, die darauf hindeutet, daß der Wert Null bei dem absoluten Nullpunkt der Temperatur erreicht wird. Schon bevor man zu diesem Punkte gelangt, verschwindet die Atomwärme des Diamants, die bereits bei Zimmertemperatur unter 6,4 liegt.

Die ältere kinetische Theorie der Materie, die eine gleichmäßige Vertei- lung der Energie über die Atome voraussetzt, konnte die Abweichungen von der Dulong und Pe titschen Regel und die Änderung der Atomwärme fester Körper mit der Temperatur nicht erklären. Aussichtsvoller scheint die neuerdings (1907) von Einstein vorgeschlagene Theorie, welche die quanten- hafte Verteilung der Energie, die Planck für den Strahlungsvorgang einge* führt hat, auf die Wärmeschwingungen der kleinsten Teilchen materieller Körper überträgt (vgl. Artikel lo).

Die Molekularwärme (das Produkt aus Molekulargewicht und spezifischer Geaett von Kopp. Wärme) zusammengesetzter Körper läßt sich in vielen Fällen aus den Atom- wärmen der einzelnen Elemente nach der Mischungsregel bestimmen. Dieses Gesetz, das sich aus Beobachtungen von F. Neumann, Regnault und Kopp

IG*

1 48 6* L. Holborn: Mechanische und thermische Eigenschaften der Materie usw.

ergab und gewöhnlich nach dem letzten genannt wird, liefert allerdings nur dann richtige Werte, wenn man die zahlreichen Ausnahmen von der Dulong- und Pe titschen. Regel berücksichtigt und z. B. die Atomwärme von Kohlen- stoff gleich 1,8, von Silizium 3,8 setzt. Für Sauerstoff und Wasserstoff, die im festen Zustande bei gewöhnlicher Temperatur nicht untersucht werden kön- nen, muß man die Atomwärme zu 4,0 und 2,3 annehmen. Diese Zahlen folgen aus den festen Verbindungen jener Elemente mit anderen, Stoffen und stellen gleichsam die Atomwärme für festen Sauerstoff und Wasserstoff dar. Die Mi- schungsregel ist auch für die Berechnung der spezifischen Wärme von Legie- rungen gültig, sowohl für den festen, wie für den flüssigen Zustand; allerdings sind die Werte der spezifischen Wärme der Bestandteile für den flüssigen und den festen Zustand im allgemeinen verschieden; der letztere ist meist höher als der erste..

Die spezifische Wärme der Flüssigkeiten nimmt ebenso wie die fester Kör- per im allgemeinen mit wachsender Temperatur zu.. Doch kommt auch der umgekehrte Verlauf vor, z. B. bei Quecksilber. Besonders bemerkenswert ist das Wasser, dessen spezifische Wärme den Gegenstand zahlreicher Untersu- chungen gebildet hat. Sie ist eine der größten und nimmt von 0 ^ an ab bis etwa 30®; höher hinauf erfolgt ein Wachstum. Spezifische Erst Verhältnismäßig spät sind sichere Bestimmungen der spezifischen

koMtontem Wärme von Gasen erhalten worden. Das kalorimetrische Verfahren von De- ^™*^^ laroche und B^rärd (1812) hat erst unter den Händen von Regnault (1862) zu brauchbaren Ergebnissen geführt, von denen sich die meisten auf Atmo- sphärendruck und Temperaturen zwischen und 200^ beziehen. Für Luft, Sauerstoff, Wasserstoff, Kohlenoxyd, also für Gase, die dem vollkommenen Zu- stande nahestehen, ergab sich die Molekularwärme nahezu gleich und unab- hängig von der Temperatur. In jeder dieser beiden Beziehungen weichen jedoch solche Gase ab, die weiter vom idealen Zustande entfernt sind, wie z. B. Kohlen- säure oder Ammoniak; die spezifische Wärme dieser Stoffe wächst mit zu- nehmender Temperatur. Spezifische Die Vcrsucbe Regnaults bezogen sich auf eine Anordnung, bei welcher

bei Dreck- das untcrsuchtc Gas stets unter demselben Druck, nämlich dem der umgeben- *"*®™°K*°- den. Atmosphäre stand. Unter diesem Druck war das Gas erhitzt worden und war ihm die mitgeteilte Wärme bei dem Durchgang durch das Kalorimeter wieder entzogen. Nun war aber schon vorher bekannt geworden, daß man unter Umständen Wärme von einem Gase gewinnen kann, ohne ihm solche mitgeteilt zu haben. Man hatte nämlich beobachtet, daß sich die .Gase durch Kompression erhitzen. Das auf dieser Erscheinung beruhende pneumatische Feuerzeug war bereits im Jahre 1803 von einem französischen Arbeiter erfun- den worden. Auch die umgekehrte Erscheinung war bekannt, daj} sich Luft in- folge ihrer Ausdehnung abkühlt, z. B. daß ein Thermometer unter dem Rezi- pienten einer Luftpumpe sinkt, wenn dieser evakuiert wird. Man kam daher zu der Auffassung, daß die Luft, die unter konstantem Druck steht und sich bei der Erwärmung ausdehnt, mehr Wärmetfür dieselbe Erhöhung der Tempe-

Spezifische Wärme i^q

ratur braucht, wie eine gleiche Luftmenge, deren Volumen konstant gehalten wird, und unterschied bei den Gasen eine spezifische Wärme bei konstantem Druck von einer spezifischen Wärme bei konstantem Volumen. Letztere be- wirkte nur eine Temperaturerhöhung des Gases, während die spezifische Wärme bei konstantem Druck noch außerdem die Wärme zu liefern hatte, die bei der Ausdehnung des Gases gebunden wurde.

Der Annahme, daß bei jeder Ausdehnung eines Gases Wärme latent und bei der Verringerung des Volumens wieder frei wird, widersprach jedoch ein Versuch, den Gay-Lussac im Jahre 1807 anstellte. Er nahm zwei gleiche Gefäße, die durch ein Rohr miteinander in Verbindung standen. Durch einen Hahn war die Leitung zunächst unterbrochen, und das erste Gefäß wurde eva- kuiert, während -das zweite mit trockener Luft von Atmosphärendruck gefüllt war. öffnete man nun den Hahn, so daß die Luft in das Vakuum strömen konnte,^ so sank freilich die Temperatur im zweiten Gefäß, in dem ersten Gefäß stieg sie dagegen um denselben Betrag. DieLüft im ganzen erfuhr durch die Ausdehnung also keine Änderung ihrer Temperatur, es wurde keine Wärme gebunden.

Die Erklärung dieser Erscheinungen lieferte erst Robert Mayer (1842). Er erkannte, daß der größere Aufwand an Wärme, der für die Erwärmung eines Gases bei konstantem Druck gegenüber derjenigen bei konstantem Vo- lumen erforderlich ist, für die Leistung äußerer Arbeit verbraucht wird. Denn das Gas, welches sich infolge der Erwärmung bei dem konstanten Druck der Atmosphäre ausdehnt, leistet Arbeit durch die Überwindung des Luftdrucks, wie man ohne weiteres einsieht, wenn man sich das Gas in einem Zylinder mit beweglichem Stempel eingeschlossen denkt: der Stempel wird infolge der Aus- dehnung des Gases gegen den darauf lastenden Luftdruck verschoben, wozu eine Kraft auf einem gewissen Wege wirken muß. Wärme und mechanische Arbeit sind also einander äquivalent und können unter bestimmten Bedingun- gen ineinander übergeführt werden. Daß bei dem Versuche von Gay-Lussac keine Wärme gebunden wird, bietet nun keine Überraschung mehr; in diesem Falle, wo das Gas in das Vakuum strömt, wird keine äußere Arbeit ge- leistet. Die hergebrachte Annahme einer unzerstörbaren Wärmesubstanz war damit als unzureichend erwiesen. Erhalten bleibt allein die Energie; ihre Formen, mechanische Arbeit und Wärme, die einander äquivalent sind, wechseln (vgl. Artikel 32).

Das Verhältnis der spezifischen Wärmen bei konstantem Druck und bei Verhältnis konstantem Volumen wurde für Luft zuerst von Clement undDesormes be-,p^fochen stimmt. Sie beobachteten die Temperaturerhöhung einer Gasmenge, die an- '^*™«"- f angs unter vermindertem Druck in einer Flasche abgeschlossen war und durch öffnen eines weiten Hahnes in kurzer Zeit auf Atmosphärendruck gebracht eine Erwärmung erlitt, die sich dem ganzen Gasinhalt mitteilte. Unmittelbar nach dem Druckausgleich wurde der Hahn wieder geschlossen. Die Luft in der Flasche kühlte sich nun auf ihre Anfangstemperatur, die der Umgebung, ab und erfuhr dabei eine Druckerniedrigung, die mittels eines Flüssigkeitsmano- meters bestimmt, ein Maß für die zu messende Temperaturänderung bildete.

I^O 6* L* Holborn : Mechanische und thennische Eigenschaften der Materie usw.

Die Ergebnisse dieses Verfahrens waren ziemlich unsicher und blieben es auch noch nach mancherlei Verbesserungen, die Gay-Lussac und Welt er anbrachten; die Schwierigkeit liegt hauptsächlich darin, daß sich die Erwär- mung, die das Gas durch die Kompression erfährt, sofort mit der Umgebung auszugleichen beginnt, ehe noch der Hahn wieder geschlossen ist. Einen Fort- schritt erzielte Röntgen (1873), der den Druck genauer mit einem empfind- lichen Metallmanometer bestimmte und einen viel größeren Ballon benutzte. Lummer und Pringsheim (1898) ermittelten die Temperaturänderung des Gases nicht mit dem Manometer, sondern mit einem schnell folgenden elektri- schen Thermometer, dem Bolometer.

Ein anderes Verfahren führte viel früher zu sicheren Werten von dem Ver- hältnis der spezifischen Wärmen. Schon Newton war es gelungen, die Ge- schwindigkeit, mit der sich der Schall in der Luft ausbreitet, zu berechnen. Er erhielt dafür eine einfache Formel, in die nur die Elastizität und die Dichte der Luft einging. Diese Berechnung ergab jedoch Werte der Schallgeschwindig- keit, die mit den für diese Größe beobachteten Zahlen nicht übereinstimmten, sondern um den sechsten Teil zu klein waren (vgl. Artikel l). Laplace ent- deckte erst später (18 16) die Ursache dieses Unterschieds. Er machte darauf aufmerksam, daß die Schallwelle Temperaturänderungen in der Luft hervor- bringen muß: an den Verdichtungsstellen steigt die Temperatur infolge der Kompression, an den Verdünnungsstellen sinkt sie infolge der Dilatation. Der Unterschied der elastischen Kräfte ist also größer als Newton ihn an- genommen hat und zwar in demselben Verhältnis, in dem die spezifischen Wärmen bei konstantem Druck und bei konstantem Volumen zueinander stehen. Da die Schallgeschwindigkeit leicht und sicher bestimmt werden kann, so leitete man später umgekehrt das Verhältnis der spezifischen Wärmen aus Werten der Schallgeschwindigkeit ab, die auf experimentellem Wege er- mittelt waren (vgl. Artikel 2). Auf diese Weise erhielt Du long für eine Reihe von Gasen annehmbare Werte. Durchdie von Kund t (1866) angegebene Methode der Staubfiguren ist die Untersuchung der Schallgeschwindigkeit in Röhren sehr verbessert und damit die Bestimmung des Verhältnisses der spezifischen Wärmen aller Gase bei verschiedenen Temperaturen und Drucken erleichtert worden.

Für die einfachen Gase wie Luft, ihre zweiatomigen Bestandteile und Wasserstoff liegt das Verhältnis der spezifischen Wärmen nahe bei 1,4. Dieser Wert, der für Atmosphärendruck bei Zimmertemperaturen durch die Messun- gen zahlreicher Beobachter festgestellt wurde, bleibt vom Wasserstoff abgesehen nahezu konstant in dem bis jetzt untersuchten Temperaturgebiet zwischen 190 ® und + 900 ^ Bei höheren Drucken erhielt man höhere Werte, die nament- lich in tiefen Temperaturen stark mit der Abnahme der Temperatur wachsen.

Nach Überlegungen, die auf der Gastheorie fußen, kann das Verhältnis der spezifischen Wärmen nicht über Vs steigen (vgl. Artikel II). Dieser Grenz- wert wird von einatomigen Gasen erreicht und wurde zuerst für Queck- silberdampf von Kundt und Warburg gefunden. Nach der Entdeckung der

Spezifische Wärme i j i

Edelgase wurde derselbe Wert auch bei diesen, z. B. bei Argon und Helium, beobachtet und später noch für die Dämpfe von Alkalimetallen, woraus auf die Einatomigkeit dieser Stoffe geschlossen werden kann.

Aus dem auf experimentellem Wege bestimmten Werte der spezifischen spezifische Wärme bei konstantem Druck und dem Verhältnis der beiden spezifischen j^j j^oMtantem Wärmen läßt sich in jedem einzelnen Falle die spezifische Wärme bei konstan- voiamen. tem Volumen bestimmen. Eine direkte Beobachtung dieser Größe ist bei kleinem Druck schwierig, da man das Gas zu diesem Zwecke in ein Gefäß einschließen muß, und wenn man dessen Wände auch noch so dünn wählte, so würde doch immer die Wärmekapazität der Hülle die des Inhalts bedeu- tend übersteigen, so daß schon kleine Fehler, die bei der Bestimmung der ersteren Größe unvermeidlich sind, das Ergebnis stark fälschen. Die erste kalorimetrische Bestimmung, die auf Beachtung Anspruch machen kann, be- zieht sich auf Gase von großer Dichte, die bei höheren Drucken in einem Ge- fäße komprimiert wurden, und ist dem britischen Forscher Joly (1891) zu ver- danken, der mit dem Dampfkalorimeter arbeitete. Die Versuche bezogen sich auf Luft und Kohlensäure, deren spezifische Wärme bei konstantem Volumen eine starke Zunahme mit wachsendem Druck zeigte. Eine andere Versuchs- reihe ähnlicher Art stellt Eucken (191 2) mit komprimiertem Wasserstoff bei tiefen Temperaturen bis herab zu dem Siedepunkt des flüssigen Wasserstoffs an, wobei die Heizung des Gasgefäßes und die Messung seiner Temperatur auf elektrischem Wege vorgenommen wurden. Es zeigte sich, daß die Molekular- wärme des Wasserstoffs mit sinkender Temperatur auf den für einatomige Gase gültigen Wert herabsinkt.

Für die Abhängigkeit der spezifischen Wärme konstanten Drucks vomspenfiich© Druck wurden von Regnaul t für einige Gase Versuche eingeleitet. Sie sindandDroct jedoch ergebnislos gewesen. Die Schwierigkeiten sind erst neuerdings (1914) von Holborn und Jakob so weit überwunden, daß die auf diesem Gebiete ge- wonnenen Resultate Zutrauen verdienen.

Bessere Früchte haben die Untersuchungen gezeitigt, welche die Ver- Spedfiache änderlichkeit der spezifischen Wärme konstanten Drucks mit der Temperatur xemporatar. betreffen. Es ist schon erwähnt worden, daß Regnault nicht über das Tem- peraturbereich zwischen o^ und 200® hinausging. Neuerdings ist es jedoch ge- lungen, diese Beobachtungen bis 1400^ auszudehnen, wobei sich auch für die spezifische Wärme der einfachen Gase ein geringes Anwachsen ergab. Auch nach tiefen Temperaturen sind die Messungen mit Erfolg fortgesetzt worden. Abgesehen von der schon erwähnten Untersuchung des Wasserstoffs wurde auch die spezifische Wärme bei Atmosphärendruck von Luft und ihren Haupt- bestandteilen, Stickstoff und Sauerstoff sowie anderer schwer kondensier- barer Gase, wie Kohlenoxyd und Helium, bis zur Temperatur des flüssigen Sauerstoffs verfolgt. Es wurde in diesen Fällen nur eine geringe Änderung der spezifischen Wärme mit abnehmender Temperatur festgestellt.

Erwähnenswert ist noch ein Verfahren zur Bestimmung der spezifischen Wärme der Gase in sehr hohen Temperaturen; es handelt sich dabei um die

I ^2 6* L. Holborn : Mechanische und thennische Eigenschaften der Materie usw.

Messung der spezifischen. Wärmen konstanten Volumens. Ein explosives Gas- gemisch von bekannter Zusammensetzung, z. B. Kohlenoxyd und Sauerstoff, füllt man in ein druckfestes eisernes Gefäß und bringt es durch einen elektri- schen Funken zur Explosion. Der hierbei entstehende Maximaldruck, der be- obachtet wird, liefert ein Maß für die Temperatur, bei der die Vereinigung der Bestandteile erfolgt, und die anderweitig bekannte Verbrenniingswärme ein Maß für die bei der Explosion entwickelte Wärmemenge, woraus die Wärme- kapazität des Verbrennungsprodukts berechnet werden kann, also in dem an- genommenen Fall die der Kohlensäure. Mischt man bei aufeinander folgenden Versuchen die beiden Gase in verschiedenen Verhältnissen, so daß nach der Verbrennung neben der Kohlensäure noch ein Teil von der einen oder der ande- ren Komponente bestehen bleibt, so ergibt sich auch die spezifische Wärme für diese und in derselben Weise für inerte Gase, z. B. Stickstoff, die sich aii der Verbrennung gar nicht beteiligen. Durch dieses Mittel hat man es gleichzeitig in der Hand, den Explosionsdruck zu variieren.

Die Schwierigkeiten des Verfahrens liegen in der Messung der Explosions- drucke, für welchen Zweck ein schnell folgendes Manometer nötig ist, damit dessen Einstellung nicht von dem unmittelbar nach der Explosion beginnenden Wärmeübergang auf die Gefäßwandung zu sehr beeinflußt wird. Man benutzt Membranmanometer oder Indikatoren. Auf diesem Wege ist von Mallard und Le Chatelier zuerst die Veränderlichkeit der spezifischen Wärme von ein- fachen Gasen wahrscheinlich gemacht, und die Wichtigkeit, die die Ergebnisse dieser Methode für die Berechnung der Verbrennungsmotoren besitzen, hat spätere Beobachter angespornt, den Druckanzeiger zu verfeinern, jouie^pomaoa. Es ist gczeigt wordcn, daß ein sich ausdehnendes Gas nur dann eine Ab- kühlung erfährt, wenn mit der Ausdehnung eine Leistung äußerer Arbeit ver- bunden ist. Ein ins Vakuum strömendes Gas erleidet keine Änderung seiner Temperatur, wie der Versuch von Gay-Lussac beweist, den Joule mit dem- selben Ergebnis wiederholte. Man drückt diese Tatsache wohl in der Weise aus, daß man sagt: Die spezifische Wärme eines Gases ist unabhängig von sei- nem Volumen. W. Thomson sah diesen Satz jedoch durch den Gay-Lussac- Jouleschen Versuch nicht als sicher bewiesen an. Auf gewissen Annahmen über den molekularen Bau der Gase fußend hielt er es für wahrscheinlich, daß bei der Volumenzunahme eine Abkühlung der Gase eintritt, die nur wegen ihrer Kleinheit bei der Versuchsanordnung von Gay-Lussac und Joule nicht wahrnehmbar war. Denn wenn auch hier keine Arbeit gegen äußere Kräfte geleistet wurde, so war doch eine Leistung innerer Arbeit gegen die Molekular- kräfte nicht ausgeschlossen. Thomson ersann deshalb ein empfindlicheres Beobachtungsverfahren, das er in Gemeinschaft mit Joule durchführte (1853-1862).

Eine lange Röhre, die in einem großen Wasserbade auf konstanter Tempe- ratur gehalten wird, ist durch einen in ihrer Mitte liegenden Wattepfropfen in zwei Abschnitte geteilt. An dem einen Ende befindet sich eine Druckpumpe, die durch den Pfropfen komprimierte Luft treibt, welche auf der anderen Seite

Efifekt.

Joule -Thomson Effekt 1^3

der Röhre unter dem Druck der Atmosphäre ausströmt. Bei diesem Vorgang wird nur eine kleine äußere Arbeit geleistet, was in der Weise veranschaulicht werden kann, daß man sich, entsprechend dem Kolben der Pumpe auf der Hochdruckseite, auf der Niederdruckseite der Röhre ebenfalls einen beweglichen Kolben angebracht denkt, der durch die sich ausdehnende Luft vorwärts be- wegt werden würde. Wir haben hier also ähnliche Bedingungen wie bei dem Versuche von Gay-Lussac, nur wiederholt sich ständig das Ausströmen des Gases, wodurch die Wirkung bedeutend gesteigert wird. In der Tat konnten die Beobachter bei Luft und Kohlensäure eine Abkühlung feststellen und ihrem Betrage nach messen; sie ergab sich bei Zimmertemperatur größer als bei lOO® und bei beiden Temperaturen für Luft entsprechend der geringeren Abwei- chung vom idealen Zustand kleiner als für Kohlensäure. Bei Wasserstoff wurde keine Abkühlung, sondern eine Erwärmung gefunden, doch war diese klein und lag fast in der Grenze der Beobachtungsfehler.

Trotz der Bedeutung, die den Versuchen von W.Thomson und Joule für unsere Kenntnis von der Beschaffenheit der Gase zukommt, ist man an eine vollständige Wiederholung der Untersuchung mit modernen Mitteln erst in jüngster Zeit herangegangen, seitdem die praktische Anwendung, die das Verfahren auf die Verflüssigung der Luft gefunden hat, und die später zu behandeln ist (vgl. Artikel 7), das Interesse der Beobachter dafür wieder wachgerufen hat. Als bemerkenswertes Ergebnis folgt aus neueren Versuchen, daß die Abkühlung bei Luft und Sauerstoff mit zunehmendem Druck der strömenden Gase abnimmt. Ferner ließ sich auch bei Wasserstoff eine Ab- kühlung beobachten, wenn die Temperatur des Gases unter 80® erniedrigt wurde. Am meisten ist die Temperaturänderung infolge des Druckabfalls an Drosselstellen bei Wasserdampf gemessen, um dessen Eigenschaften in der Nähe der Sättigung zu bestimmen.

Literatur siehe Seite 178.

7-

UMWANDLUNGSPUNKTE, ERSCHEINUNGEN BEI KOEXISTIERENDEN PHASEN.

Von

L. Holborn.

Schmelzen. Ein fcstcr KörpcF, dem andauernd Wärme zugeführt wird, geht in den flüssigen Zustand über: er schmilzt. Die Temperatur, bei dem dieser Vorgang eintritt, der Schmelzpunkt, ändert sich trotz weiterer Zuführung von Wärme nicht, solange von dem Stoff feste und flüssige Teile in inniger Mischung neben- einander bestehen. Erst wenn alle Teile geschmolzen sind, beginnt die Tempe- ratur wieder zu steigen. Die für die Zustandsänderung aufzuwendende Wärme- menge, die I g des festen Stoffes ohne Temperaturänderung in den flüssigen Zustand überführt, bezeichnet man als latente Schmelzwärme; sie wird bei der Umkehrung des Vorganges, bei dem Erstarren oder Gefrieren wiedergewonnen.

schmeixpunkL Bei chemisch einheitlichen Körpern, z. B. den Metallen oder dem Wasser, ist der Schmelzpunkt scharf ausgeprägt: bei konstanter Wärmezufuhr hört die Temperatur plötzlich zu steigen auf, bleibt dann eine Zeitlang auf derselben Höhe und nimmt endlich wieder zu. Andere Körper zusammengesetzter Art, wie Glas oder Siegellack, zeigen einen stetigen Übergang von dem festen in den flüssigen Zustand, so daß ein bestimmter Schmelzpunkt nicht ausgeprägt ist. Die erste Reihe von Körpern bilden im festen Zustande Kristalle, die anderen sind amorph; man hält sie für keine eigentlich festen Körper, sondern sieht sie als unterkühlte Flüssigkeiten an.

Zum Verständnis dieses Namens muß darauf hingewiesen werden, daß, obgleich es nicht möglich ist, einen festen Körper über seinen Schmelzpunkt hinaus zu erwärmen, der umgekehrte Fall, eine Flüssigkeit unter ihren Gefrier- punkt zu unterkühlen, vielfach beobachtet wird. So kann Wasser bis zu 20^ unter dem Eispunkt flüssig erhalten werden und einige Metalle, wie z. B. An- timon, IOC® und mehr unter ihrem Erstarrungspunkt. Werden sie dann fest, was durch Schütteln oder Einwerfen einer Spur von demselben festen Stoff leicht bewirkt werden kann, so steigt die Temperatur des unterkühlten Körpers wieder auf den Schmelzpunkt.

schmeixwärme. Die Schmclzwärmc wird mit einem der Apparate gemessen, die in dem Artikel 4 ,,Kalorimetrie** beschrieben worden sind. Dort ist auch schon dar- auf hingewiesen, daß mit dem Schmelzen der Stoffe eine Änderung ihres Volu-

Schmelzen

155

mens verbunden ist. Manche, unter ihnen besonders das Wasser, dehnen sich aus bei dem Obergang in den festen Zustand, andere, unter ihnen die meisten Metalle, ziehen sich zusammen. Dieses verschiedene Verhalten hängt davon ab, ob der Schmelzpunkt mit Zunahme des Drucks fällt oder sinkt. Ja- mes Thomson (1849), der den Zusammenhang dieser Erscheinungen durch thermodynamische Überlegungen begründete, erkannte zuerst, daß der Schmelz- punkt des Wassers durch Steigerung des Drucks erniedrigt wird, was sein Bruder William durch die Beobachtung bestätigen konnte. Helmholtz erklärte aus dieser Erscheinung die Regelation des Eises, die bei der Gletscherbildung eine bedeutende Rolle spielt. Den umgekehrten Fall, daß mit der Volumenzunahme nach dem Schmelzen ein Steigen des Schmelzpunkts bei zunehmendem Druck verbunden ist, wies Bunsen für Walrat und Paraffin nach. Später sind der- artige Versuche auf sehr hohe Drucke ausgedehnt worden, aus denen hervor- geht, daß die Änderung des Schmelzpunktes mit zunehmendem Druck verzögert wächst, so daß eine Umkehrung in dieser Abhängigkeit eintreten kann. Den Schmelzpunkt von Stoffen, die unter hohem Druck stehen, beobachtet man mit einer Vorrichtung, die auf Mousson (1859) zurückgeht. In den Stahl- zylinder, in dem die Flüssigkeit unter Druck beobachtet werden soll, läßt man mit dieser einen am Boden befindlichen Metallstift einfrieren. Wird nun der Zylinder herumgedreht, so daß der Stift nach oben kommt, und der Druck all- mählich bei Einhaltung einer bestimmten Temperatur in Wirksamkeit gesetzt, so löst sich der Stift bei dem Schmelzen des Versuchskörpers los und fällt nach unten, was der Beobachter an dem Ton erkennt, den der Stift bei dem Auf- schlagen auf den Boden verursacht.

Ändert sich der Schmelzpunkt, sei es infolge von Unterkühlung, sei es in- folge des Druckes, so übt dies auch einen Einfluß auf den Wert der Schmelz- wärme aus.

Außer dem Schmelzpunkt, in dem der feste Zustand in den flüssigen über- umwandiangs. geht, beobachtet man bei festen Körpern noch andere Temperaturen, wo zwarf^^^" zoston- kein Wechsel des Aggregatzustandes eintritt, wohl aber eine Änderung der ^^^ Eigenschaften des festen Zustandes, die mit derselben Schärfe von der Tempe- ratur abhängt wie die Erscheinung des Schmelzens. Man hat deshalb solche Temperaturen auch als Umwandlungspunkte zu betrachten, da bei ihnen zwei Modifikationen des festen Körpers nebeneinander im Gleichgewicht bestehen. Als Beispiel möge der Schwefel angeführt werden, der unter seinem Schmelz- punkt bei 95 ^ aus dem rhombischen Kristallzustand in den monoklinen über- geht, wobei eine bedeutende Wärmemenge frei wird. Da solche Vorgänge nicht immer so deutlich wie bei dem Wechsel der Kristallform in die Augen springen, im allgemeinen aber eine Änderung der sonstigen physikalischen Eigenschaften bewirken, so benutzt man eine solche Eigenschaft, z. B. die Ausdehnung, als Kriterium zur Auffindung der Umwandlungspunkte. Es zeigt sich, daß „der Polymorphismus** fester Körper sehr häufig vorkommt, besonders wenn das Beobachtungsgebiet noch in der Weise erweitert wird, daß man den Druck variiert. So fand Tammann, dem wir viele Untersuchungen auf diesem Ge-

156 7- L. Holborn : Umwandlungspunkte, Erscheinungen bei koexistierenden Phasen

biete verdanken, daß' das Eis außer dei- bekannten Form hoch zwei andere Modifikationen besitzt, von denen die eine dichter als Wasser ist. Gefrieren Eine besondere Betrachtung verdient das Gefrieren der Lösungen. Bei die-

""""■""^^'sen physikalischen Gemischen, die chemisch nicht einheitlich sind, beeinflußt der eine Bestandteil die Eigenschaften des andern. Dieses äußert sich zunächst darin, daß der Gefrierpunkt einer Lösung, z. B. einer wässrigen Salzlösung, tiefer liegt als der des Lösungsmittels, z. B. des Wassers, und zwar ist die Er- niedrigung des Gefrierpunktes, wie Blagden (1788) entdeckte, der gelösten Menge proportional. Nachdem etwa hundert Jahre später Rüdorf f auf das in Vergessenheit geratene Gesetz Von Blagden wieder aufmerksam gemacht hatte, fand Coppet, daß chemisch ähnliche Salze den Gefrierpunkt einer Lösung in demselben Maße herabsetzen, wenn sie in gleichen molekularen Mengen gelöst sind. Dieses Gesetz wurde von Raoult bestätigt, der sich nicht allein auf wässrige Lösungen beschränkte, sondern noch eine Anzahl organischer Flüssig- keiten als Lösungsmittel studierte. Eine Ausnahme von dem Gesetz bilden die wässrigen Lösungen der Elektrolyte, was Arrhenius durch die Dissoziation der gelösten Salze erklärte, bei welcher sich die Anzahl der Moleküle vermehren muß. Eine Theorie über das Gesetz der molekularen Gefrierpunktserniedrigung hat van t'Hoff gegeben; von den Apparaten für die Beobachtung dieser Er- scheinung sind besonders die von Beckmann konstruierten in Aufnahme ge- kommen. Sie dienen hauptsächlich zur Bestimmung des Molekulargewichts chemischer Verbindungen.

Zu den Lösungen können in mancher Beziehung auch die Legierungen, d. h. die homogenen Mischungen von Metallen, gezählt werden. Im allgemeinen erfahrt ein Metall A durch die Hinzuf üguhg einer kleinen Menge eines anderen B entsprechend der Gefrierpunktserniedrigung des Lösungsmittels durch den ge- lösten Stoff eine Erniedrigung seines Schmelzpunktes, die proportional der zu- gesetzten Menge ist. Dasselbe gilt für das Metall B als Lösungsmittel, wenn mit ihm kleine Mengen des Metalls A gemischt werden. Vergrößert man in jedem Falle die Menge des gelösten Körpers, so kann man sich von zwei Seiten einer Legierung mit dem niedrigsten Gefrierpunkt nähern, der noch unter dem nie- drigsten Erstarrungspunkt der Komponenten liegen muß. Beim Gefrieren einer solchen Legierung, die man als eutektische Mischung bezeichnet, hat der aus- scheidende feste Stoff immer dieselbe Zusammensetzung wie der flüssige; der Erstarrungspunkt ist also wie bei einem chemisch einheitlichen Körper kon- stant, solange noch der flüssige neben dem festen Zustande besteht. Eutektische Gemische bilden auch die Kryohydrate, Gemische eines Salzes mit Eis. Man kann sie sich dadurch hergestellt denken, daß man von einer Salzlösung irgend- einer Konzentration ausgeht, diese erstarren läßt, wobei sich zunächst reines Eis ausscheidet, bis die sich mit Salz anreichernde Lösung gesättigt ist und nun- mehr bei weiterer Temperaturerniedrigung eine Mischung von Salz und Eis fest wird.

Bei der Mischung zweier Stoffe von verschiedenem Schmelzpunkt wird auch der Fall beobachtet, daß sich der Schmelzpunkt der Mischung mit der

Verdampfen 137

Zusammensetzung, entsprechend der Mischungsregel ändert: es geschieht, dies bei der Vereinigung von isomorphen und chemisch ähnlichen Stoffen, z. B. bei den Legierungen von Edelmetallen.

Bringt man eine Flüssigkeit in einen evakuierten Raum, z. B. in die Tor- Dampf budung. ri cellische Leere des Barometers, so beobachtet man einen von der Flüssig- keit ausgeübten Druck, der unabhängig ist von ihrer Menge und allein durch ihre Temperatur bestimmt wird. Er rührt her von Teilen der Flüssigkeit, die sich von ihr losgelöst haben und als Dampf das Vakuum füllen. Verkleinert man das von dem Dampfe eingenommene Volumen, so wird er teilweise wieder zu Flüssigkeit kondensiert, während sich der Druck des Restes nicht ändert. Ein derartiger Dampf, der stets in Berührung mit einer Flüssigkeit steht und keinen höheren Druck ausüben kann, ohne kondensiert zu werden, wird als ge- sättigter Dampf bezeichnet und der von ihm ausgeübte Drück als Sättigungs- druck. .

In einem mit Luft gefüllten Räume erreicht der Sättigungsdruck densel- ben Wert wie im Vakuum; nur dauert es länger, bis sich die zum Gleichgewicht notwendige Dampfmenge gebildet hat. Dieses Gesetz ist ebenso wie das über den Gesamtdruck von Gasgemischen zuerst von Dalton geprüft worden. Spätere Beobachter, u. a. Regnaul t, haben schon bei kleinen Drucken der Luft geringe Abweichungen von dem Gesetz gefunden: der Sättigungsdruck des Dampfes war in der Luft etwas kleiner als im Vakuum. Die Ursache liegt wohl in dem hygroskopischen Verhalten der Wände, das die Kondensation der Dämpfe begünstigt. Außerdem neigen die Dämpfe zur Obersättigung in einem staubfreien Räume. In Gasen von hohem Druck richtet sich der Sättigungs- druck keineswegs nach dem Dal ton sehen Gesetz; in diesem Falle wurde eine starke Zunahme des Sättigungsdrucks beobachtet.

Befindet sich die freie Oberfläche einer Flüssigkeit an der Atmosphäre, Hygrometne. so kann sich der Dampf unbegrenzt ausbreiten, und es steigt so lange neuer Dampf von der Flüssigkeit auf, bis diese „verdunstet** ist. In dieser Weise be- steht in der Atmosphäre ein stetiger Kreislauf von Wasserdampf, der von den Meeren und Flüssen aufsteigt und als Regen oder Schnee zur Erde zurückkehrt. Große Teile des Luftmeeres sind also im allgemeinen mit Wasserdampf nicht gesättigt. Ihren Feuchtigkeitsgehalt drückt man aus durch sein Verhältnis zu dem bei der gegebenen Temperatur überhaupt möglichen, nämlich dem im Sättigungszustande bestehenden, und bezeichnet dieses Verhältnis als relative Feuchtigkeit. Das eine Glied des Verhältnisses, den in der Luft im allgemeinen nicht gesättigten Wasserdampf, bestimmt man durch seinen „Taupunkt**, d. h. durch diejenige Temperatur, bei der sich der vorhandene Dampf im Sättigungs- zustande befindet. Zu diesem Zweck kühlt man einen Körper, am besten einen solchen mit blanker metallischer Oberfläche, so weit unter die Lufttemperatur ab, daß sich der Wasserdampf auf ihn als Tau oder Reif niederschlägt. Auf die- sem Verfahren, das zuerst von Le Roy (l 771) vorgeschlagen wurde, fußt das Hygrometer von Daniell (1827), das mehrfach verbessert die Grundlage für die Gebrauchshygrometer bildet. Als solche dienen meistens die von Saus-

I^S L* Holborn: Umwandlungspunkte, Erscheinungen bei koexistierenden Phasen

sure zuerst angegebenen Haarhygrometer, die auf der Ausdehnung beruhen, welche ein entfettetes Menschenhaar unter dem Einflüsse der Feuchtigkeit erfährt.

Ein anderes Verfahren zur Bestimmung des Feuchtigkeitsgehalts der Atmo- sphäre beruht darauf, daß ein mit Wasser benetzter Körper infolge der Verdun- stung, die in der freien Luft an seiner Oberfläche stattfindet, abgekühlt wird, und zwar um so stärker, je trockener die Luft ist. Denn in der mit Wasserdampf ge- sättigten Atmosphäre kann nichts mehr verdunsten. Den Grad der Verdunstung beobachtet man nach dem Vorgang von August (1848) mit dem Psychrometer, das aus zwei nebeneinander aufgehängten Quecksilberthermometern besteht, von denen das eine trocken, das andere mittels eines in Wasser tauchenden Ge- webestückes feucht gehalten wird. Aus der Temperaturdifferenz der beiden Instrumente läßt sich der Feuchtigkeitsgehalt der Atmosphäre berechnen. Von Einfluß auf die Erscheinung ist noch der Bewegungszustand der Luft. Um in dieser Beziehung stets dieselben Bedingungen zu erhalten, umgab mann (1892) die Thermometerkugeln mit einem doppelten polierten Metallrohr, das zugleich als Strahlungsschutz wirkte, und saugte mittels eines kleinen Venti- lators einen Luftstromvonbestimmter Geschwindigkeit durch dasRohr hindurch. Sieden. Erreicht der Sättigungsdruck bei der Steigerung der Temperatur den Druck der Atmosphäre, so bildet sich der Dampf nicht allein an der Oberfläche der Flüssigkeit, sondern es entstehen auch Dampfblasen im Innern und steigen unter Überwindung des Flüssigkeitsdrucks an die Oberfläche. Alle zugeführte Wärme wird jetzt auf die Bildung des Dampfes verwendet; die Temperatur der Flüssigkeit bleibt konstant. Man bezeichnet sie als Siedepunkt schlechthin, wenn der Druck dem normalen Luftdruck von 760 mm Quecksilber gleich- kommt. Die zur Verdampfung von i g Flüssigkeit aufzuwendende Wärme- menge heißt die latente Verdampfungswärme; sie wird zurückgewonnen, wenn man den Dampf durch Abkühlung unter den Siedepunkt kondensiert.

Vergrößert man den Druck, unter dem eine Flüssigkeit siedet, indbm man das Flüssigkeitsgefäß von der Atmosphäre abschließt und z. B. an einen Raum mit komprimierter Luft („künstliche Atmosphäre") anlegt, so steigt der Siede- punkt, und umgekehrt fällt er bei Erniedrigung des Druckes. Diese Erscheinung ist schon merklich bei Änderungen, wie sie 'der Luftdruck aufweist; einer Schwankung des Barometerstandes um i mm Quecksilber entspricht z. B. eine Änderung des Siedepunktes vom Wasser um 0,04^. Hierauf beruht die Messung der Berghöhen mit dem Hypsometer, einem kleinen mit einem Thermometer versehenen Siedegefäß, mit dem man den Siedepunkt des Wassers bestimmt, um auf die Abnahme des Luftdrucks und damit auf die Höhe des Beobach- tungsortes über dem Meere zu schließen. Da der Barometerstand nicht allein von dem Luftdruck, sondern auch von der an einem Orte herrschenden Schwerkraft abhängig ist, so kann man bei gleichzeitiger Beobachtung von Ba- rometer und Hypsometer die Änderungen der Schwerkraft an der Erdober- fläche bestimmen. Das Verfahren ist einer großen Empfindlichkeit fähig und konnte neuerdings von Heck er auf Bestimmungen auf dem Meere ausgedehnt

Sieden l 5q

werden, wo Pendelbeobachtungen wegen der unvermeidlichen Schiffsschwan- kungen verss^en.

Die Temperatur einer siedenden Flüssigkeit ist meistens etwas höher als die des entweichenden Dampfes. Dieser Unterschied hängt von dem Material des Siedegefäßes und der Reinheit der Flüssigkeit ab und ist größer bei einem Siedegefäß aus Glas als bei einem solchen aus Metall. Eine Bedeutung hat namentlich auch die in der Flüssigkeit gelöste Luft. Wasser, das von aller Luft befreit ist, läßt sich weit über den Siedepunkt erhitzen, ohne daß die Erschei- nung des Siedens auftritt. Zur Störung dieses überhitzten Zustandes genügt jedoch ein Luftbläschen: in das Wasser gebracht, ruft es eine explosionsartige Dampfbildung hervor. Auch durch Einführen von Metallschnitzeln lassen sich Siedeverzüge vermeiden. Die Temperatur des entweichenden Dampfes erfährt keine solche Änderungen.

Die Abhängigkeit des Sättigungsdrucks von der Temperatur ist für zahl- Sättigongsdrack reiche Flüssigkeiten von vielen Beobachtern bestimmt worden. Die verschie- «»p«»*". denen Versuchsanordnungen lassen sich auf zwei Formen zurückführen: bei der einen wird der Druck gemessen, den die in der Tor ri cellischen Leere verdampfende Flüssigkeit auf eine Quecksilbersäule ausübt, deren Höhe dem Druck des Dampfes das Gleichgewicht hält. Weil dieser in Ruhe bleibt, be- zeichnet man das Verfahren als das statische. Bei der dynamischen Methode bringt man die Flüssigkeit bei verschiedenen Temperaturen zum Sieden unter Variation der zu messenden Drucke. Regnault hat nachgewiesen, daß beide Verfahren zu demselben Ergebnis führen, und daß Unterschiede, die dabei auf- treten, durch Verunreinigungen der Flüssigkeiten verursacht werden, wodurch namentlich das statische Verfahren stark beeinflußt wird.

Den Zusammenhang zwischen Sättigungsdruck und Temperatur hat man durch mathematische Formeln darzustellen versucht. Doch ist bisher keine ge- funden, die die Gesetzmäßigkeit der Erscheinung bei verschiedenen Flüssig- keiten mit der den Beobachtungen zukommenden Genauigkeit darstellt. Selbst bei ein und derselben Flüssigkeit reichen die meisten Formeln nur über ein kleines Temperaturgebie't, so daß man sich darauf beschränken muß, den be- obachteten Zusammenhang in Tabellen anzugeben.

Der Sättigungsdruck einer Flüssigkeit ändert sich, wenn in dieser ein Kör- Dampfdruck per gelöst wird, z. B. ein Salz, das keinen Dampf entwickelt. Diese Tatsache ''°" lö»'»««"- war schon Faraday bekannt; infolge der Einführung des Salzes steigt der Sie- depunkt der Flüssigkeit, und ihr Sättigungsdruck nimmt dementsprechend ab. V. Babo stellte das Gesetz auf, daß die relative Erniedrigung des Sättigungs- drucks für dieselbe Salzlösung für alle Temperaturen gleich ist. Diese Regel ist jedoch später auf Lösungen von einem solchen Verdünnungsgrade beschränkt worden, daß bei ihrer größeren Verdünnung keine Wärmewirkung mehr entsteht. Wüllnerkam zu dem Ergebnis, daß die relative Erniedrigung für verschiedene verdünnte Lösungen desselben Stoffes der Menge des gelösten Körpers proportional ist, und Ostwald wies zuerst darauf hin, daß für die Lösungen verschiedener Stoffe die molekularen Erniedrigungen, d. h. solche,

l6o 7* L. HOLBORN: Umwandlungspunkte, Erscheinungen bei koexistierenden Phasen

die der gleichen Anzähl von Molekülen des gelösten Körpers entsprechen, nahezu dieselben sind.

Eine voUkommenie Klärung dier vorliegenden Frage brachten die Unter- suchungen von Raoult (1886), der als Lösungsmittel nicht allein Wasser, son- dern auch Äther, Benzol, Chloroform usw. wählte und darin nicht Elektrolyte, sondern organische Stoffe löste. Außer dem Baboschen Gesetz bestätigte er für verdünnte Lösungen den Satz, daß die relative molekuliire Erniedrigung, die ein gelöstes Salz hervorruft, für alle Lösungsmittel von der Konzentration un- abhängig ist. Ferner erzeugen verschiedene Salze in verschiedenen Lösungsmit- teln dieselbe relative Dampf druckerniedrigung, wenn die Anzahl der Moleküle des gelösten Stoffes zu der des Lösungsmittels in demselben Verhältnis steht. Auf wässrige Salzlösungen sind diese Gesetze nicht anwendbar, da hier der gelöste Körper mehr oder weniger dissoziiert, wodurch die Zahl der Moleküle verändert wird; Man kann bei solchen Lösungen den Dissoziationsgrad der Elektrolyten aus der Dampfdruckerniedrigung bestimmen. Statt dieser pflegt man jedoch meist die Erhöhung des Siedepunktes einer Lösung über den des reinen Lösungsmittels zu ermitteln, da eine solche Messung ungleich bequemer ist. In dieser Form ist auch der Chemiker gewohnt, das Molekulargewicht eines Körpers zu bestim- men, wenn er davon Gebrauch macht, daß die Änderungen des Sättigungs- drucks von Lösungen von deren. molekularer Konzentration abhängen. Da die Siedetemperaturen von Lösungen aber nicht in deren Dampfe gemessen werden können, weil dieser nach dem Austritt aus der Flüssigkeit nicht deren Tempera- tur beibehält, so muß man das Thermometer in die siedende Flüssigkeit ein- führen. Die Bestimmung leidet deshalb an der Unbestimmtheit, die mit Siede- punktsmessungen in der Flüssigkeit selbst verbunden ist. Man macht sich hiervon frei, indem neben der Siedetemperatur der Lösung die des reinen Lösungsmittels unter gleichen Verhältnissen ermittelt wird, was für den vorliegenden Zweck, wo es nur auf die relative Siedepunktserhöhung ankommt, ausreichend ist. verdampfungs- Die Verdampf ungswärme wird nach zwei Methoden bestimmt. Bei der einen

leitet man die Dämpfe der siedenden Flüssigkeit in ein Kalorimeter, läßt sie dort kondensieren und führt jenem Apparate damit eine Wärmemenge zu, die dem Produkt aus der Verdampfungswärme und der eingeleiteten Dampfmenge pro- portional ist. Im zweiten Falle kann man die siedende Flüssigkeit in das Kalori- meter bringen und dessen Abkühlung bestimmen, die infolge, der Verdampfung eintritt. Diesen Vorgang kann man auch ohne eine Temperaturänderung des Kalorimeters in der Weise leiten, daß dem Kalorimeter gleichzeitig eine Wärme- menge, z. B. auf elektrischem Wege, zugeführt wird. Die ersten exakten Mes- sungen, aus denen mit einiger Sicherheit auf den Verlauf der Verdampfungs- wärme bei einem Wechsel der Siedetemperatur geschlossen werden kann, sind von Regnault angestellt worden, der namentlich die Verdampfungswärme des Wassers über ein Temperaturbereich von 200® verfolgte. Diese Beobach- tungen widerlegten das von Watt aufgestellte Gesetz, nach dem die Verdamp- fungswärme des Wassers von der Siedetemperatur unabhängig sein sollte, und lieferten für die Berechnung der Vorgänge in der Dampfmaschine brauchbare

warme.

Gesättigter Dampf l6l

Werte, die sich allerdings nach der Wiederaufnahnje der Versuche von Seiten späterer Forscher (Dieterici, Henning) auch noch als verbesserungsfähig erwiesen haben. Eine allgemeine Beziehung für die Abnahme der Verdampfungs- wärme mit der Temperatur hat sich bis j etzt nicht ergeben. Doch fand T r o u t o n (1884) eine Regel für die Abhängigkeit der Verdampfungswärme von dem Stoff: Bezieht man diese nämlich auf die Masse des Molekulargewichts und auf gleichen Druck, so folgt, daß der Quotient aus molekularer Verdampfungs- wärme und absoluter Temperatur des Siedepunkts für viele Stoffe annähernd gleich ist. Dieses Gesetz weist jedoch viele Ausnahmen auf, die man auf die Änderung der Molekulargröße bei dem Übergang vom flüssigen in den dampf- förmigen Zustand schiebt.

Kennt man für eine bestimmte Temperatur die Verdampfungswärme und Spoxifi«che« vo- den Zuwachs, den der Sättigungsdruck bei der Änderung der Temperatur um Dimpfe. I ^ erfährt, so läßt sich aus diesen beiden Daten nach einer allgemeingültigen thermodynamischen Formel von Clapeyron die Zunahme des Volumens be- rechnen, die bei der Verwandlung der Flüssigkeit in gesättigten Dampf ein- tritt. Da die spezifischen Volumina der Flüssigkeit leicht zu bestimmen sind, so erhält man auf diese Weise auch die spezifischen Volumina der zugehörigen Dämpfe oder ihren reziproken Wert, die spezifische Dichte. Es ist natürlich auch der Wunsch entstanden, das spezifische Volumen eines gesättigten Damp- fes auf dem Wege des Versuchs zu bestimmen und somit die Clapeyronsche Beziehung an der Erfahrung zu prüfen. Es sei hier deshalb das von Fairbain und Täte (1861) stammende Prinzip angegeben, das diesen Versuchen vielfach zugrunde liegt. Man denke sich zwei gleiche Gefäße, die durch eine mit Queck- silber gefüllte Röhre miteinander verbunden und mit ungleichen Mengen der zu untersuchenden Flüssigkeit beschickt sind. Wird diese Anordnung in einem gleichmäßig temperierten Flüssigkeitsbade erhitzt, so stellt sich zunächst in jedem Gefäß derselbe Druck her, und dieser Zustand dauert so lange, wie noch Flüssigkeit in beiden Gefäßen vorhanden ist. Ist diese aber auf der einen Seite vollständig in Dampf verwandelt, so wird der Druck auf der anderen Seite, wo die Verdampfung noch weiter geht, das Übergewicht bekommen, was an der Verschiebung der Quecksilberkuppen erkannt wird. Bei allmählicher Stei- gerung der Wärmezufuhr ergibt sich also diejenige Temperatur, bei der die kleinere Flüssigkeitsmenge vollständig in gesättigten Dampf verwandelt ist; bestimmt man ihre Masse und das Volumen des Gefäßes, so erhält man das spezifische Volumen des gesättigten Dampfes. Bei Wasser, für das die genaue- sten Beobachtungen vorliegen, ist auf diese Weise die Gültigkeit der Clapey- ronschen Beziehung mit aller Schärfe nachgewiesen, deren die moderne Be- obachtungskunst fähig ist.

Die Theorie, der man im vorliegenden Falle die wertvolle Verknüpfung ge- sättigimgtdrudc trennter Eigenschaften verdankt, hat in einem anderen auf einen Unterschied '••**' ^^'p*^- zweier Erscheinungen hingewiesen, an dem der Versuch achtlos vorübergegan- gen war. Eis betrifft dieses den Sättigungsdruck eines Stoffes, der bei derselben Temperatur in zwei Zuständen bestehen kann, in einem festen und einem flüssi-

K. d. G. IIL m, Bd I Physik 1 1

l62 7* L* Holborn: Umwandlungspunkte, Erscheinungen bei koexistierenden Phasen

gen, z. B. als Eis oder unterkühltes Wasser. Gehen wir von dem Eispunkt, wo Wasser und Eis im Gleichgewicht stehen, und von dem dort gültigen Wert des Sättigungsdrucks nach abwärts, so unterscheiden sich die Werte für Wasser und Eis. Der Unterschied erreicht in der Nähe von 1 1 ® ein Maximum, das 0,20 mm Quecksilber beträgt, ist also im ganzen gering und wurde erst neuer- dings sicher durch die Beobachtung festgestellt, die den Sättigungsdruck über Eis bis 70® verfolgte, wo er nur noch 0,001 mm beträgt. Sublimation. Nicht allein Eis, sondern auch andere feste Körper können einen meßbaren

Druck -i^

Gesättigter und Qberhltxter Dampf.

Dampfdruck besitzen, der sich vielfach schon durch den Geruch kundgibt. Sie gehen deshalb zuweilen in den dampfförmigen Zustand über, ohne dazwischen flüssig zu werden: sie subli- mieren. Bei hohen .Temperaturen zeigen fast alle festen Körper, namentlich die Metalle, diese Er- scheinung, indem sich Dampf von den erhitzten Teilen loslöst und an den kälteren Stellen nieder- schlägt. Der Vorgang wird sehr beschleunigt, wenn man den Druck herabsetzt. Beim Schmelz- punkt ist die Sublimationswärme gleich der Summe von Schmelzwärme und Verdampf ungs- wärme.

Wir haben gesehen, daß ein Dampf solange denselben Druck bei einer unveränderlichen Tem- peratur besitzt, als er in Berührung mit Flüssig- keit steht. Ist diese aber vollständig in Dampf verwandelt, so wird der Druck bei der Vergrößerung des Volumens kleiner, er nähert sich dem Gaszustande, und zwar um so mehr, je weiter wir uns vom Sättigungsdruck entfernen. Solche Dämpfe heißen ungesättigte oder überhitzte. Denkt man sich in der Zeichen- ebene horizontal die Temperatur und vertikal den Druck für Wasserdampf auf- getragen, so wird der Sättigungsdruck einer Flüssigkeit durch die Kurve .^5 der Figur (Fig. i), die Sättigungslinie, dargestellt, aus der man für jede Temperatur den zugehörigen Sättigungsdruck entnehmen kann. Alle Punkte unterhalb der Kurve, z. B. Af, gehören dem ungesättigten Dampf zustande an; wird der Druck von M aus gesteigert, etwa durch Verminderung des Volumens, so bewegt sich der Punkt auf der Senkrechten MN^ einer Isotherme (Linie gleicher Tempera- tur), nach JV, wo der Sättigungszustand erreicht wird. Der Druck ändert sich nun bei weiterer Verminderung des Volumens nicht früher, als bis aller Dampf kondensiert und eine Kompression der Flüssigkeit eintritt, deren Gebiet ober- halb der Kurve liegt.

Ähnliche Betrachtungen gelten für die Bewegung auf der Linie MP^ einer Isobare (Linie gleichen Drucks), auf der man unter Abkühlung auf die Sättigungslinie gelangt. Die Figur stellt also für uns das Gebiet dar, in dem ein Stoff als Flüssigkeit und als Dampf besteht.

Wir wollen nun noch einen Schritt weiter gehen und auch den festen Zustand

überhitzter Dampf 153

mit in Betracht ziehen. Nehmen wir als Beispiel das Wasser; es geht bei Atmo- sphärendruck bei o ® in Eis über und mit der Zunahme des Drucks um i Atm. sinkt der Schmelzpunkt um 0,0075 ®. Wird auch noch die Übergangskurve zwi- schen festem und flüssigem Zustand, die Schmelzkurve, in die Darstellung auf- genommen, so erhält man die nächste Figur (Fig. 2), wo die Zeichenebene in drei Gebiete geteilt ist, von denen je zwei durch eine Linie getrennt sind. Auf jeder dieser Linien ist das Wasser in zwei Zuständen oder nach G i b b s scher Ausdrucks- weise in zwei Phasen im Gleichgewicht: auf der Linie ^5, der Sättigungskurve, in flüssiger und dampfförmiger, auf AC^ der Schmelzkurve, in fester und flüssiger und auf AD, der Sublimationskurve, in fester und dampfförmiger. Alle drei Linien haben einen Punkt A gemeinsam, in dem drei Phasen beständig sind; dieser dreifache oder Tripelpunkt liegt etwas über dem Eispunkt bei 0,0076^ und bei einem Druck pQ = 4,6 mm Quecksilber. Es läßt sich nun noch eine vierte Kurve Ad einzeichnen. Sie verläuft Druck als Fortsetzung der Sättigungshnie und ] stellt das labile Gleichgewicht zwischen Dampf und unterkühltem Wasser dar.

Erwärmt man das Wasser unter öinem konstanten Druck, der größer als pQ ist, etwa indem man auf der Linie mn fortschreitet, so gelangt man von der festen Phase im Punkt r zur flüssigen und weiterhin im Punkte 5 zur dampf- ^»«•«- Temperatur >•

förmigen. Hält man aber den Druck konstant auf einem Werte, der kleiner ist als />o, indem man sich etwa längs der Linie ae bewegt, so kommt man un- mittelbar von der festen Phase im Punkte i in die dampfförmige. Bei diesem Druck kann also der Vorgang des Schmelzens gar nicht auftreten. Ein Beispiel für einen Körper, bei dem der Tripelpunkt wesentlich bei höherem Druck liegt als bei Wasser, bildet die Kohlensäure: in ihrem Tripelpunkt beträgt der Druck 5 Atm. An der offenen Atmosphäre ist die flüssige Phase nicht möglich und die feste Kohlensäure Verdampft bei Atmosphärendruck, ohne zu schmelzen«

Die Betrachtung wird verwickelter, wenn ein Stoff in mehr als drei Phasen existiert, wenn also z. B. beim Wasser noch die verschiedenen bekannten Zu- stände des Eises hinzugezogen werden, oder wenn z. B. der Schwefel untersucht wird, der ebenfalls in mehreren festen Phasen besteht. Doch soll hier nicht weiter darauf eingegangen werden, da die Untersuchung koexistierender Pha- sen, die ihre größte Fruchtbarkeit entfaltet, wenn sie auf die Gleichgewichte verschiedener Stoffe angewendet wird, in das Gebiet der Chemie gehört.

Die Untersuchung der Dichte überhitzter Dämpfe gleicht in den meisten Dampfdichte. Beziehungen den bei den Gasen betrachteten Methoden; diese erfahren nur eine Abänderung dadurch, daß die Dämpfe vielfach erst in höherer Tempera- tur entstehen, die für Gase ausgebildeten Beobachtungsverfahren aber oft an die Zimmertemperatur gebunden sind. Für die Bestimmung der Dichte ent- wickelt man den Dampf nach dem Vorgang von Dumas (1827) in einem ge-

II»

ck

t

C

fff

\^ Wasur

r

rrw

Eis

^^>

"••"•«

a

4.-»

^r Dcmpf

^

- - - -^

D^

164 7* L. Holborn: Umwandlungspimkte, Erscheinungen bei koexistierenden Phasen

wogenen Glaskolben, in dem eine kleine Flüssigkeitsmenge in einem Bade von gleichmäßiger Temperatur hinreichend hoch über den Siedepunkt erhitzt wird. Der überschüssige Dampf entweicht aus einer feinen Spitze, die nach dem Ein- treten des Gleichgewichts zugeschmolzen wird. Die Wägung des mit Dampf und darauf mit Wasser gefüllten Kolbens ergibt die Masse und das Volumen des Dampfes, woraus unter Berücksichtigung der bei dem Zuschmelzen beobach- teten Temperatur und des Barometerstandes die gewöhnlich auf Luft bezogene . Dampfdichte folgt.

Bei demHofmannschen Apparat (1868), der eine Verbesserung einer von Gay-Lussac angegebenen Einrichtung bildet, wird eine bekannte Menge der zu verdampfenden Flüssigkeit in einer kleinen, mit Wachs verschlossenen Glas- kugel in die Tori cellische Leere eines Barometers gebracht, das mit einem Heizmantel umgeben ist, dessen Temperatur durch die Dämpfe einer siedenden Flüssigkeit auf einer konstanten gewünschten Höhe erhalten werden kann. Das Barometerrohr ist mit Hilfe einer aufgetragenen Teilung kalibriert, an der das Volumen des überhitzten Dampfes abzulesen ist, während sich der an ihm ausgeübte Druck aus der Höhe ergibt, um welche die Quecksilberkuppe des Barometers durch das Einbringen des Dampfes gefallen ist.

Die größte Verwendungsmöglichkeit gewährt das Verdrängungsverfahren von Viktor Meyer (1876). Er benutzt ein birnenförmiges Gefäß aus Glas oder Porzellan, dessen langer Stiel aus dem Temperaturbade herausragt und an seinem Ende ein seitliches Ansatzrohr trägt. Zunächst ist das Gefäß mit Luft gefüllt. Ist die Temperatur stationär geworden, so wird durch den Hals eine abgewo- gene Menge des zu verdampfenden Stoffes in einem Glasröhrchen fallen ge- lassen und die Öffnung schnell verschlossen. Der Dampf verdrängt alsdann eine ihm an Volumen gleiche Luftmenge, die in einem Meßzylinder über einer Sperrflüssigkeit bei Zimmertemperatur aufgefangen und gemessen wird. Auf diese Weise ermittelt man das Gewicht der Luft, das unter denselben Bedin- gungen des Druckes und der Temperatur in der Birne dasselbe Volumen ein- nimmt, wie das bekannte Gewicht des Stoffes. Das Verhältnis dieser Gewichte stellt ohne weiteres die Dampfdichte dar. Die Temperatür der Birne braucht hierbei nicht bekannt zu sein, läßt sich aber mit demselben Apparat bestimmen, wenn man ihn als Luftthermometer benutzt und alle Luft auffängt, die wäh- rend seiner Erwärmung austritt. Mit steigender Temperatur wird diese Mes- sung allerdings immer unempfindlicher. Denn die Luft in der Birne wird immer dünner, und es tritt infolgedessen immer weniger davon bei einer Temperatur- erhöhung um dasselbe Intervall aus. Mit einigen Abänderungen der Birne läßt sich }edoch auch erreichen, daß man die in ihr zurückgebliebene Luft bestimmt, indem man sie mittels eines Gases verdrängt, das selbst von der Sperrflüssig- keit des Meßzylinder^ absorbiert wird (z. B. Salzsäure in Wasser oder Kohlen- säure in Kalilauge). Die Verdrängungsmethode ist unter Benutzung von Birnen aus Porzellan, Platin und Iridium bis zu sehr hohen Temperaturen ver- wendet worden. Avogadros Beschränkt man sich bei der Bestimmung von Dampfdichten auf das

RegeL

überhitzter Dampf 165

Gebiet in der Nähe des Atmosphärendrucks, so ist das Ergebnis von der Be- obachtungstemperatur fast unabhängig, wenn man sich der Sättigungstempe- ratur nicht zu sehr nähert. Nun hat Avogadro (181 1), geleitet durch die Wahr- nehmung, daß die chemischen Verbindungen der Gase und überhitzten Dämpfe stets nach einfachen Verhältnissen ihrer Volumina erfolgen, den Satz aufge- stellt, daß alle Gase und überhitzten Dämpfe unter gleichem Druck und bei gleicher Temperatur dieselbe Anzahl von Molekülen aufweisen. Hieraus folgt, daß sich die Molekulargewichte wie die Dampf dichten verhalten. Betrachtet man also die Masse eines Grammoleküls oder ein Mol, d. h. die Anzahl Gramm, die das Mole- kulargewicht angibt (z.B. 2g Wasserstoff, 16 g Sauerstoff, 18 g Wasserdampf), so ist das Volumen eines Mols im Gaszustande für alle Stoffe bei demselben Druck und derselben Temperatur gleich, und zwar beträgt es 22,400 ccm für den Druck der normalen Atmosphäre und die Temperatur von o ®. Ferner ergibt die Rechnung, daß das Molekulargewicht gleich dem 29 fachen der Dampf dichte ist, wenn man diese auf Luft bezieht. Streng genommen gelten diese Beziehun- gen nur für den idealen Gaszustand, also für sehr kleine Drucke, auf welche die Bestimmungen unter Berücksichtigung der Abweichungen vom Mario tte- Gay-Lussac sehen Gesetz vonLeduc(i 897) zuerst zurückgeführt worden sind«

Für alle Körper, die sich in den dampfförmigen Zustand überführen lassen MoiekoUr- und dieses ist bei hinreichender Steigerung der Temperatur heute sogar für ^•^***- schwer flüchtige Metalle gelungen , besitzen wir in der Bestimmung der Dampfdichte ein Mittel zur Messung des Molekulargewichts. Bei diesen Unter- suchungen erhielt man jedoch oft abnorme Werte, die mit den aus anderweitigen Beziehungen bekannten Werten des Molekulargewichts nicht in Einklang stan- den. Wollte man diese Ergebnisse mit der Avogadro sehen Regel vereinigen, so mußte man zu der Vorstellung gelangen, daß diese Ausnahmen durch einen Zerfall der Moleküle bewirkt werden, den man als Dissoziation bezeichnete. Die Erscheinung, die mit der Ausdehnung der Versuche auf immer höhere Tem- peraturen häufiger beobachtet wurde, ist nicht allein auf die Verbindungen be- schränkt, sondern zeigt sich auch bei den Elementen, z. B. bei Jod und Schwe- fel. Der Zerfall ist nicht' immer vollständig, aber der Dissoziationsgrad ist in bestimmter Weise von Druck und Temperatur abhängig, wird aber nicht beein- flußt durch die Gegenwart indifferenter Gase.

Die spezifische Wärme ungesättigter Dämpfe wurde zuerst von Regnault speäfiache (1862) bestimmt. Er benutzte hierfür das Kalorimeter, das für die Untersuchung überUteter von Gasen diente und das sich auf Zimmertemperatur befand. In dieses leitete er i>ä^pf«- die heißen Dämpfe^ ließ sie dort kondensieren und maß auf diese Weise nicht allein ihre Wärmekapazität, sondern diese vermehrt um die latente Verdamp- fungswärme. Hierin liegt ein Mangel, da die Verdampfungswärme bedeutend die Dampf wärme übertrifft. E. Wiedemann (1876) verbesserte das Verfahren, indem er den Druck des Dampfes verringerte, so daß er erst nach seinem Austritt aus dem Kalorimeter kondensierte. Leider ist dieser Kunstgriff bei den Dämp- fen höher siedender Flüssigkeiten nicht anwendbar. Holborn und Henning (1905) verfuhren bei der Messung des Wasserdampfes deshalb in der Weise, daß

i66 7- L. Holborn: Umwandlungspunkte, Erscheinungen bei koexistierenden Phasen

sie die Temperatur des Kalorimeters derart wählten, daß sie über der Sättigungs- temperatur lag. Alsdann bleibt der Dampf ohne Druckerniedrigung nach seinem Austritt aus dem Kalorimeter noch überhitzt und kann in einem besonderen Gefäß kondensiert werden, an das die Verdampfungswärme abgegeben wird, ohne daß sie die Messung der Dampfwärme im Kalorimeter beeinflußt. Um- fassende Beobachtungen über den Zusammenhang der spezifischen Wärme, der Temperatur und des Drucks liegen allein für den Wasserdampf vor, der ein be- sonderes Interesse als Wärmeträger der Dampfmaschine und eines der Verbren- nungsprodukte von Explosionsmotoren beansprucht. Die spezifische Wärme nimmt mit der Temperatur und dem Druck zu, und zwar derart, daß die Zu- nahme bei niedrigen Drucken größer ist als bei hohen. Dieses Verhalten gilt ' jedoch nur für den hinreichend überhitzten Zustand, in der Nähe der Sätti- gungstemperatur wurde zunächst eine geringe Abnahme der spezifischen Wärme beobachtet. KoDdensarioa Au der Hand der Fig. l (S. 162) ist gezeigt worden, wie überhitzter Dampf "** einerseits durch Abkühlung, anderseits durch Druckerhöhung in gesättigten übergeführt und verflüssigt werden kann. Da nun die überhitzten Dämpfe in ihren Eigenschaften den Gasen nahestehen, so lag der Gedanke nicht fern, die Stoffe, die bei dem normalen Verhältnisse von Temperatur und Druck als Gase bekannt waren, durch Kompression oder Abkühlung in den flüssigen Zustand überzuführen. Faraday, dem anfangs (1823) zur Abkühlung nur die Kälte- mischungen aus Eis und Kochsalz zur Verfügung standen, mit denen sich Tem- peraturen bis 32 ® erreichen lassen, erzeugte hohe Drucke für die zu verflüssi- genden Gase dadurch, daß er die Stoffe, durch deren gegenseitige chemische Einwirkung diese Gase entstehen, in starkwandige Rohre einschloß. Indem er so den Entwicklungsdruck wirken ließ und das Rohr an einem Ende mit der Kältemischung umgab, gelang es ihm, eine große Reihe von Stoffen, die bis- her nur im gasförmigen Zustande bekannt waren, wie Chlor, Äthylen zu ver- flüssigen und andere, wie schweflige Säure, Schwefelwasserstoff, Chlorwasser- stoff, Cyan und Ammoniak sogar in den festen Zustand überzuführen. Nach- dem Thilorier in ähnlicher Weise die Kohlensäure verflüssigt und gefunden hatte, daß die flüssige Kohlensäure bei dem Ausströmen in die Atmosphäre fest wird und dann bei 78® sublimiert, verflüssigte Faraday später (1845) mit Hilfe dieses neuen Kältemittels, mit dem sich bei Verdampfung im luft- verdünnten Raum Temperaturen bis 100® erzeugen ließen, alle Gase bis auf Sauerstoff, Stickstoff, Wasserstoff, Kohlenoxyd, Stickoxyd und Sumpfgas, die man als permanent von den anderen unterschied. Diese zu verflüssigen, bemühte sich auch Natterer vergeblich, der sie mit einer neu konstruierten Druckpumpe bis auf 1000 Atm. komprimierte. Die Versuche waren damit auf diesem Gebiete auf einem toten Punkt angelangt, bis Beobachtungen von An- drews (i 869) den Zusammenhang zwischen dem flüssigen und dampfförmigen Zu- stand in ein neues Licht rückten und damit der Forschung neue Bahnen öffneten. KritMcho Andrews bestimmte das Volumen von gasförmiger und flüssiger Kohlen-

Temperatur, g^^j.^^ Und zwar änderte er den Druck, den er an einem Gasmanometer ablas,

Kritische Temperatur

167

bei konstant gehaltener Temperatur: er bewegte sich also auf einer Isotherme (Linie gleicher Temperatur). Indem er sechs solcher Isothermen zwischen den Temperaturen 13® und 48^ festlegte, gewann er eine Übersicht über die Zu- standsänderungen in diesem ganzen Temperaturbereich. Bei dem Ausgang von der gasförmigen Phase (rechts in der Fig. 3) erhält man bei den tiefen Tempe- raturen mit der Verkleinerung des Volumens eine Vermehrung des Drucks, bis mit dem Auftreten des ersten Flüssigkeits tropf ens die Sättigung erreicht ist; es bleibt nun der Druck bei weiterer Verkleinerung des Volumens konstant, bis aller Dampf verflüssigt ist die Isotherme verläuft also parallel der Abszissen- achse — und nun mit der Kompression der Flüssigkeit ein sehr schnelles Steigen des Drucks einsetzt. Die Isothermen bei höheren Temperaturen zeigen zu- nächst noch einen ähnlichen Verlauf, nur wird der horizontale Ast immer kür- zer, bis er zuletzt ganz verschwindet: es tritt gar kein flüssiger Zustand mehr auf, die Isotherme verläuft stetig von großen zu kleinen Volumina und nähert sich immer mehr einer glatten, hyperbelähnlichen Kurve. Diejenige Isotherme, bei der der horizontale geradlinige Teil aufhört, nannte Andrews die kritische und übertrug dieselbe Bezeichnung auch auf ihre Temperatur. Für Kohlen- säure bestimmte er sie zu 31®. Oberhalb dieser Temperatur ist es auch bei der Anwendung der größten Drucke unmöglich, das Gas zu verflüssigen. Der flüssige Zustand ist in der Figur durch die punktierte Linie begrenzt. Sie hat im höchsten Punkte mit der kritischen Isotherme eine parallel der Abszissenachse verlaufende Berührungslinie gemeinsam; die Koordinaten des höchsten Punktes

heißen kritischer Druck und kritisches Volumen.

In dem Lichte der neuen Anschauung, die Andrews über den Zusammenhang des flüssigen und gasförmigen Zustan- des gewonnen hatte, erlangten eine größere Bedeutung ^"''auch Versuche, die Cagniard de la Tour ein halbes Jahrhundert früher angestellt hatte. Er schloß Flüssig- keiten, wie Äther, Schwefelkohlenstoff, Alkohol oder Wasser in starkwandige Glasrohre ein, in denen sie die Hälfte des Raumes einnahmen, während die andere Hälfte nur von dem Dampfe der Flüssig- keit angefüllt wurde. Erwärmte er solche Rohre, so beobachtete er bei einer bestimmten Tem- peratur, daß die Flüssigkeit verschwand und Dampf das ganze Rohr füllte; bei der Abkühlung trat bei derselben Tem- peratur die Trennungsfläche zwischen Flüssigkeit und Dampf wieder her- vor, nachdem sich zuvor ein Nebel gebildet hatte, der alsdann in Trop- fen kondensierte. Das Verschwinden der Trennungsfläche zwischen Flüs- sig. 3. Volumen—^ sigkeit und Dampf entspricht den

l68 7- L- Holborn : Umwandlungspunkte, Erscheinungen bei koexistierenden Phasen

Erscheinungen der kritischen Temperatur, bei der jeder Unterschied zwischen dem flüssigen und dem dampfförmigen Zustande aufhört. In diesem Punkte sind die Dichtigkeiten beider Phasen gleich, und die latente Verdampfungswärme wird gleich Null, was von Mathias durch den Versuch für Kohlensäure bestätigt wurde, deren Verdampfungswärme von bis 30,8® von 56,2 auf 3,7 Kai. abfiel. Ferner verschwindet in dem kritischen Punkte die Oberflächenspannung und damit die Steighöhe von Flüssigkeiten in Kapillarröhren; die innere Rei- bung zeigt das dem Dampfe eigentümliche Verhalten. Kritische Die Kenntnis der kritischen Zustandsgrößen (Teniperatur, Druck und

OS tgr en. jjj^jj^^j j^^ y^^ großcr Bedeutuug; es erscheint deshalb geboten, auf die Ver- fahren zur Bestimmung dieser Größen einzugehen. Vielfach wird die Methode der Isothermen benutzt, die nach Andrews besonders Ramsay, Young und Amagat gebrauchten. Nadeshdin füllt die zu untersuchende Substanz in eine Röhre, die in der Mitte mit Schneiden versehen als Wagebalken in leerem Zustande ins Gleichgewicht gebracht wird. Nach der Füllung steht die Röhre in geneigter Lage, indem das den Dampf enthaltende Ende empor- schnellt. Wird der Apparat in einem Luftbade erwärmt, so* stellt sich der Wage- balken bei dem Eintritt der kritischen Temperatur horizontal ein, da jetzt der Unterschied in den Dichten von Flüssigkeit und Dampf verschwindet. Caille- tet und Colardeau, welche die kritische Temperatur des Wassers bestimm- ten, brachten dieses bei einer Reihe von Versuchen in verschiedenen Mengen in ein Stahlgefäß, so daß das von Dampf und Flüssigkeit eingenommene Vo- lumen stets dasselbe war. Es wurde für jede Menge die Abhängigkeit des Drucks von der Temperatur bestimmt, also die durch die Sättigungskurve dargestellte Beziehung, die unterhalb der kritischen Temperatur bei passender Wahl der Flüssigkeitsmengen von deren verschiedener Größe unabhängig sein muß. Die bei den verschiedenen Versuchen gewonnenen Sättigung^kurven decken sich also anfangs; erst im kritischen Punkt gehen sie auseinander, dessen Lage in- folgedessen durch den Verzweigungspunkt der Kurven gegeben ist. Während dieses Verfahren nur auf Stoffe anwendbar ist, die bei normalem Druck und normaler Temperatur flüssig sind, ging Wroblewski und später Olszewski bei Gasen, wie Wasserstoff, in folgender Weise vor, Sie komprimierten das Gas auf etwa 80 Atm. bei einer Temperatur, die ungefähr 10^ über dem zu er- wartenden kritischen Punkte lag, in einem Stahlgefäß und ließen es sich lang- sam adiabatisch, d. h. ohne Zufuhr von Wärme, entspannen, indem sie es aus einer kleinen Öffnung ausströmen ließen. Hierbei sinkt der Druck und die Tem- peratur, bis mit dem Auftreten von plötzlichem Sieden beide konstant auf den kritischen Werten stehen bleiben.

Am schwierigsten läßt sich das kritische Volumen messen. Für viele Stoffe gilt das von Mathias (1896) gefundene Gesetz der geraden Mittellinie, das eine genaue Bestimmung des kritischen Volumens gestattet. Bestimmt man nämlich für einen Stoff, etwa von dessen normalem Siedepunkt ausgehend, die reziproken Werte des spezifischen Volumens, also die spezifischen Dichten, von Flüssigkeit und Dampf für die Sättigungskurve, so erhält man mit der

Kritische Zustandsgrößen .169

Temperatur fortschreitend zwei Kurven CiC und AK, von denen sich die erste auf den gesättigten Dampf, die zweite auf die Flüssigkeit bezieht (Fig. 4). Zieht man die Mittellinie D^D2 zwischen diesen beiden Kurven, die sich im kritischen Punkt K treffen, so geht diese auch durch den kritischen Punkt, und der Schnittpunkt ihrer geradlinigen Verlängerung mit der kritischen Ordi- nate t/^ liefert die kritische Dichte.

Endlich bietet noch die Beobachtung des Verschwindens der Trennungs- fläche von Flüssigkeit und Dampf nach demVorgang von Cagniard delaTour Dichte ein Mittel zur Bestimmung von kritischer Dichte und kritischer Tempera- ^ tur. Diese Meniskusmethode ist unter Anwendung von feineren optischen

Hilfsmitteln nach verschiedenen Richtungen entwickelt worden, i^,^>. Die Ergebnisse sind aber von mancher Seite in Zweifel ge- r"^^ zogen, die sich darauf gründen, daß die Röhre nach ^[d, \ dem Verschwinden der Trennungsfläche keineswegs j 'yr durchweg mit einem homogenen Stoffe angefüllt ist, sondern auf ihrer ganzen Länge große Dichtigkeits- -> / unterschiede des Inhalts aufweist. Diese Erschei- ^^^' *• ^A nung erklärt sich indessen z.T. aus der Wirkung der

Schwerkraft und der langsamen Diffusion, z. T. auch aus Unreinheiten der Stoffe, die einen besonders großen Einfluß auf die kritischen Zustandsgrößen ausüben. Die kritische Temperatur von Gemischen aus zwei Flüssigkeiten läßt sich oft nach der Mischungsregel bestimmen. Strauß fand sie bestätigt bei Be- obachtungen, die er an Gemischen von Alkohol und Äther angestellt hatte, und berechnete daraus nach Messungen von Alkohol- Wassergemischen die kritische Temperatur des Wassers zu 370®, einem Wert, der später durch das Experiment bestätigt wurde. Auch in anderen Fällen hat sich die Regel als richtig erwiesen, z. B. in ihrer Anwendung auf Gemische von Stickstoff und Sauerstoff.

Andrews hatte aus seinen Versuchen den Schluß gezogen, daß ein Gaszustands, stetig und einheitlich in den flüssigen Zustand übergeführt werden kann und ^ ** *"*' umgekehrt. Fängt man nämlich in seinem Diagramm der Kohlensäure (S. 167) auf der Isotherme von 15,5® rechts von der punktierten Grenzlinie mit dem Gase an und erwärmt es über die Temperatur von 31,1 ®, so kann man dabei den Druck auf etwa 100 Atm. steigern, ohne daß eine teilweise Verflüssigung eintritt. Wenn nun die Kohlensäure auf diesem Druck konstant gehalten und dabei auf 15,5 ® abgekühlt wird, so erhält man bei ihr alle Merkmale der Flüssig- keit. Auf dem ganzen Wege bleibt die Kohlensäure immer homogen, und eine bestimmte Grenze läßt sich zwischen dem gasförmigen und flüssigen Zustande nicht angeben. Man mußte sich daher die Frage vorlegen, ob es nicht möglich war, eine Beziehung zwischen den Zustandsgrößen aufzustellen, die dem stetigen Übergang zwischen Flüssigkeit und Gas Rechnung trug. Zugleich sollte eine solche Beziehung auch die Eigenschaften des gasförmigen Zustandes besser be- rücksichtigen, alsesdasMariotte-Gay-Lussac sehe Gesetz vermag, von dem wir gezeigt haben, daß es nur dem idealen Zustande genügt. Es wird darge- stellt durch die Gleichung

I^O 7* L. Holborn: Umwandlungspunktc, Erscheinungen bei koexistierenden Phasen

lOOT

vp = RT,

wo V das Volumen, p den Druck, T die absolute Temperatur und R eine von dem Stoffe abhängige Konstante bedeutet. Steigt der Druck bei konstanter Temperatur sehr hoch, so muß das Volumen nach dieser Gleichung verschwin- dend klein werden, was mit der Erfahrung nicht übereinstimmt. Diese zeigt vielmehr, daß die Zusammendrückbarkeit der Gase bei sehr großem Druck langsamer abnimmt, als es dem idealen Zustande entspricht. Umgekehrt nimmt das Volumen bei mäßigen Drucken bei allen Gasen mit Ausnahme von Wasser- stoff mit abnehmendem Druck schneller ab, als es das Mariotte-Gay- Lussacsche Gesetz verlangt. Ausgehend von theoretischen Betrachtungen über den molekularen Bau der Stoffe gelangte van der Waals (1873) zu der Zustandsgieichung , ^.

WO a und b zwei neue, von dem Stoffe abhängige Konstanten bezeichnen. Die

letztere stellt das Vierfache des Grenzvolumens dar, unter das ein Stoff auch bei

Druck Anwendung der größten Drucke nicht zusammengepreßt werden kann.

^ Es soll untersucht werden, wie weit die van der Waals sehe Zu-

standsgleichung mit der Wirklichkeit im Einklang steht. In der Figur 5 sind sechs Isothermen dargestellt, die aus der van der Waals sehen Gleichung für Kohlensäure be- rechnet wurden und die den von Andrews beobach- teten Temperaturen entsprechen. Die Isotherme für 48,1® nähert sich der glatten Kurve, die dem idealen Zustande über das ganze Temperatur- gebiet zukommt. Ebenso wie bei dieser Tempe- ratur stimmen die nächsten drei Kurven, die für 35,5, 32,5 und 31,1 igelten, noch mit der beobachteten Gestalt überein. Dagegen zeigen die Isothermen für 21,5 und 13,1 ® eine Abweichung: statt der gerad- linigen Strecke, welche diebeobach- -/«y,/° tete Kurve in dem Gebiet der SSaS Verflüssigung besitzt, haben die S^iS berechneten Isothermen an die- ser Stelle einen '^^f örmigen Bo- gen. Die Kurve für 13,1® zeigt bei abnehmendem Volumen zu- nächst ein Ansteigen des Drucks bisF, dann fällt dieser bis if und wächst von da an schnell empor. Die beobachtete Isotherme ver- läuft statt dessen zwischen den Punkten M und N geradlinig

90"

80"

70"

60"

60

40

so

Flg. 5.

Volumen

Zustandsgieichung I y l

entsprechend der Tatsache, daß der Sättigungsdruck vom Volumen des Dampfes unabhängig ist. Die Erfahrung zeigt jedoch, daß unter gewissen Bedingungen auch die Stücke FN und MH teilweise zu verwirklichen sind. Besonders das letztere Stück tritt häufig auf, z. B. bei ganz luftfreien Flüssig- keiten, wo sich bei Zunahme des Volumens kein Dampf bildet, obwohl der Sättigungsdruck nicht allein erreicht, sondern sogar unterschritten ist. Dampf entsteht dann schließlich explosionsartig in großer Menge mit einem Male. Das Kurvenstück Fi/, wo fallender Druck einer Abnahme des Volumens ent- spricht, stellt einen labilen Zustand dar, der der Beobachtung nicht zugäng- lich ist. Bemerkenswert ist es, daß auf der Strecke GH M der Isotherme auch negative Drucke vorkommen können. Solche Zustände entsprechen einer Spannung der Flüssigkeit und sind zu verwirklichen; so kann das Queck- silber eines ausgekochten Barometers, das zum ersten Male aufgerichtet wird, in einer Säule, die länger als der dem Atmosphärendruck entsprechen- den ist, zusammenhalten. Über die Lage der geraden MN zu der theoretischen Isotherme gilt die von Maxwell und Clausius aus thermo-dynamischen Überlegungen abgeleitete Regel, daß die Flächen MHG und GFN einander gleich sein müssen.

Im allgemeinen gibt es drei Werte von v, welche für eine bestimmte Tem- Kedazierte peratur der van der Wa als sehen Gleichung genügen, denn eine der ü- Achse gi"e^hMg. parallele Gerade schneidet die Kurve in dem unteren Temperaturgebiet in drei Funkten. Bei höheren Temperaturen rücken die Schnittpunkte näher anein- ander und die Isotherme, bei der alle drei zusammenfallen, entspricht der kri- tischen. Für diesen dreifachen Schnittpunkt haben die Zustandsgrößen t;^, p^ und Tj^ folgende Werte

van der Waals definierte die reduzierten Zustandsgrößen ö, p und 2 durch die Beziehungen v ^ T

vk^ ^ py Tk

d. h. die reduzierten Größen werden in Teilen ihrer kritischen Werte gemessen. Drückt man die Zustandsgieichung in reduzierten Einheiten aus, so erhält man

(t»+^)(3»-i)-8a;.

Diese Form enthält keine von der Natur des Stoffes abhängige Größe mehr und ist deshalb für alle Substanzen gültig. Zustände verschiedener Stoffe, für welche die reduzierten Größen denselben Wert besitzen, nennt van der Waals übereinstimmende. Für diese ist in reduzierten Einheiten nicht allein das Vo- lumen, der Druck und die Temperatur für verschiedene Stoffe gleich, sondern auch der Spannungs- und Ausdehnungskoeffizient, sowie die Kompressibili- tät; die Dichte des gesättigten Dampfes, der Flüssigkeit und die Verdampfungs- wärme sind gleiche Funktionen der reduzierten Temperatur.

Die Zustandsgieichung, die van der Waals für den flüssigen und gasförmi-

172 7* L- HOLBORN: Umwandlungspunkte, Erscheinungen bei koexistierenden Phasen

Vergleichang der

van der Waals-

sehen Gleichung

mit der

Erfahrung.

gen Zustand aufge* stellt hat, beherrsch- te seit jener Zeit die experimentellen Arbeiten. Auch als sich bei der Verglei- chung zwischen der Theorie und der Er- fahrung herausstell- te, daßbeidein quan- titativer Beziehung vielfach voneinan- der abwichen, hat die Theorie für den Experimentator ei- nen großen Wert be- halten, weil sie die Erscheinungen in qualitativer Hinsicht im allgemeinen gut wiedergibt und dem Forscher deshalb für die Wahl des einzu- 4^ ^ ^^ ^^«^ schlagenden We-

ges richtige Anhaltspunkte bietet. Das Gesetz der übereinstimmenden Zustände ist außerdem keineswegs eine Eigenschaf t, die der van der Waalsschen Glei- chung allein zukommt, sondern jeder Zustandsgieichung, die drei unabhängige Parameter der Stoffe enthält. Dieses wird auch durch die Erfahrung bewiesen, die

^^ viel besser jenes Ge-

^loj^^^^'' setz bestätigt als die

jivc ,^^ ^ ' Zustandsgieichung,

woraus van der Waals es ableitete. Beschränken wir uns bei dieser Glei- chung auf die quali- tativen Beziehun- gen, so verknüpft sie eine Menge von Tat- sachen, die bis da- hin vereinzelt neben- einander bestan- ^^^^ den. Zunächst sooo <u gibt sie Rechen-

200

4

t ^ *

,<-'

1000

2000

Zustand^leicbimg ij^

Schaft von dem Verhalten der Gase gegenüber dem Mariotteschen Gesetz. Betrachtet man z. B. das Di^ramm der Fig. 6, welches das von Amagat beobachtete Isothermennetz der Kohlensäure zwischen o" und 258" für Drucke bis zu 1000 Atm. darstellt. Als Abszisse ist hier der Druck, als Ordinate das Produkt aus Druck und Volumen gewählt. Jede Gerade, die durch den Ko- ordinatenanfangspunkt geht, bildet eine Linie konstanten Volumens. Je nach- dem der Winkel, den eine Tangente der Isotherme mit der positiven Ab- szissenachse bildet, spitz oder stumpf ist, weicht der Stoff vom Mariotte- schen Gesetz nach der einen oder der anderen Richtung ab. Die punktierte Kurve, welche die Minima der Isothermen verbindet, teilt die Ebene in zwei Teile: rechts liegt das Gebiet, wo die Abweichung vom Mariotteschen Ge- setz positiv ist, links ist sie negativ und verschwindet auf der Kurve selbst. Dem ersten Falle entspricht eine geringere Kompressibilität, als sie das Mariottesche Gesetz verlangt; sie kommt zwischen o" und 200" dem Wasserstoff zu, von dem in Fig. 7 vier Isothermen dargestellt sind, bei allen Drucken, während das Minimum bei den vier Isothermen des Stickstoffs bei kleinen Drucken noch angedeutet ist. Die folgende Figur (Fig. 8) ent- hält nur ein kleines Druckgebiet der Kohlensäure; die flüssige Phase ist hier durch eine punktierte Kurve begrenzt, innerhalb deren die Isothermen pv\ fast senkrecht verlaufen, entsprechend den wa^erechten Geraden des '•"X,^^ Andrewsschen Diagramms. Der allgemeine Verlauf der Iso-

200 rjo at

Ij^ 7. L Holborn: Umwandlungspunkte, Erscheinungen bei koexistierenden Phasen

thermen entspricht in allen diesen Figuren der van der Wa als sehen Zu- standsgleichung.

Aus ihr folgt ferner, daß der Joule-Thomson-Effekt (s. S. 152) für tiefe Temperaturen eine Abkühlung des strömenden Gases, für höhere eine Erwär- mung herbeiführen muß, daß es mithin für jeden Stoff eine Übergangstem- peratur gibt, wo weder eine Abkühlung noch eine Erwärmung erfolgt. Dieser Umkehrungspunkt liegt bei den verschiedenen Gasen ebensowenig an der- selben Stelle wie der, wo die Abweichung vom Mari ott eschen Gesetz ver- schwindet; er ist abhängig von der Höhe der kritischen Temperatur.

Es ist beachtenswert, daß die Abweichungen, welche ein Gas von dem idealen Zustand aufweist und von denen wir zwei hervorgehoben haben, mit wachsender Temperatur nicht verschwinden. Dieses zeigt, daß die früher über- all verbreitete Meinung, daß sich die Gase bei hoher Temperatur dem idealen Zustand näherten, in dieser Allgemeinheit nicht zutrifft. Nur in einer Bezie- hung ist diese Auffassung richtig: die Abweichungen von der Avogad roschen Regel werden mit zunehmender Temperatur immer geringer, was ebenfalls der van der Wa als sehen Zustandsgieichung entspricht.

In einer anderen Hinsicht versagt sie vollständig. Nach ihr müßte näm- lich der Druckkoeffizient, d. h. die relative Zunahme des Drucks mit der Tem- peratur eines Körpers bei konstantem Volumen von der Temperatur unab- hängig sein, und zwar müßte dieser Satz sowohl für den gasförmigen als auch für den flüssigen Zustand gelten. Für die Thermometrie würde dieses bedeu- ten, daß das Gasthermometer konstanten Volumens Angaben liefert, die mit der idealen thermodynamischen Skala zusammenfallen. Die Erfahrung zeigt, daß eine solche Beziehung selbst nicht bei jenen geringen Drucken Geltung besitzt, die bei den gasthermometrischen Messungen in Frage kommen.

Oberhalb des kritischen Punktes beobachtet man vielfach eine gute Über- einstimmung zwischen Theorie und Beobachtung, aber weiter nach abwärts treten große Abweichungen auf. Man hat deshalb die Gleichung abzuändern versucht, indem man die Konstanten a und b als mit der Temperatur veränder- lich betrachtete; in dieser Richtung bewegen sich Untersuchungen von Clau- sius, und auch van der Waals selbst hat sich mit derselben Aufgabe be- schäftigt. Befriedigende Ergebnisse, die über weite Bereiche des Drucks und der Temperatur standhalten, sind jedoch auf diese Weise bisher nicht erzielt worden.

Bei der Prüfung der Sättigungsgrößen ist man schon weiter gekommen. In diesem Gebiet lassen sich viele Stoffe, die man als normale bezeichnet hat, dem Gesetze der übereinstimmenden Zustände unterordnen; vielfach konnte man sogar von der graphischen Vergleichung zu einer rechnenden über- gehen und die Ergebnisse zahlenmäßig darstellen. Allerdings sondert man die Substanzen zweckmäßig in Gruppen nach der Harmonie der einzelnen Glieder; so scheinen z. B. die einatomigen Stoffe einer besonderen Gruppe anzugehören. Die Abweichung der verschiedenen Gruppen voneinander erklärt man durch die Annahme, daß der molekulare Bau Verschiedenheiten aufweist und daß in

Gemische

175

gewissen Bereichen des Drucks und der Temperatur eine Assoziation der Mole- küle eintritt, die zu Komplexbildung namentlich in der flüssigen Phase führt. Man würde dann zwei Arten von Molekülen erhalten, die in wechselnden Mengen im flüssigen und im dampfförmigen Zustande vorkommen, so daß diese beiden Phasen nicht mehr als homogen angesehen werden können, sondern als Ge- mische verschiedener Molekülgattungen, für welche van der Waals eben- falls schon frühzeitig eine Theorie aufgestellt hat.

Die Verhältnisse liegen bei Gemischen viel verwickelter als bei einheit- G«nJ«ch« liehen Körpern. Als Beispiel wollen wir das Gemenge von zwei Stoffen betrach- ten, die auch in flüssigem Zustande in allen Verhältnissen mischbar sind. Im allgemeinen hat der Dampf eine andere Zusammensetzung als die Flüssigkeit;

Fig. 9. t Fig. zo. t

denn der leicht flüchtige Bestandteil wird sich bei einer bestimmten Tempera- tur mehr in der Dampfphase ansammeln als in der Flüssigkeit. Der Teil der Isothermen, der in dem Andrews sehen Diagramm in das Flüssigkeitsgebiet des einheitlichen Körpers fällt, stellt also nicht mehr wie dort eine der Abszissen- achse parallele Gerade dar, sondern eine von rechts nach links ansteigende Kurve. Die Sättigungskurve des einheitlichen Körpers (S. 162), deren Druck von dem Volumenverhältnis zwischen Flüssigkeit und Dampf unabhängig ist, geht in ein mehr oder weniger breites Band über, da der Sättigungsdruck außer von der Temperatur auch von dem Volumen abhängt. Zwischen den in der Figur 9 dargestellten Sättigungskurven A und B der einfachen Bestandteile erhält man für ihre Gemische eine Reihe von Bändern i, 2 und 3. Die ein- hüllende Kurve C aller dieser Bänder enthält für die Gemische die Punkte, wo die flüssige und die dampfförmige Phase gleich werden, und wird deshalb als kritische Kurve bezeichnet.

Für ein bestimmtes binäres Gemisch sei in Fig. 10 die Gestalt des Kurven- bandes durch S dargestellt, auf welchem der kritische Punkt in K liege, also zwischen den Punkten P und T, in denen S den größten Druck und die höchste Temperatur erreicht. Innerhalb des Bandes haben wir Flüssigkeit und Dampf nebeneinander, außerhalb rechts Dampf allein und links Flüssigkeit allein. Die letzten beiden Gebiete sind durch die Linie K-^K^ von der gasförmigen Phase oberhalb des kritischen Punktes abgegrenzt. Steigen wir z. B. auf der Iso-

176 7- L. Holborn : Umwandlungspunktc, Erscheinungen bei koexistierenden Phasen

therme t^ hinan zu höheren Drucken, so haben wir zuerst Dampf, dann Flüssig- keit und Dampf und zuletzt Flüssigkeit, also dieselbe Reihenfolge wie bei einem einheitlichen Stoffe, die auch noch in der kritischen Isotherme tj^ erhalten bleibt. Auf der Isotherme /j muß man jedoch auf dem Dampf bereich zweimal die Kurve S passieren: im Punkte a kommt man aus dem dampfförmigen Gebiet in das der koexistierenden Phasen und in b wiederum in das dampfförmige. Die Menge der Flüssigkeit besitzt also an einer Stelle des Kurvenbandes ein Maximum und nimmt alsdann wiederum bis zum Verschwinden ab. Dieser Unterschied gegenüber dem Verhalten einheitlicher Stoffe, bei denen die Erhöhung des Drucks stets eine Vermehrung der Flüssigkeit bewirkt, bezeichnet man als retrograde Kondensation. Die Erscheinung haben Cailletet, van der Waals und Andrews unabhängig voneinander an Gemischen von Luft und Kohlensäure zuerst beobachtet; umfassendere Untersuchungen verdanken wir namentlich Kuenen (1893), der durch die Anwendung einer Rührvorrichtung das Beobachtungsverfahren wesentlich sicherer gestaltete. Die Verhältnisse ändern sich etwas, wenn der kritische Punkt nicht zwischen P und T, sondern links von P oder rechts von T fällt, ergeben sich aber ohne weiteres durch die Anstellung ähnlicher Betrachtungen. Gibbische Die Beobachtungscrgebnisse, die für Gemische erhalten worden sind,

pflegt man zur besseren Übersicht der verwickelten Verhältnisse graphisch dar- zustellen, und zwar durch räumliche Gebilde. Denkt man sich nämlich die Kurven des Andre wsschen Diagramms, die für verschiedene Temperaturen in der Ebene die Beziehung zwischen Druck und Volumen darstellen, kontinuier- lich im Räume angeordnet, so erhält man eine Fläche, deren Koordinaten Druck, Volumen und Temperatur bilden. Die geradlinigen Strecken, die dem Zustande der koexistierenden Phasen von Flüssigkeit und Dampf entsprechen, stellen eine ebene Terrasse einer solchen Fläche dar, die nach Einführung der c/> -Kur- venstücke, wie sie die van der Waals sehe Gleichung vorschreibt, in eine Falte übergeht. Solche Flächen, als deren Koordinaten man statt Druck, Vo- lumen und Temperatur auch andere Zustandsgrößen wählen kann, werden wohl nach Gibbs benannt, der sie bei seinen grundlegenden thermodynamischen Be- trachtungen einführte.

In seiner Theorie binärer Gemische wählte vanderWaalsals Koordinaten der Fläche die freie Energie (iji) (vgl. Artikel 32), das Volumen und die Kon- zentration des einen Bestandteils. Die Ergebnisse der umfangreichen Beobach- tungen, die Kamerlingh Onnes und seine Schüler auf diesem Gebiete an- gestellt haben, sind zum großen Teil unmittelbar durch Modelle solcher ,,i|i- Flächen** für die verschiedenen Temperaturen dargestellt. vexfläMigimg Namentlich bei der Verflüssigung der permanenten Gase sind die Folge-

''ülht^^v^^ rungen aus den neuen Anschauungen über die Zustandsänderungen von großem ratttren. Einfluß gcwcseu uud haben dazu geführt, daß heute alle bekannten Gase in dem flüssigen Zustande dargestellt worden sind. Seitdem Andrews gezeigt hatte, daß die Gase sämtlich oberhalb ihrer kritischen Temperatur permanent sind, suchte man natürlich die noch nicht verflüssigten Gase tiefer abzukühlen.

Verflüssigung von Gasen i y ^

Schon van der Waals berechnete bei der Aufstellung seiner Zustandsglei- chung, daß die Luft unter 158^ abzukühlen wäre, wenn sie in den flüssigen Zustand übergehen soll. Tiefere Temperaturen als Faraday erzeugten Cail- letet und Pictet gleichzeitig durch Entspannung von stark komprimiertem Sauerstoff, der durch das bisher gebräuchliche Kältemittel, nämlich durch die im Vakuum verdampfende feste Kohlensäure vorgekühlt war. Bei diesem Vor- gang wurde aber nur Nebelbildung in dem entspannten Gasstrom beobachtet. Erst Wroblewski und später Olszewski (1883), die als Kältemittel flüssiges Äthylen benutzten und dieses im luftverdünnten Räume sieden ließen, erhiel- ten Sauerstoff und Stickstoff als Flüssigkeiten in Glasgefäßen. Dasselbe ge- lang für Luft, Kohlenoxyd, Stickoxyd und Sumpfgas. Eis wurde nun der Sauer- stoff zur Erzeugung noch tieferer Temperaturen verwendbar; bei seiner Ver- dampfung im Vakuum kommt man etwa bis zu 215^. Diese Temperatur reichte jedoch nicht aus, den Wasserstoff zu verflüssigen, und die Aussichts- losigkeit eines solchen Versuchs trat klar zutage, als Olszewski nach dem angegebenen Verfahren (S. 168) die kritische Temperatur des Wasserstoffs zu 234,5® bestimmte.

Inzwischen gab Linde (1896) ein einfacheres Verfahren zur Luftverflüssi- gung an. Er machte dazu Gebrauch von der Abkühlung, die komprimierte Luft nach dem von Thomson und Joule beobachteten Effekt bei dem Durchgang durch einen porösen Pfropfen oder ein Ventil erfährt, wenn keine in Betracht kommende äußere Arbeit geleistet wird. Diese Abkühlung ist an sich klein, wurdeaber von Linde mittelst eines Gegenstromapparates nutzbar gemacht, indem die entspannte abgekühlte Luft fortwährend ihre Kälte an die erst zu entspannende übertrug, wodurch die Temperatur immer weiter sinken mußte, weil die Wirkung mit abnehmender Temperatur rasch zunimmt. Durch dieses Verfahren, das bald durch die darauf gegründete Darstellung des Sauerstoffs auch für die Technik Bedeutung gewann, ließ sich die flüssige Luft in beliebig großen Mengen herstellen, und da man sie nach dem Vorgang von De war in Gefäßen mit evakuierter versilberter Doppelwand vor schneller Verdampfung schützen und versenden konnte, so wurde dieses Kältemittel, das bisher nur einigen besonders ausgestatteten Laboratorien zugänglich gewesen war, ein All- gemeingut der Forschung, das die Physik der tief en Temperaturen kräftig förderte.

Mit Hilfe des Lind eschen Gegenstromprinzips ist es dann De war (1898) zuerst gelungen, flüssigen Wasserstoff in Gefäßen aufzufangen. Eine Abküh- lung läßt sich bei diesem Gase erst unter 80® erzielen, wo der Joule- Thomson- Effekt einen Umkehrungspunkt aufweist. De war brachte des- halb den Apparat in einem Gefäß mit flüssiger Luft an und kühlte ebenso den hochgespannten Wasserstoff mit demselben Mittel vor. Das verflüssigte Gas siedet unter normalem Druck bei 252,6®, von wo aus man die Siedetemperatur durch Evakuieren des Siedegefäßes weiter um 6 ® erniedrigen kann; die Flüssig- keit gefriert alsdann.

Die Versuche, die erreichbare Temperaturgrenze noch weiter dem abso- luten Nullpunkt zu nähern, blieben längere Zeit erfolglos. Die Verflüssigung

X.d.G.m.iii,Bdz Physik 12

lyg 7. L. Holborn : Umwandlungspunkte, Erscheinungen bei koexistierenden Phasen

des Heliums, die diese Forderung erfüllen sollte, machte noch größere Schwie- rigkeiten als die des Wasserstoffs. Sie wurden erst zehn Jahre später von Kamerlingh Onnes überwunden, indem er einen Gegenstromapparat auf den Schmelzpunkt des Wasserstoffs abkühlte und das darin zirkulierende He- lium auf einen Druck von 60 Atm. komprimierte. Das flüssige Helium siedet unter normalem Druck bei 269®. Durch Verminderung des Druckes ge- langt Kamerlingh Onnes auf 271,5®, war also dem absoluten Nullpunkt bis auf 1,6® nahe gekommen. Mit Ausnahme des Heliums, dessen Überführung in den festen Zustand bisher nicht gelungen ist, sind nunmehr alle Gase in die drei Aggregatzustände gebracht. Denn die neuerdings entdeckten Elemente Argon, Neon, Krypton und Xenon gehen sämtlich bereits bei höherer Tem- peratur als der Wasserstoff in den flüssigen und festen Zustand über.

Literatur.

Von populären Darstellungen sei in bezug auf die Regelaüon des Eises auf Helmholtz' Vortrag ,,Ober die Gletscher" verwiesen. Von wissenschaftlichen Zusammenfassungen seien erwähnt :

GiBBS, 1902: Thermodynamische Studien, übersetzt von W. Ostwald. Leipzig. Kamerlingh Onnes u. Keesom, 191z: Die Zustandsgieichung in der Enzyklopädie der math.

Wiss. Leipzig. KUBNBN, 1907: Die Zustandsgieichung. Braunschweig. Mathias, 1904: Le point critique. Paris.

Ostwald, W., 1896— 1902: Lehrbuch der allgemeinen Chemie. U. Band, 2. Teil. Leipzig. Tammann, 1903: Kristallisieren und Schmelzen. Leipzig. Van der Waals: Die Kontinuität des gasförmigen und flüssigen Zustandes, übersetzt von Roth.

I.Teil, 2. deutsche Auflage 1899; 2. Teil 1900.

Die technischen Anwendungen der Wärmelehre bringt der unter der Redaktion von M. Schröter erscheinende Band des IV., die technischen Wissenschaften behandehiden Teils der „Kultur der Gegenwart".

8. WÄRMELEITUNG,

Von W. Jaeger.

Die Wärmeleitung unterscheidet sich wesentlich von der Wärmestrah- Allgemeine», lung, welche an anderer Stelle behandelt wird (vgl. Artikel 9 und 10).

Aller Wärmeaustausch ruhender Körper geht durch Wärmeleitung oder Strahlung oder durch beide gleichzeitig vor sich. Beiden Erscheinungen ge- meinsam ist, daß sie nur von einem Ort höherer Temperatur zu einem solchen niederer Temperatur sich vollziehen; wo keine Temperaturunterschiede vor- handen sind, findet auch von selbst kein Wärmeaustausch statt.

Die Strahlung breitet sich durch das ganze Universum mit Lichtgeschwin- digkeit aus; von den entferntesten Sternen erhalten wir Wärmestrahlen, die durch das völlige Vakuum hindurchgehen und einen Vorgang im Äther darstellen. Für die Wärmeleitung hingegen ist das Vakuum ein vollkommenes Hindernis, sie bedarf der materiellen Körper als übertragendes Medium, welches die Wärme weiterbefördert; die Wärmeleitung erfolgt von Molekül zu Molekül, in ähn- licher Weise, wie es beim Vorgang der Diffusion von Flüssigkeiten der Fall ist.

Die Erscheinungen der Wärmeleitung sind sehr sinnfälliger Natur und da- her auch schon sehr lange bekannt. Täglich machen wir von den Gesetzen dieser Erscheinung Gebrauch, entweder durch Benutzung guter Wärmeleiter oder in- dem wir die Verbreitung der Wärme durch Wärme- Isolatoren möglichst ein- zuschränken suchen.

Zu den besten Wärmeleitern gehören die Metalle, zu den schlechtesten die Gase. Hier fällt sofort eine weitgehende Analogie mit der Elektrizitätsleitung ins Auge, die in der Tat in hohem Maße vorhanden ist.

Im allgemeinen leiten diejenigen Körper, welche die Elektrizität besser leiten als andere, auch die Wärme besser. Es scheint eine sehr enge Beziehung zwischen Elektrizität und Wärme in dieser Hinsicht zu bestehen, auf welche wir später noch näher eingehen müssen.

Es gibt einen sehr einfachen Versuch, um die verschiedene Leitfähigkeit von Metallen und anderen Körpern für die Wärme zu demonstrieren. Man denke sich Stäbe aus verschiedenen Metallen (Silber, Kupfer, Eisen, Zink usw.), alle von dem gleichen Durchmesser und der gleichen Länge mit ihrem einen Ende an einem Kupferstück befestigt, das durch darunter befindliche Gas- flammen erhitzt werden kann. Die Stäbe sind an ihrer Oberfläche mit Wachs überzogen, so daß man an dem Schmelzen des Wachses das Fortschreiten der Wärme in den Stäben wahrnehmen kann. Es zeigt sich nun, daß das von der

l8o W. Ja£GER: Wärmeleitung

erwärmten Stelle entfernte Ende beim Silber- und Kupferstab viel schneller die Schmelztemperatur des Wachses annimmt als beim Eisen- und Zinkstab, und daß auch zwischen diesen beiden wieder Unterschiede in der Fortleitungs- geschwindigkeit bestehen. Außer der Wärmeleitung spielt bei diesem Vorgang allerdings noch die spezifische Wärme und die Dichte des Körpers eine gewisse, aber nur eine untergeordnete Rolle, s. später unter „Temperaturleitver- mögen**. — Im Silber und Kupfer fließt also ein stärkerer Strom von Wärme als im Eisen und Zink, d. h. durch denselben Querschnitt strömt bei denersteren Metallen in dem gleichen Zeitabschnitt eine größere Wärmemenge als bei den anderen, ähnlich wie ein Fluß eine um so größere Strömungsgeschwindigkeit besitzt, je mehr Wasser in der Zeiteinheit durch einen bestimmten Querschnitt hindurchfließt.

Bei dem oben betrachteten Versuch findet allerdings noch ein anderer Vor- gang statt, den wir außer acht gelassen haben und auch vorläufig nicht näher ins Auge fassen wollen. Es fließt nämlich nicht nur Wärme durch die Stäbe selbst, sondern es wird auch an die Umgebung, d. h. an die Luft, welche die Stäbe umgibt, teils durch Strahlung, teils durch die sog. „äußere Wärmeleitung** Wärme abgegeben, ferner wird auch noch Wärme zum Schmelzen des Wachses verbraucht. Uns interessiert zunächst nur die ,, innere Wärmeleitung** inner- halb der Stäbe selbst. Innere Wime- Betrachten wir nun einmal einen Kupferstab von einem Meter Länge und einem Quadratzentimeter Querschnitt, dessen Oberfläche gegen die Wärme- abgabe nach außen auf irgendeine Weise völlig geschützt sein möge. Das eine Ende dieses Stabes werde konstant auf loo*^, das andere auf o*^ gehalten. Dann zeigt dieser Stab nach einiger Zeit auf seiner ganzen Länge eine gleichmäßig abfallende Temperaturverteilung, derart, daß vom heißeren Ende anfangend die Temperatur von Zentimeter zu Zentimeter um einen Grad fällt.

Es wird dann in der Sekunde eine ganz bestimmte Wärmemenge, die in Kalorien ausgedrückt werden kann, durch den Stab hindurchfließen. Wenn also z, B. die Temperatur von loo® durch ein Reservoir mit siedendem Wasser, diejenige von durch ein Gemisch von Eis und Wasser aufrechterhalten wird, so wird in der Sekunde eine bestimmte Menge Eis schmelzen, die ein Maß für die von dem Reservoir von loo*^ abgeflossene Wärmemenge darstellt. Nimmt man zwei Stäbe der gleichen Art, so wird in derselben Zeit die doppelte Eis- menge geschmolzen, bei zehn Stäben die zehnfache, d. h. die Wärmeleitung ist dem Querschnitt der Stäbe proportional. Ebenso ist sie proportional dem Tem- peraturgefälle; würde man z. B. das heißere Reservoir nur auf 50*^ erwärmen statt auf 100®, so würde nur die Hälfte des Eises geschmolzen werden. In diesem Fall würde auf einen Zentimeter des Stabes nur eine Temperaturabnahme von Y,*^ statt von vorhanden sein. Außerdem hängt die Wärmemenge von der Art des Materials ab. Würde man statt Kupfer z. B. Eisen verwenden, so würden unter den anfänglich angegebenen Verhältnissen statt 1 1 mg Eis in der Sekunde nur 2 mg geschmolzen werden (bei Anwendung eines Stabes). Die zum Schmelzen dieser Eismenge erforderliche Wärmemenge, in Kalorien aus-

leitnng.

Innere Wärmeleitung

l8l

gedrückt, nennt man das Wärmeleitungsvermögen des betreffenden Materials. Da zum Schmelzen von i g Eis eine Wärmemenge von 80 g Kai. nötig ist, so würde man also nach den obigen Angaben als Konstanten der Wärmeleitung er- halten: für Kupfer 0,90 und für Eisen 0,16.

Aus den in der untenstehenden Tabelle angegebenen Zahlen für verschie- dene Metalle kann man also die hindurchgehende Wärmemenge für jeden Quer- schnitt und jedes Temperaturgefälle berechnen.

Das oben entwickelte Gesetz für die Wärmeleitung gilt in gleicher Weise wie für die Metalle, auch für Flüssigkeiten und Gase, solange die Strahlung und der Wärmetransport durch die sog. Konvektionsströme (Flüssigkeitsströmun- gen bzw. Gasströmungen, die durch die Temperaturunterschiede in den be- trachteten Körpern und die dadurch bewirkte Veränderung der Dichte der- selben infolge der Schwerkraft veranlaßt werden) nicht vorhanden ist.

Im folgenden ist für einige wichtigere Körper das Wärmeleitungsvermögen bei 18® C nach der oben dargelegten Definition angegeben. Da die Konstante mit der Temperatur variiert, ist auch die Angabe dieser Temperatur erforderlich.

Die Körper sind nach der Größe des Leitvermögens geordnet. Für Legie- rungen läßt sich nur ein ungefährer Wert angeben, da derselbe je nach der Zu- sammensetzung des betreffenden Körpers variiert. Deshalb ist in diesen Fällen vor die Zahl „ca.** gesetzt.

Wärmeleitvermögen bei 18® C.

a) Feste Körper.

a) Silber 1,01

Kupfer 0,90

Gold 0,70

Aluminium 0,48

Magnesium 0,38

Iridium 0,34

Zink 0,27

Kadmium 0,22

Platin 0,17

£isen ca. 0|i6

Zinn 0,15

z) sankrecht rar Adise

Nickel 0,14

Rotguß ..... ca. 0,14

Stahl ca. 0,10

Neusilber .... ca. 0,08

Blei 0,08

Antimon 0,04

Wismut 0,02

ß)

Marmor 0,007

Glas 0,002

Porzellan 0,0025

Holzfaser 0,0003

BergkristalP) .... 0,000z Watte 0,0001

b) Flüssigkeiten.

Quecksilber 0,020

Wasser 0,0015

Alkohol 0,0005

Äther 0,0005

c) Gase (bei Atmosphärendruck). Wasserstoff .... 0,0004

Luft 0,00006

Kohlensäure. . . . 0,00003

Wie man sieht, ist Silber der beste Wärmeleiter von allen Substanzen und ist in dieser Beziehung selbst dem sonst so begehrenswerten Gold überlegen; es leitet die Wärme ca. sechsmal so gut als Platin. Das Wärmeleitvermögen des reinen Silbers ist zufällig nahe eins; diese Zahl bedeutet also, daß durch einen Silberstab von einem Quadratzentimeter Querschnitt, wenn zwei um einen Zentimeter entfernte Stellen des Stabes einen Temperaturunterschied von einem Grad besitzen, in der Sekunde die Wärmemenge i hindurchfließt, d. h. eine solche Wärmemenge, welche die Temperatur von einem Gramm Wasser um einen Grad zu erhöhen vermag. Da die Konstante für Silber nahe gleich i

l82 8. W. Jaeger: Wänncleitung

ist, SO bedeuten die in der Tabelle angegebenen Zahlen gleichzeitig das rela- tive Leitvermögen der Körper, bezogen auf Silber als Einheit. Die unter a zu- sammengefaßten festen Körper (Metalle) bezeichnet man als die guten Wärme- leiter, diejenigen unter ß als schlechte Leiter (Isolatoren). Zu letzteren ge- hören auch die Flüssigkeiten und die Gase. Silber leitet die Wärme ca. 50 mal so gut als das am schlechtesten leitende Metall und ca. 10 000 mal so gut als der die Wärme am schlechtesten leitende feste Körper der Tabelle (Bergkristall).

Die Flüssigkeiten sind etwas bessere Leiter als Bergkristall, sie leiten rund 1000 bis 2000 mal schlechter als Silber, wenn von Quecksilber abgesehen wird.

Am schlechtesten leiten im allgemeinen die Gase, obwohl z. B. Wasserstoff, der ein ausnehmend gutes Leitvermögen unter den Gasen besitzt (siebenmal so gut als Luft), ein besserer Wärmeleiter ist als Bergkristall. Durchschnittlich ist das Leitvermögen der Gase unter Atmosphärendruck etwa 20 000mal schlechter als das des Silbers.

Die Wärmeleitfähigkeit der Gase ist in weiten Grenzen vom Druck unab- hängig, wie es nach der kinetischen Theorie der Gase der Fall sein muß. Bei sehr geringen Drucken (von etwa i mm Quecksilberhöhe ab) nimmt die Wärme- leitung der Gase aber erheblich ab und hört bei immer weitergehender Ver- dünnung schließlich ganz auf (vgl. Artikel 11). Das Vakuum ist, wie erwähnt, ein vollkommener Isolator für die Wärme; deshalb kann sich die Wärme durch den Weltenraum nur durch Strahlung verbreiten.

Von dieser Eigenschaft des Vakuums macht man bekanntlich Gebrauch bei der Aufbewahrung der flüssigen Luft in den sog. De war sehen Flaschen, die jetzt auch im Handel als „Thermosflaschen" zum Aufbewahren von Ge- tränken, die lange heiß oder kühl bleiben sollen, zu haben sind. Es sind dies aus einer doppelten Glaswandung bestehende Flaschen, bei denen der Zwischen- raum zwischen den Glaswänden luftleer gemacht ist. Zur Verhinderung der Wärmestrahlung sind die Innenwände des Glases noch versilbert. Dies ist der beste Wärmeschutz, welcher zurzeit überhaupt existiert. Falls die Flasche gut konstruiert ist, findet der kleine noch übrigbleibende Wärmeaustausch mit der Umgebung hauptsächlich durch die notwendigerweise vorhandene Öff- nung der Flasche statt.

Auch die gute Isolation der Luft wird häufig als Wärmeschutz benutzt, z. B. durch Anwendung doppelter Wände bei Gebäuden oder Behältern. Aber wenn man die schlechte Wärmeleitung der Luft wirklich ausnutzen will, muß man durch Querwände oder sonstige Vorrichtungen verhindern, daß ein Wärme austausch durch die Bewegung der Luft (Konvektionsströme) stattfinden kann Diesen Dienst leisten z. B. die sog. Isolierstoffe, wie Watte, Kork, Infusorien erde, Sägespäne, Stroh, die Kleidung usw. Diese Körper wirken hauptsäch lieh deshalb als gute Wärme- Isolatoren, weil sie Luft eingeschlossen enthalten die an die Stelle gebunden ist. Ihre Leitfähigkeit ist etwas besser als diejenige der Luft allein, da noch die Leitfähigkeit der betreffenden festen Körper hinzukommt, die im allgemeinen größer ist als diejenige der Luft, aber bei der feinen Verteilung der Körper keine wesentliche Rolle spielt. Bei sehr fein pul-

Stationärer Zustand 1 83

verisierten Körpern wird unter Umständen, wie Smoluchowski neuerdings gezeigt hat, die Wärmeleitfähigkeit der Körper durch den um die Oberfläche der Körnchen auftretenden Temperatursprung scheinbar sehr stark herab- gesetzt (vgl. Artikel 11).

In welcher Weise man von der schlechten Wärmeleitung der unter ß ver- zeichneten Körper im gewöhnlichen Leben Gebrauch macht (Schutz der Bäume und Brunnen durch Stroh, Anwendung von Korkwänden, Holzstielen, Eiderdaunen usw.), ist allgemein bekannt. Ebenso ist auch die Anwendung der guten Leitfähigkeit der Metalle, z. B. des Kupfers für Lötkolben usw., so be- kannt, daß nur darauf hingewiesen zu werden braucht.

Daß die Leitfähigkeit sich mit der Temperatur ändert, ist schon erwähnt worden. Bei reinen Metallen nimmt sie im allgemeinen ab mit wachsender Temperatur, bei Legierungen zeigt sie z. T. eine Zunahme. Bei den schlechten festen Wärmeleitern ist vielfach eine Zunahme der Leitfähigkeit mit der Tem- peratur vorhanden, so daß z. B. das Porzellan im glühenden Zustand ein guter Leiter für die Wärme ebenso wie für die Elektrizität wird. Von letzterer Eigen- schaft wird z. B. bei der Nernstlampe Gebrauch gemacht. Um diese in Gang zu setzen, muß sie bekanntlich erst angewärmt werden, weil sonst die Leitfähigkeit der Masse zu gering ist. Anderseits ist neuerdings von Eucken bei einigen Kristallen in sehr tiefen Temperaturen eine starke Zunahme der Wärmeleit- fähigkeit beobachtet worden.

Gehen wir wieder auf den am Anfang beschriebenen Fall eines Stabes zu- stationärer

Zustand.

rück, der an beiden Enden auf verschiedene Temperatur gebracht worden ist und seinen Gleichgewichtszustand erreicht hat man nennt diesen Zustand das „Dynamische Gleichgewicht** (oder „Stationären Zustand**), weil die Wärme zwar nicht in Ruhe ist, aber ein „stationärer Zustand** erreicht ist , so ist die Temperaturverteilung in dem Stab (wenn von der äußeren Wärmelei- tung und der Strahlung abgesehen und die Veränderlichkeit der Wärmeleitung mit der Temperatur vernachlässigt werden kann), gänzlich unabhängig von dem Material des Stabes; das Temperaturgefälle ist dasselbe für alle Stäbe. Dagegen ist die durch den Querschnitt transportierte Wärmemenge verschieden je nach dem Material des Stabes. Wenn aber äußere Wärmeleitung in merklichem Maße vorhanden ist, so wird die Temperaturverteilung in dem Stabe verändert.

Unter äußerer Wärmeleitung versteht man den Wärmeaustausch an der Änß«re Wärme- Grenzfläche eines Körpers. Dieselbe kann sich aus eigentlicher Wärmeleitung *"*"°«' und Strahlung, ev. auch aus Wärmeaustausch durch Konvektionsströme zusam- mensetzen, wie es z. B. im allgemeinen bei einem in freier Luft befindlichen Stabe der Fall ist. Man bezeichnet dann als äußere Wärmeleitung die Gesamt- heit der durch die Einheit der Oberfläche austretenden Wärmemenge. Stoßen verschiedene Medien zusammen, bei denen Konvektion und Strahlung nicht stattfindet, wie es z. B. der Fall ist, wenn zwei feste Körper aneinander grenzen, so kann der Wärmeaustausch an der Grenzfläche dieser Medien als die ,, äußere Wärmeleitung*' aufgefaßt werden.

Für kleine Temperaturunterschiede befolgt die äußere Wärmeleitung das

184 S- WJaeger: Wärmeleitung

sog. Newtonsche Gesetz, welches aussagt, daß die durch die Oberfläche des betreffenden Körpers hindurchtretende Wärmemenge in der Zeiteinheit pro- portional ist dem Temperaturunterschiede des Körpers gegen die Umgebung. Für größere Temperaturunterschiede gilt dies Gesetz nicht mehr. Die äußere Wärmeleitung ist ein sehr unbequemes Hindernis bei vielen Messungen auf dem Wärmegebiet und erfordert häufig große Vorsichtsmaßregeln, um die dadurch entstehenden Fehler zu vermeiden oder in Rechnung setzen zu können. Unter Umständen, z. B. bei einem dünnen, in freier Luft glühenden Metalldraht ist die äußere Wärmeleitung viel beträchtlicher als die innere.

An der Grenzfläche zweier Medien tritt infolge der äußeren Wärmeleitung stets ein Temperatursprung (oder genauer ausgedrückt eine sehr rasche Ände- rung der Temperatur) auf, so z. B. zwischen der Wandung eines Dampfkessels und dem in demselben befindlichen Wasser. Die innere Kesselwandung hat eine erheblich höhere Temperatur als das Wasser und muß sie haben, wenn Wärme in das Innere des Kessels von der Feuerung aus gelangen soll.

Die äußere Wärmeleitung variiert nach den jeweiligen Bedingungen; bestimmte Konstanten, wie für die innere Wärmeleitung, lassen sich nicht für sie angeben, veriinderijcher Dieselben Grundgesetze, welche für den stationären Zustand der Wärme-

" leitung gelten, finden auch Anwendung, wenn die Temperatur an derselben

Stelle eines Körpers sich fortwährend verändert. Dem stationären Zustand geht naturgemäß stets ein veränderlicher Zustand voraus; dabei wird theo- retisch der stationäre Zustand erst nach unendlich langer Zeit erreicht. Die theoretische Behandlung des veränderlichen Zustandes erfordert schwierigere mathematische Operationen, auf die hier nicht eingegangen werden kann. Bei Temperatnrieit- dicscn Betrachtungen tritt an Stelle des Wärmeleitvermögens das sog. „Tem- ▼erm gen pe^aturleitvermögen", eine Größe, die man durch Division des Wärmeleit- vermögens durch das Produkt aus Dichte mal spezifischer Wärme der betreffen- den Substanz erhält. Dies ist darauf zurückzuführen, daß die Temperaturzu- nahme, welche ein Körper erfährt, wenn man der Volumeinheit desselben eine bestimmte Wärmemenge zuführt, der Dichte und der spezifischen Wärme desselben umgekehrt proportional ist.

Von besonderem Interesse sind die Vorgänge des veränderlichen Temperatur- zustandes bei einem Stabe, einer Kugel und bei einem Körper, der von unend- lich großen, parallelen Ebenen eingeschlossen wird (Platten von großer Aus- dehnung). Alle diese Fälle sind mathematisch sehr eingehend behandelt wor- den; die Grundlagen hierfür wurden im wesentlichen von Fourier gegeben und von Poisson, Riemann, Kirchhoff, Helmholtz, Neumann und an- deren weitergeführt. Auch bei dem veränderlichen Zustand spielt die äußere Wärmeleitung häufig eine wesentliche Rolle.

Während die Kenntnis der Vorgänge in Stäben und zwischen Ebenen hauptsächlich für die Messung der Wärmeleitung wichtig ist, bieten die bei einer Kugel auftretenden Verhältnisse ein besonderes Interesse für die astro- physikalischen Vorgänge, speziell für die mit der Abkühlung der Erde zusammen- hängenden Fragen und für die Temperaturverhältnisse im Inneren der Erde,

Messung der Wärmeleitung 185

Bei den theoretischen Betrachtungen geht man von Differentialgleichungen zweiter Ordnung aus, deren Lösung daher zwei gegebenen Bedingungen ge- nügen muß. Gewöhnlich nimmt man eine bestimmte Temperaturverteilung für den Zeitanfang an und berechnet dann den Temperaturverlauf für jeden Punkt des Körpers unter der Annahme, daß an seinen Grenzflächen plötzliche Tem- peraturänderungen stattfinden, die dann entweder konstant bleiben oder sich in bestimmter Weise, z. B. periodisch, ändern. Auf diese Weise kann man bei- spielsweise rechnerisch zeigen, daß die an der Erdoberfläche stattfindenden täglichen und jährlichen Temperaturschwankungen nicht sehr tief in das Erd- innere eindringen; hieraus erklärt sich die Wirkungsweise tief gelegener Keller, die eine sehr konstante Temperatur aufweisen, welche annähernd der mittleren Jahrestemperatur entspricht.

Die plötzliche Temperaturänderung an der Grenzfläche von Stäben, Plat- Meamag der ten (bzw. auch Würfeln) wird häufig angewandt zur Messung der Temperatur- "™* ** leitfähigkeit, aus der in der früher angegebenen Weise die innere Wärmeleitung berechnet werden kann. Zu diesem Zweck beobachtet man an einer oder meh- reren Stellen des Stabes usw. die nach der Störung des ursprünglichen Gleich- gewichtszustandes auftretenden Temperaturäaderungen. Auf diese Weise sind z.B. von Angström, Neumann, Kirchhoff und anderen Messungen der Wärmeleitung ausgeführt worden, während Despretz, Forbes und andere den stationären Zustand zur Messung benutzten. Auch auf indirektem Wege kann die Wärmeleitung der Metalle nach einer von F. Kohlrausch angegebe- nen Methode ermittelt werden, indem die durch elektrische Heizung eines Stabes auftretende stationäre Temperaturerhöhung bestimmt wird. Man erhält auf diese Weise direkt das Verhältnis zwischen Wärme- und Elektrizitätsleitung, von dem allein die Temperaturverteilung in einem beliebig gestalteten Leiter ab- hängt, wenn die den elektrischen Strom zuführenden Elektrodenflächen auf kon- stanter Temperatur gehalten werden. Speziell für die Wärmeleitung in Kristallen ist von deS^narmont eine Methode angegeben und besonders von Voigt weiter ausgebildet worden, nach der man die Kurven, welche gleicher Temperatur ent- sprechen, auf irgendeine Weise, z. B. durch schmelzendes Wachs, sichtbar macht.

Die Bestimmung der Wärmeleitung in Flüssigkeiten und Gasen bietet durch die dabei leicht auftretenden Temperaturausgleiche infolge von Konvektion und Strahlung besondere Schwierigkeiten; die Methoden zur Messung müssen daher derart gewählt werden, daß diese Fehlerquellen nach Möglichkeit ausgeschlos- sen oder durch besondere Messung bestimmt werden, wie es z. B. von Kundt und Warburg bei der Messung der Wärmeleitung von Luft, Kohlensäure und Wasserstoff mittels der Abkühlung eines in eine Kugel eingeschlossenen Ther- mometers geschehen ist. Die Strahlung wurde hierbei durch Evakuieren der Kugel gesondert bestimmt.

Die bisher betrachteten sog. thermodynamischen Gesetze der Wärme- zanunmcnhang leitung gelten ganz unabhängig von jeder Vorstellung, die man sich über den^^^^^^t^n Vorgang der Wärmeleitung bilden kann, wie es in ähnlicher Weise auch bei den phy«kjü»chcn Gesetzen der Thermodynamik der Fall ist.

i86 W.Jaeger: Wärmelcitung

Eine tiefere Bedeutung gewinnen die sonst isoliert dastehenden Konstanten der Wärmeleitung durch den Zusammenhang mit anderen physikalischen Grö- ßen, der aber nur durch bestimmte Annahmen über die molekularen Vorgänge hergestellt werden kann.

Für die Gase besteht eine derartige Beziehung schon seit längerer Zeit ver- möge der kinetischen Gastheorie, welche annimmt, daß die Gasmoleküle mit einer mittleren Geschwindigkeit, welche von der Temperatur des Gases ab- hängt, in ungeordneter Bewegung sich durcheinander bewegen, wobei sie Zu- sammenstöße erleiden und ihre Geschwindigkeit z. T. austauschen; die mittlere Geschwindigkeit bleibt dabei ungeändert. Diese theoretischen Betrachtungen ergeben einen einfachen Zusammenhang der Wärmeleitung des Gases mit der Diffusionskonstante, bzw. mit der Konstante der inneren Reibung (vgl. Ar- tikel ii).

Bei den metallischen Leitern war schon lange Zeit eine gewisser Zusammen- hang zwischen der Wärme- und Elektrizitätsleitung bekannt. Nach dem Wie- demann-Franzschen Gesetz soll das Verhältnis der beiden Leitfähigkeiten eine Konstante sein, nach dem Lorenzschen Gesetz soll es außerdem propor- tional der absoluten Temperatur (d. h. der von 273® C aus gerechneten Tem- peratur) sein (vgl. Artikel 20). Beide Gesetze gelten allerdings, wie die Folge gezeigt hat, nur angenähert und auch nur für einige reine Metalle; bei tieferen Temperaturen, besonders in der Nähe des absoluten Nullpunkts, scheinen sie ungültig zu sein. Die erwähnte Kohlrauschsche Methode konnte zur Prüfung dieser Gesetze besonders vorteilhaft benutzt werden.

Durch Anwendung der sog. Elektronen theorie** gelang es Drude, diese Erscheinungen unter Zuhilfenahme besonderer Annahmen theoretisch zu be- handeln. Nach dieser Theorie ist sowohl die Wärmeleitung wie die Elektrizitäts- leitung auf die Elektronen zurückzuführen, welche innerhalb der Metalle die- selbe Beweglichkeit besitzen wie die Moleküle eines Gases. Die Moleküle des Metalls beteiligen sich dagegen an den erwähnten Vorgängen nicht. Die Wärme- leitung beruht auf einer Übertragung der Energie durch die Zusammenstöße der Elektronen; wirken außerdem noch elektrische Kräfte auf die Elektronen, so tritt zu der ungeordneten Bewegung des Wärmevorganges noch eine transla- torische Bewegung, welche dem elektrischen Strom entspricht, indem man an- nimmt, daß die Elektronen eine elektrische Ladung besitzen.

Die erwähnten Annahmen reichen allerdings nicht aus, um alle auf tretenden Erscheinungen in befriedigender Weise zu erklären; neuerdings ist diese Theorie durch die Untersuchungen über spezifische Wärme stark erschüttert worden.

9- WÄRMESTRAHLUNG.

Von Heinrich Rubens.

Unter den drei Arten der Wärmeübertragung: Strömung, Leitung und di© sonn© au Strahlung ist die letztgenannte für uns Erdbewohner die wichtigste. Kommt °*'^***" doch fast alle Energie, welche an der Oberfläche unseres Planeten umgesetzt wird, als Sonnenstrahlung zu. uns. Diese eingestrahlte Sonnenwärme hat zur Folge, daß sich an der Oberfläche der Erde, auch heute noch, eine für organisches Leben genügend hohe Temperatur herstellt. Sie bewirkt weiter die Strömungen des Meeres und der Atmosphäre, die Verdunstung des Wassers, die Bildung der Wolken und durch Vermittlung des Regens die Entstehung der Bäche und Flüsse. Aber sie bewässert nicht nur das Land, sondern sie liefert auch die für den Pflanzenwuchs nötige Energie, von welcher wir leben. Sie treibt unsere Wind- und Wassermühlen, die Dampfmaschinen unserer Fabriken und setzt unsere Dampfschiffe und Lokomotiven in Bewegung. Denn auch die Verbrennungs- wärme der Kohle, welche in der Dampfmaschine in mechanische Arbeit um- gesetzt wird, ist nichts anderes als aufgespeicherte Sonnenenergie. In vergan- genen Jahrmillionen hat die Sonnenstrahlung das Wachstum der Pflanzen be- wirkt, deren chemisch veränderte Überreste heute den Bestand unserer Kohlenlager bilden.

So werden durch Umwandlung der Sonnenstrahlung in andere Energie- formen an der Erdoberfläche die Bedingungen geschaffen, welche für unser Leben nötig sind. Nach Vollendung dieser Umwandlung wird die Energie von der Erde wieder in den Raum ausgestrahlt, wobei der Betrag der ausgestrahl- ten Energie dem der eingestrahlten fast genau gleich ist; wesentlich vermin- dert ist nur ihre Umwandlungsfähigkeit in andere Energieformen.

So groß der Einfluß ist, welchen die Wärmestrahlung auf unser Leben aus- straUang übt, so ist doch die Erkenntnis ihres Wesens ein ziemlich spätes Ergebnis °° * "**^' unserer Wissenschaft. Es geht dies schon aus der Tatsache hervor, daß man erst gegen Ende des 1 8. Jahrhunderts gelernt hat, zwischen Wärmestrahlung und Wärmeleitung scharf zu unterscheiden, wenigstens, soweit es sich um die dunkle Wärmestrahlung handelt.

Rein äußerlich tritt der Gegensatz zwischen diesen beiden Arten der Wärmefortpflanzung dadurch in die Erscheinung, daß bei der Leitung die Energieübertragung nur durch ein ponderables Zwischenmedium stattfinden kann, welches sich von der Wärmequelle bis zu der Beobachtungsstelle erstreckt, während die Strahlung zu ihrer Fortpflanzung keines ponderablen

i88 9. Heinrich Rubens: Wärmestrahlung

Zwischenmediums bedarf; im Gegenteil, sie gelangt gerade dann am reinsten zur Wirkung, wenn der Strahlungsübergang im Vakuum stattfindet. Ferner ist die Menge der übertragenen Wärme bei der Leitung, außer von den geome- trischen Abmessungen und der Natur des Zwischenmediums, hauptsächlich von der räumlichen Verteilung der Temperatur innerhalb desselben abhängig, während bei der Strahlung eine Temperaturänderung des Zwischenmediums überhaupt nicht einzutreten braucht. Endlich ist die Fortpflanzung der Wärme durch Leitung ein relativ langsamer, diejenige durch Strahlung ein ungemein schneller Vorgang (vgl. Artikel 8).

Zur Klärung des Sachverhalts haben insbesondere Versuche von Scheele, M. A. Pictet und Pr6vost beigetragen. Das Ziel dieser Versuche liegt in dem Nachweis, daß sich die Strahlung mit sehr großer Geschwindigkeit fortpflanzt und daß keine Erwärmung des Zwischenmediums stattfindet. Scheele, von welchem übrigens auch der Ausdruck ,, strahlende Wärme** herrührt, fand 1777, daß die Wärmestrahlung eines Feuers die Luft durchdringt, ohne sie merklich zu erwärmen, und daß Luftströmungen auf die Richtung der Wärmestrahlen keinen merklichen Einfluß ausüben. Pictet konnte 1790 zeigen, daß ein Thermometer, welches sich in dem Brennpunkt eines Hohlspiegels befand, dem ein zweiter in 69 Fuß Entfernung gegenüberstand, sofort zu steigen begann, wenn eine erwärmte Eisenkugel in den Brennpunkt dieses letzteren gebracht und ein zwischen beiden Hohlspiegeln befindlicher Schirm entfernt wurde. Pr^vost beobachtete 181 1, daß die Strahlung einer Wärmequelle durch eine Lamelle aus fließendem Wasser z. T. hindurchging. Noch beweiskräftiger für die Tatsache, daß das Zwischenmedium bei der Wärmeübertragung durch Strahlung keine Temperaturerhöhung zu erfahren braucht, ist der später er- brachte Nachweis, daß man Wärmestrahlen durch eine Linse aus Eis konzen- trieren kann.

Von hohem Interesse ist hier auch ein Versuch von Mariotte aus dem Jahre 1682, welcher zeigte, daß es möglich ist, Schießpulver mit Hilfe eines Hohlspiegels aus Eis zur Entzündung zu bringen. Wesen der Nachdem die Wärmestrahlung als ein von der Wärmeleitung prinzipiell

Liebt, and Verschiedener Vorgang allgemein anerkannt war, traten zwei wichtige Fragen wänneitraUen. j^^ ^^^ Vordcrgrund. Wie hatte man sich das Wesen dieser Strahlenart zu den- ken und in welcher Beziehung standen die thermisch beobachteten Wärme- strahlen zu den ihnen scheinbar so nahe verwandten Lichtstrahlen ? Von die- sen beiden Fragen, welche die Wissenschaft während des letzten Jahrhunderts beschäftigt haben, hat die zweite zuerst eine erschöpfende Beantwortung er- fahren, weil dies ohne exakte Vorstellung vom Wesen der Wärme und von dem physikalischen Charakter der Strahlung auf rein phänomenologischem Wege möglich war. Die Beantwortung der ersten Frage konnte aber mit einiger Aus- sicht auf Erfolg erst in Angriff genommen werden, nachdem die Wärme als eine Energieform erkannt, nachdem die elektromagnetische Natur des Lichtes entdeckt und nachdem eine gewisse Einsicht in den Bau der Atome und Mole- küle gewonnen worden war. Aber auch heute noch ist man weit davon entfernt,

Strahlungsmessung i3q

von dem Wesen der Strahlung eine völlig klare und nach allen Richtungen hin erprobte Vorstellung zu besitzen. Im folgenden soll von Untersuchungen die Rede sein, welche über diese Fragen einiges Licht verbreiten.

Um den Zusammenhang zwischen den Licht- und Wärmestrahlen zu erfor- Mefimstrumente. sehen, war es notwendig, die Eigenschaften der Wärmestrahlen einer genaueren Prüfung zu unterwerfen, und dazu waren die ursprünglich als Strahlungsemp- fänger verwendeten Flüssigkeitsthermometer zu unempfindlich. Besser be- währte sich eine von Leslie und Rumford eingeführte Form des Luftthermo- meters, welches, obwohl wesentlich empfindlicher als das Quecksilberthermo- meter, doch von den störenden Temperaturschwankungen des Beobachtungs- raumes weniger stark beeinflußt wurde. Als ein wirklich brauchbares Meß- instrument kann aber erst die im Jahre 1830 von Nobili konstruierte und von Melloni zuerst zu Strahlungsmessungen verwendete Thermosäule bezeichnet werden. Sie beruht auf der Umwandlung der durch Strahlung erzeugten Wärme in elektrische Energie mit Hilfe von Thermoelementen. Der erzeugte Strom wird durch ein empfindliches Galvanometer gemessen und aus der be- obachteten Stromstärke die Intensität der auffallenden Strahlung beurteilt. Es sind daher alle Verbesserungen, welche im Laufe der letzten 80 Jahre in dem Bau empfindlicher Galvanometer erzielt worden sind, auch der Strahlungs- messung zugute gekommen. Auch heute noch steht die Nobilische Thermo- säule bei geeigneter Ausführung an Empfindlichkeit und Genauigkeit hinter keinem anderen Meßinstrument zurück; aber es sind in den letzten 30 Jahren eine Reihe anderer Strahlungsmesser hinzugekommen, welche für manche spezielle Zwecke bequemer sind. Unter diesen ist das von|Svanberg und Langley erfundene Bolometer das wichtigste. Im Gegensatz zu der Thermo- säule wird bei dem Bolometer die Strahlungsenergie nicht direkt in elektrische Energie umgewandelt, sondern sie wird dazu benutzt, die Energie einer frem- den Energiequelle auszulösen, ähnlich wie ein telegraphisches Relais den Strom der Lokalbatterie betätigt. Man denke sich ein Galvanometer mit zwei voll- kommen gleichen aber in entgegengesetztem Sinne gewickelten Rollen versehen. Schickt man durch beide Spulen Ströme von gleicher Stärke, so zeigt die Mag- netnadel keinen Ausschlag, weil die magnetische Wirkung der beiden Spulen sich aufhebt. Wird aber nun der eine der beiden Ströme, etwa durch Vermehrung seines Widerstandes, um einen geringen Betrag geschwächt, so zeigt das Galvano- meter einen Ausschlag, dessen Größe außer von der Empfindlichkeit dieses Instru- ments nur von der Stärke der verwendeten Ströme und von dem Betrage der Widerstandsvermehrung abhängt. Bei dem Bolometer wird diese Widerstands- vermehrung dadurch herbeigeführt, daß ein in den Stromkreis eingeschalteter ge- schwärzter feiner Draht oder Blechstreifen von der zu messenden Strahlung ge- troffen wird. Der beobachtete Ausschlag ist dann erfahrungsgemäß der Intensität der auffallenden Strahlung proportional. Der wesentlichste Vorzug des Bolo- meters vor der Thermosäule besteht darin, daß man die Form des bestrahlten Widerstandes den Versuchsbedingungen in idealer Weise anpassen kann. Beson- ders wertvoll ist das Bolometer deshalb für Spektralmessungen, bei welchen ein

IQO 9- Heinrich Rubens: Wärmestrahlung

möglichst schmaler Strahlungsempfänger gefordert wird. Die Empfindlichkeit beider Meßinstrumente, der Thermosäule und des Bolometers, läßt sich er- heblich steigern, wenn man die bestrahlten Teile in einen luftleeren Raum einschließt.

Weitere Strahlungsmesser, welche in den letzten Jahrzehnten mit gutem Erfolge verwendet werden, sind das Radiometer von Crookes und das Mikro- radiometer von Boys. Beide Instrumente haben gegenüber der Thermosäule und dem Bolometer den Vorzug, daß man bei ihrer Benutzung keines Galvano- meters bedarf; aber sie sind an feste Aufstellungen gebunden und deshalb für manche Zwecke nicht anwendbar.

Bis zu welcher Höhe man die Empfindlichkeit der besprochenen Meß- instrumente heute entwickelt hat, geht z. B. aus der Tatsache hervor, daß man die Wärmestrahlung einer Kerze, welche in loo m Entfernung auf eine senkrecht zu den Strahlen stehende Fläche von i qcm fällt, leicht nachweisen kann. Auch ist es unter Benutzung geeigneter Hohlspiegel gelungen, die Wärmestrah- lung einiger Planeten und Fixsterne zu messen. Freilich wird die Empfindlichkeit auch der besten thermischen Strahlungsmesser durch die des Auges und der photographischen Platte noch weit übertroffen.

Disperdon der Bei dcr Bcurtcilung der Beziehungen zwischen Lichtstrahlen und Wärme- ^^E^Td^g "* strahlen konnte man sich auf einige Tatsachen stützen, deren Kenntnis bis in

dM oitraroteii ^jg^ Altertum zurückreicht. Daß die Wärmestrahlen ebenso wie die Lichtstrah-

Spektroms.

len an blanken Oberflächen nach den Reflexionsgesetzen gespiegelt und an der Grenzfläche durchsichtiger Medien nach dem Snelliusschen Gesetze gebrochen werden, bedurfte für die Physiker der neueren Zeit keines besonderen Beweises mehr, weil ja auf diesen Gesetzen die Brennwirkung der Hohlspiegel und Linsen beruht. Dagegen mußte durch besondere Versuche festgestellt werden, ob bei dem Durchgang der Wärmestrahlen durch ein Prisma ein der Farbenzer- streuung des Lichts entsprechendes Phänomen, eine Dispersion der Wärme- strahlen, beobachtet werden könne. Derartige Versuche sind im 1 8. Jahrhun- dert von Landriani und Rochon mit positivem Ergebnis ausgeführt worden. Sie zerlegten die Sonnenstrahlung durch ein Glasprisma und ließen in dem so gebildeten Spektrum ein empfindliches Thermometer von Farbe zu Farbe wan- dern. Sie fanden, daß in der Tat das Thermometer an allen Stellen des Spek- trums eine Temperaturerhöhung anzeigte, daß diese aber in den brechbareren Gebieten des Spektrums bedeutend geringer war als in Gelb und Rot. Dieser Versuch wurde von F. W. Her seh el im Jahre 1800 mit einer sehr bemerkens- werten Modifikation wiederholt. Herschel begnügte sich nicht damit, die ge- schwärzte Kugel seines Thermometers durch sämtliche Farben des sichtbaren Spektrums hindurch zu führen, sondern er brachte sie auch in den jenseits des roten Spektralendes gelegenen Raum, welcher von keinen sichtbaren Strahlen mehr getroffen wird. Auch dort zeigte das Thermometer eine Temperaturer- höhung an, und zwar eine größere als an der heißesten Stelle des sichtbaren Gebiets. Dagegen konnte in dem jenseits des Violett gelegenen dunkeln Räume nach dieser einfachen Methode keine Wärme nachgewiesen werden. Aber schon

Luft- und Wärmestrahlen

191

im darauffolgenden Jahre gelang es J. W. Ritter zu zeigen, daß auch jenseits des Violett noch Strahlen vorhanden sind, welche sich durch ihre chemische Wirkung bemerkbar machen.

Man war nach diesem Befunde geneigt, drei verschiedene Strahlenarten Di« drei anzunehmen, welche man als Lichtstrahlen, Wärmestrahlen und chemisch Amperes*" wirksame Strahlen bezeichnete, deren Spektren sich teilweise überdecken. Hypothese. Die drei Strahlenarten sollten nicht nur in ihrer Brechbarkeit sondern auch in ihrem Wesen voneinander verschieden sein. Diese Ansicht wurde z. B. 1832 von Brewster ausgesprochen. Demgegenüber behauptete Ampere in einer im Jahre 1835 erschienenen Arbeit, daß die Lichtstrahlen nichts anderes seien als sichtbare Wärmestrahlen. Unser Auge sei nur imstande, die Wärmestrahlen eines bestimmten Spektralgebiets als Licht wahrzunehmen, während es auf Strahlen von anderer Brechbarkeit nicht reagiere. In gleicher Weise hört das menschliche Ohr nur solche Töne, deren Schwingungszahlen innerhalb eines bestimmten Frequenzbereiches liegen, und ist für höhere und für tiefere Töne völlig unempfindlich.

Die Bedeutung und Fruchtbarkeit dieses von Ampere ausgesprochenen Gedankens wurde jedoch im Anfange von seinen Zeitgenossen nicht erkannt, und man findet seltsamerweise unter seinen Gegnern zwei Forscher, welche sich durch andere Arbeiten auf dem Gebiete der Wärmestrahlung große Ver- dienste erworben haben: Melloni und Forbes. Melloni glaubte u. a. ge- funden zu haben, daß man die Lichtstrahlung der Sonne von ihrer Wärmestrah- lung völlig trennen könne. Er ließ zu diesem Zweck die Sonnenstrahlen durch eine Wasserschicht und durch ein mit Kupferoxyd grün gefärbtes Glas hin- durchgehen und behauptete, daß die so filtrierte Strahlung trotz intensiver Helligkeit keine Spur von Wärmewirkung mehr auszuüben vermöchte. Wir wissen heute, daß diese Behauptung unrichtig ist, und daß Melloni die Wärme- wirkung der Strahlung bei Anwendung empfindlicherer Meßinstrumente nicht hätte entgehen können. Auch der von Forbes gegen die Amp Presche Hypo- these erhobene Einwand, daß das Mondlicht keine Wärme erzeuge, ist lediglich auf die unzureichende Empfindlichkeit der angewandten Meßinstrumente zu- rückzuführen.

Im Laufe der folgenden Jahrzehnte gewann jedoch die Ampere sehe Hypothese mehr und mehr an Beachtung, wozu sowohl die späteren Arbeiten von Melloni als auch die zahlreichen Untersuchungen von Knoblauch in erster Linie beigetragen haben. £^ gelang den Nachweis zu führen, daß alle Eigenschaften, welche wir an den Lichtstrahlen wahrnehmen, wie selektive Emission und Absorption, Interferenz und Beugung, Doppelbrechung und Po- larisation, auch an den Wärmestrahlen beobachtet werden können. Auf einem ähnlichen Wege ist man später auch zu der Überzeugung von der Wesensgleich- heit der chemisch wirksamen ultravioletten Strahlen und der übrigen Strahlen des Spektrums gelangt. Auch ist es durch Verfeinerung der Meßinstrumente längst gelungen, die Wärmewirkung der ultravioletten Strahlen nachzuweisen, so daß heute über die Richtigkeit der Amp Preschen Annahme kein Zweifel

IQ2 9 Heinrich Rubens: Wärmestrahlung

mehr bestehen kann. Die ultraroten, die sichtbaren und die ultravioletten Strahlen sind ihrer Natur nach vollkommen gleichartig und unterscheiden sich nur durch ihre Brechbarkeit, wie es die verschiedenen Farben des sichtbaren Spektrums in geringerem Maße tun. Spektrale Be- Wcshalb das meuschliche Auge nur einen eng begrenzten Teil des gesam-

Em^IdüchkTitten Spektrums wahrzunehmen vermag, läßt sich heute noch nicht mit Sicher- des Äuget, jj^j^. angeben. Vom entwicklungstheoretischen Standpunkte aus würde es ver- ständlich erscheinen, wenn das Sichtbarkeitsbereich auf denjenigen Teil des Spektrums beschränkt wäre, in welchem intensive Sonnenstrahlung vorhanden ist. Dies ist aber tatsächlich nicht der Fall. Zwar erscheint das Maximum der Intensität, wenn man das Sonnenspektrum nach gleichmäßig fortschreitenden Wellenlängen aufträgt, im sichtbaren Gebiet, doch ist diese Art der Darstellung durchaus willkürlich. Nach den Messungen Langleys entfallen fast zwei Drittel der Intensität der Sonnenstrahlung nach ihrem Durchgange durch die Erd- atmosphäre auf das ultrarote Spektrum und nur etwa ein Drittel auf das sicht- bare Gebiet, während die Energie des ultravioletten Spektrums hiergegen nicht in Betracht kommt. Um die Unempfindlichkeit unserer Augen für die starke ultrarote Strahlung der Sonne zu erklären, hat man nun früher angenommen, daß jene Strahlen in den brechenden Medien des Auges nahezu vollständig ab- sorbiert würden. In der Tat sind die Augenmedien sehr wasserhaltig und das Wasser läßt die ultraroten Strahlen nur in sehr geringer Menge hindurch, wenn die Dicke der eingeschalteten Schicht beträchtlich ist. Es hat sich jedoch er- geben, daß die Absorption der Augenmedien nicht ausreicht, um die unmittel- bar hinter dem roten Ende des Spektrums gelegenen Strahlen, welche in der Sonnenstrahlung sehr stark vertreten sind, wesentlich zu schwächen. Es würde vielmehr eine etwa i m dicke Wasserschicht notwendig sein, um die gesamte ultrarote Strahlung zu vernichten, derart, daß von der ursprünglich vorhande- nen Sonnenstrahlung nach ihrem Durchgang durch die Erdatmosphäre und durch jene Wasserschicht nur noch diejenige Strahlung in erheblicher Stärke zurückbliebe, welche wir als Licht empfinden. Wenn wir indessen beachten, daß die niedersten Wirbeltiere, welche ein nach Art des menschlichen Auges ge- bautes optisches Organ besitzen, nämlich die Fische, im Wasser leben, und wenn wir ferner annehmen, daß ein entwicklungsmäßiger Zusammenhang zwischen den niederen und höheren Wirbeltieren besteht, so könnte vielleicht auf diesem Wege eine Erklärung für die spektrale Wirkungsgrenze des menschlichen Auges gefunden werden. Farbe, Der Zusammenhang zwischen Farbe und Brechbarkeit des Lichtes ist be-

wdtenUtage^md ^^^^s vou Ncwtou aufgeklärt worden. Als später die Huygenssche Undula- ^^''^f^****^ tionstheorie zu allgemeiner Anerkennung gelangt war, hat Euler 1745 zuerst auf eine mögliche Beziehung zwischen Farbe und Schwingungszahl bzw. Wel- lenlänge des Lichtes hingewiesen. Aber erst im Anfange des 19. Jahrhunderts ist es Thomas Young und Fresnel gelungen, die Wellenlänge der verschie- denen Lichtsorten zu bestimmen. Die Umrechnung der Wellenlängen in Schwingungszahlen geschieht durch Division der ersteren in die bekannte

Spektrum igj

Fortpflanzungsgeschwindigkeit des Lichts. Meist begnügt man sich mit der Angabe der Wellenlänge in Luft, bzw. im Vacuum, wohl aus dem Grunde, weil diese Größe durch direkte Beobachtung erhalten wird.

Es wurde festgestellt, daß die am stärksten gebrochenen violetten Strahlen die kürzeste, die am wenigsten gebrochenen roten Strahlen die größte Wellen- länge besitzen. Wenn man den einheitlichen Charakter der Strahlung inner- halb des gesamten Spektrums im Auge behält und beachtet, daß die ultra- violetten Strahlen noch stärker, dagegen die ultraroten Strahlen noch schwächer gebrochen werden als alle sichtbaren Strahlen, so gelangt man zu dem Er- gebnis, daß die ultraroten Strahlen eine größere, dagegen die ultravioletten Strahlen eine kleinere Wellenlänge besitzen müssen als die Strahlen des sicht- baren Spektrums. Dem Sichtbarkeitsbereich des menschlichen Auges ent- spricht also ein bestimmtes Frequenzbereich der optischen Schwingungen. Die Analogie mit dem begrenzten Hörbereich des Ohres tritt hierdurch noch deutlicher in die Erscheinung.

Um das Wesen der Strahlung möglichst vollständig zu ergründen, ist eine Erforschung des gesamten Spektrums notwendig. Aus diesem Grunde bildet die Untersuchung der ultravioletten und ultraroten Strahlen eine der wich- tigsten Aufgaben der neueren Physik. Zu den charakteristischen Eigenschaften der Strahlen gehört in erster Linie ihre Wellenlänge. Derartige Messungen kön- nen auch im unsichtbaren Spektralgebiet mit Hilfe eines Fr aunhof ersehen Beugungsgitters erfolgen, welches im sichtbaren Spektrum die besten Wellen- längenbestimmungen ermöglicht. Es braucht hier auf die Einrichtung und Wir- kungsweise dieses wichtigen optischen Instruments nicht näher eingegangen zu werden (vgl. Artikel 26). Es genügt, hervorzuheben, daß auch das Gitter, wenn es an Stelle des Prismas in einem Spektralapparat verwendet wird, imstande ist, die auffallende Strahlung spektral zu zerlegen. Allerdings sind die Unter- schiede in der Wirkung des Prismas und Gitters sehr erhebliche. Das Prisma Pnsma ergibt ein einziges Spektrum, in welchem, wie wir gesehen haben, die lang- welligen Strahlen am wenigsten, die kurzwelligen am meisten abgelenkt sind. Zwischen der Größe der Ablenkung und der Wellenlänge besteht keine einfache Beziehung. Dieselbe muß für jedes Prisma besonders ermittelt werden. Das Gitter dagegen liefert eine große Zahl von Spektren, welche um ein mittleres nicht zerstreutes Spaltbild symmetrisch gruppiert sind. In jedem Spektrum ist der Sinus des Ablenkungswinkels der Strahlen ihrer Wellenlänge direkt pro- portional. Hieraus folgt, daß die Farbenzerstreuung in den einzelnen Spektren um so größer sein muß, je weiter sie von dem unabgelenkten Zentralbilde ent- fernt sind. Wenn wir die Gitterspektra mit Ordnungsnummern versehen, welche bei dem Zentralbild mit 0 beginnen und mit zunehmendem Ablenkungs- winkel fortschreiten, so ist die Farbenzerstreuung der Ordnungszahl direkt proportional, zugleich aber nimmt die Intensität mit wachsender Ordnungszahl rasch ab.

Man hat bei Anwendung des Gitters den großen Vorteil, daß die Wellen- weUeniängcn. länge der Strahlen aus ihrer Lage im Spektrum ohne weiteres berechnet wer- j^ ,I^SdS>areu

K.d.G.m.ni,Bdz Physik 13 Spektrum.

194 9- Heinrich Rubens: Wärmestrahlung

den kann. Dagegen ist die Strahlungsintensität der Gitterspektra, selbst in den Spektren erster Ordnung im Verhältnis zu derjenigen des prismatischen Spektrums im allgemeinen eine sehr geringe. Noch größere Schwierigkeiten aber bereitet der Umstand, daß die Gitterspektren verschieden hoher Ord- nung sich überdecken, so daß auf ein Meßinstrument, welches auf eine be- stimmte Wellenlänge X des Spektrums erster Ordnung eingestellt ist, nicht nur

diese Wellenlänge X, sondern zugleich auch die Wellenlänge des Spektrums

zweiter Ordnung, des Spektrums dritter Ordnung usf. fällt. Handelt es sich

um die Untersuchung einzelner scharfer Spektrallinien, so ist der letztgenannte Nachteil im allgemeinen nicht sehr bedeutend, weil es fast immer leicht gelingt, festzustellen, welchem Spektrum die beobachtete Linie angehört. Im kurz- welligen Ultraviolett wird man sich insbesondere eines Gitters mit Vorteil bedienen, weil hier das Spektrum vorwiegend aus einzelnen scharfen Linien besteht. Dagegen ist die Untersuchung kontinuierlicher Spektra, welche be- sonders im ultraroten Spektralbereich sehr intensiv sind, aus dem genannten Grunde mit Hilfe des Beugungsgitters außerordentlich schwierig. Man ist in solchen Fällen fast ausschließlich auf das prismatische Spektrum angewiesen, welches zuvor auf Wellenlängen geeicht werden muß. Solche Eichungen sind zuerst im Ultrarot 1847 von Fizeau und Foucault und im Ultraviolett 1856 von Esselbach ausgeführt worden. In beiden Fällen wurde eine Interferenz- methode (vgl. Artikel 26) zur Anwendung gebracht, welche auf der Verwertung sog. Talbot scher Streifen beruht. Diese werden erzeugt, indem man zwei von derselben Lichtquelle stammende sog. kohärente Strahlenbündel, welche einen kleinen Gangunterschied b besitzen, auf den Spalt eines Spektrometers fallen läßt. In dem beobachteten Spektrum tritt dann eine Zahl vertikaler Interferenz- streifen auf. Es fehlen nämlich alle diejenigen Farben, deren Wellenlängen X der Gleichung genügen 26

2«— I

Hierin bedeutet n eine ganze Zahl. Sie wird die Ordnungszahl des Streifens ge- nannt. Sie nimmt von Streifen zu Streifen mit wachsender Wellenlänge um eine Einheit ab. Da die Wellenlängen im sichtbaren Gebiet bekannt sind, so kann man für die dort beobachteten Streifen die Ordnungszahl n und außer- dem den Gangunterschied b berechnen. Auch im unsichtbaren Spektrum kann die Lage der Talbotschen Streifen beobachtet werden, wenn man das Auge durch ein geeignetes Meßinstrument, etwa eine Thermosäule im Ultrarot oder eine photographische Platte im Ultraviolett, ersetzt. Von den bekannten Strei- fen des sichtbaren Gebiets ausgehend, erhält man dann durch einfache Abzah- lung die Ordnungszahl des betreffenden ultraroten oder ultravioletten Streifens. Aus der Ordnungszahl n und dem bekannten Gangunterschied b berechnet sich nach der oben angegebenen Formel die zugehörige Wellenlänge X.

Im Vergleich zu den Größen, mit welchen wir es im praktischen Leben meist zu tun haben, sind die Wellenlängen des Lichts sehr klein. Man hat des- halb als Längeneinheit für dieselben das Mikron ^ = 0,001 mm eingeführt. So

Wellenlängenmessung ^ i qj

ist z. B. die Wellenlänge des gelben Lichtes der Natriumlinie X = 0,589 11 = 0,000589 mm. Den äußersten Grenzen des sichtbaren Spektrums würde etwa im Rot die Wellenlänge 0,8 ]ii, im Violett die Wellenlänge 0,4 ix entsprechen. Nach der in der Akustik üblichen Ausdrucksweise können wir diese Tatsache in der Form aussprechen, daß der gesamte Umfang des sichtbaren Gebiets nur eine Oktave beträgt. Die Versuche von Foucault und Fizeau erweiterten dieses Gebiet nach der ultraroten Seite bis zur Wellenlänge i,45|üi, diejenigen von Esselbach im Ultraviolett bis 0,35 jn, so daß das gesamte damals durch- messene Spektrum etwa zwei Oktaven umfaßte.

Seit der Mitte des 1 9. Jahrhunderts sind nun sowohl in der Erforschung v.Schamaans des ultravioletten als auch des ultraroten Gebiets sehr große Fortschritte zu s. p. Langieys verzeichnen, welche zu einer mächtigen Erweiterung des bekannten Spektrums v«'^~«*«- geführt haben. Als Pioniere der Forschung haben sich insbesondere V. Schu- mann im Ultraviolett und S. P. Langley im Ultrarot hervorgetan.

Durch unausgesetzte Bemühungen ist es V. Schumann gelungen, auf photographischem Wege bis zur Wellenlänge 0, 1 3 jn vorzudringen. Die Schwierig- keiten dieser Untersuchung waren außerordentlich große, weil die gewöhnlichen photographischen Platten auf kürzere Wellen als ca. 0,18 ji kaum noch res^ie- ren. Außerdem absorbiert die atmosphärische Luft das kurzwellige Ultravio- lett jenseits dieser Grenze nahezu vollständig. Es war deshalb zur Aufnahme dieses kurzwelligen Spektralgebietes nötig, besonders präparierte photographi- sche Platten zu benutzen, und alle spektroskopischen Messungen mußten in einem möglichst vollkommenen Vakuum vorgenommen werden. Schumanns Wellenlängenangaben sind nicht sehr genau; indessen sind diese Messungen in neuester Zeit durch A. Lyman unter Benutzung eines Beugungsgitters wiederholt und bis zur Wellenlänge X = 0,103 ji ausgedehnt worden. Dies ist die kürzeste bisher gemessene Welle des auf optischem Wege erzeugten Spektrums.

In der Erforschung des ultraroten Spektrums bezeichnen die Arbeiten Langleys eine neue Epoche. Durch Einführung des Bolometers, durch Ver- feinerung der Spiegelgalvanometer und durch Konstruktion von Spektral- apparaten, welche für die Untersuchung des ultraroten Spektrums besonders geeignet sind, hat Langley nicht nur sich selbst, sondern auch seinen Nach- folgern die Wege der Forschung geebnet. Seine Wellenlängenmessungen sind diesen verbesserten Hilfsmitteln entsprechend viel genauer als die seiner Vor- gänger und erstreckten sich bereits im Jahre 1886 bis X = 5,3 jn, also bis zu der neunfachen Wellenlänge der gelben Natriumlinie. Zur Erzeugung des Spek- trums bediente er sich nach dem Vorgange Mellonis eines Prismas aus Stein- salz, einer Substanz von besonders hoher Durchlässigkeit für ultrarote Strahlen. Die Messung der Wellenlängen, welche den verschiedenen Ablenkungswinkeln des Steinsalzprismas entsprechen, geschah nach einer Methode, deren Prinzip von P. Desains und P. Curie herrührt, welche aber von Langley außeror- dentlich verbessert worden ist. Ein schmaler Streifen des prismatischen Spek- trums wurde durch Blenden isoliert und die mittlere Wellenlänge dieses eng begrenzten Spektralgebiets mit Hilfe des Beugungsgitters gemessen. Derartige

13*

IQÖ 9. Heinrich Rubens: Wännestrahlung

Messungen wurden an vielen Stellen des prismatischen Spektrums vorgenom- men und dadurch die zu einem jeden Ablenkungswinkel gehörige Wellenlänge ermittelt. Langleys Hauptverdienst besteht in einer äußerst sorgfältigen Durchforschung des ultraroten Sonnenspektrums. Durch Einrichtung eines automatisch registrierenden Spektralbolometers ist es ihm schließlich gelungen, die ultraroten Fraunhoferschen Linien des Sonnenspektrums und die Ab- sorptionsgebiete der atmosphärischen Gase mit fast derselben Genauigkeit zu messen, mit der dies in dem sichtbaren und ultravioletten Gebiete geschehen ist, in welchem die photographische Methode angewendet werden kann.

Nach der von Langley angegebenen Methode ist es Paschen 1894 ge- lungen, die Wellenlängenmessung in dem mit Hilfe eines Flußspatprismas ent- worfenen Spektrum bis 9,3 ji weiterzuführen und im Jahre 1897 sind ähnliche Messungen unter Benutzung von Steinsalz- und Sylvinprismen sogar bis zur Wellenlänge 23 ji ausgeführt worden. Einem weiteren Vordringen wurde jedoch GwMo durch die Absorption der Prismensubstanz eine unüberschreitbare Grenze gesetzt, metrischen Da die bcnutztcn Materialien, Flußspat, Steinsalz und Sylvin für Wärmestrah- Methode. ^^^ durchlässigcr sind als alle anderen Substanzen, aus welchen sich Prismen von genügender Größe und Reinheit herstellen lassen, und da aus praktischen Gründen das Prisma bei der Aufnahme kontinuierlicher Spektra im Ultrarot durch das Beugungsgitter nicht ersetzt werden kann, so bedeutet die erhaltene Wellenlänge von 23 ji zugleich die mit den heutigen Mitteln erreichbare Grenze der spektrothermometrischen Methode. Nach diesem Ergebnis umfaßt die spektrometrische Methode heute das Wellenlängenbereich von 0,1 ji bis 23 )i oder nahezu acht Oktaven des gesamten Spektrums. Eis entspricht also an Umfang der Tonskala eines modernen Konzertflügels. Dieses Resultat ist je- doch noch nicht befriedigend, weil in der Gesamtemission eines jeden heißen Körpers Strahlen in merkbarem Betrag vorhanden sind, welche außerhalb jenes Spektralbereichs liegen und daher durch die spektrometrische Methode nicht isoliert und beobachtet werden können. Die Untersuchung eben dieser Strahlen von großer Wellenlänge bietet aber, wie später gezeigt werden wird, ganz besonderes Interesse. Zu ihrer Aussonderung hat sich ein Verfahren als nützlich erwiesen, welches auf folgender Überlegung beruht. Methode der Maxwcll uud Scllmeicr haben zuerst darauf hingewiesen, daß die Dis- Restsirahien. pgj-siQn durchsichtigcr Mcdicn ZU ihrer selektiven Absorption in naher Beziehung steht, und letzterer hat gezeigt, in welcher Weise man aus der spektralen Lage der Absorptionsstreifen den Gang der Dispersion in jedem Medium berechnen könne. Auf ähnlichem Wege sind Ketteier und Helmholtz zu einer Disper- sionsformel gelangt, welche durch die Erfahrung im weitgehenden Maße bestätigt wird (vgl. Artikel 26). Als Konstanten treten in dieser Formel u.a. die charakte- ristischen Wellenlängen der Absorptionsstreifen und die Dielektrizitätskonstante des Mediums (vgl. Artikel 13) auf. Innerhalb eines Spektralgebiets, in welchem das untersuchte Medium durchlässig ist, läßt sich die Dispersion durch die Ke t- teler-Helmholtzsche Formel meist mit genügender Annäherung darstellen, wenn man nur die beiden, das betreffende Durchlässigkeitsgebiet nach der ultra-

Langwelliges Spektrum igy

violetten und ultraroten Seite begrenzenden Absorptionsstreifen berücksichtigt. Es ist leicht verständlich, daß man auch umgekehrt aus dem beobachteten Ver- lauf der Dispersion in jenem Gebiet die Lage des ultravioletten und ultraroten Absorptionsstreifens berechnen kann. Man hat diese Rechnung für Flußspat, Steinsalz und Sylvin ausgeführt und für die Mitte des ultraroten Absorptions- streifens die Wellenlängen 35 ]ii, 56 ]ii und 67 ix erhalten. Diese Absorptions- streifen liegen also weit jenseits der spektrometrisch erreichbaren Grenze.

Nun lehrt die Theorie absorbierender Medien, daß das Reflexionsvermögen einer Substanz, welches sowohl von dem Brechungsexponenten als auch von dem Absorptionsvermögen abhängt, in der Nähe eines Absorptionsstreifens besonders hohe Werte annehmen muß, ähnlich denjenigen, welche wir bei den Metallen im sichtbaren Spektrum beobachten. Zwar liegt das Maximum des Reflexionsvermögens nicht genau an der Stelle der stärksten Absorption, son- dern bei etwas kleineren Wellenlängen, wenn es sich um sehr intensive Absorp- tionsstreifen handelt; aber man kann dennoch aus der berechneten Lage des Absorptionsstreifens mit einiger Sicherheit voraussehen, an welcher Stelle des Spektrums die betreffende Substanz metallische Reflexion besitzen muß.

Dieses auf ein enges Spektralbereich beschränkte hohe Reflexionsver- mögen der Stoffe kann zur Aussonderung einzelner langwelliger Strahlenkom- plexe aus der Gesamtstrahlung einer Lichtquelle in folgender Weise verwendet werden. Man läßt die von der Lichtquelle ausgehenden Strahlen so oft an Spie- geln aus der gleichen Substanz reflektieren, daß man nur den metallisch reflek- tierten Strahlungsanteil in meßbarer Stärke zurückbehält. Da das Maximum des Reflexionsvermögens in der Mitte des metallischen Streifens meist 20 bis 30 mal höher ist als in dem kurzwelligen Spektrum, in welchem die Substanz geringe Absorption besitzt, so genügen zur Aussonderung des langwelligen Strahlenkomplexes meist vier bis fünf Reflexionen, um die nicht metallisch reflektierten Strahlen bis zur Unmerklichkeit abzuschwächen. Die nach dieser Methode ausgesonderten Strahlenkomplexe bezeichnet man als Reststrahlen. Ihre spektrale Zusammensetzung hängt fast nur von der chemischen Beschaffen- heit der reflektierenden Substanz ab und wird durch die Natur der Strahlungs- quelle erfahrungsgemäß nur wenig beeinflußt. Man pflegt deshalb die Rest- strahlen nach dem Material der reflektierenden Flächen zu benennen.

Es hat sich ergeben, daß die Reststrahlen vieler Substanzen aus mehreren Strahlenbündeln bestehen, welche verschiedenen Gebieten des ultraroten Spek- trums angehören. Dies läßt auf das Vorhandensein mehrerer Absorptionsstreifen im langwelligen Spektrum schließen. Jedoch hat sich bei einer Reihe ein- facher, regulär kristallisierender Halogenverbindungen mit zweiatomigem Molekül nur ein einziges Gebiet metallischer Reflexion im ultraroten nach- weisen lassen. Einige dieser Reststrahlengruppen erscheinen zwar bei näherer Untersuchung als Doppelstreifen. Es hat sich jedoch gezeigt, daß diese Ver- doppelung nur eine scheinbare ist, und von einem Absorptionsstreifen des Wasserdampfs der Zimmerluft herrührt.

Von ultravioletter Strahlung ist bei den Reststrahlen schon deshalb im,

198

9. Heinrich Rubens: Wärmestrahlung

QaarxUnsen- methode.

allgemeinen nichts zu bemerken, weil die Strahlungsintensität der verwendeten Lichtquellen in dem kurzwelligen Spektralbereich, in welchem der ultraviolette Absorptionsstreifen liegt, verschwindend gering ist.

In der folgenden Tabelle sind die mittleren Wellenlängen einiger Rest- strahlengruppen zusammengestellt. Die mit Hilfe der Ketteler-Helmholtz- schen Dispersionsformel berechneten Werte für die Wellenlänge des ultraroten Absorptionsstreifens sind in der letzten Spalte angegeben.

Reststrahlen von

Mifcdora WeUenlängo

der Reststrablengrappen

beobachtet

Aas der Dispersion

beredinete WcJlenllnge

des oltruoten

Absorptionsgebiets

Flußspat

Steinsalz

Sylvin

Chlorsiiber

Bromkalium

Thalliumchlorür . . .

Jodkalium

Bromsilber

Thalliumbromür . . . Thalliumjodür ....

24,0 |Ll und 31,6 |Ll

52.0 M

63,4

81,5 " 82,6

91,6,.

94.1

"2,7,.

"7.0,, 15^8,,

35 M 67 M

Die hier aufgeführten Reststrahlengruppen umfassen, wie man sieht, mehr als zwei Oktaven des langwelligen ultraroten Spektrums, welches durch die spektro- metrische Methode nicht mehr erreichbar ist. Ein weiteres Vordringen in das ultrarote Spektralgebiet mit Hilfe der Reststrahlenmethode ist aber wegen der geringen Strahlungsintensität mit großen Schwierigkeiten verbunden.

Dagegen hat sich eine andere Methode zu diesem Zwecke als geeignet er- wiesen, welche imGegensatz zu der Reststrahlenmethode nicht auf der Benutzung der selektiven Reflexion, sondern auf der Verwendung der selektiven Brechung und Absorption beruht. Die dieser Methode zugrunde liegenden Tatsachen sind freilich erst durch die Versuche mit langwelligen Reststrahlen erkannt worden. Es hatte sich nämlich ergeben, daß der Bergkristall, welcher im ultra- violetten und sichtbaren Spektrum sehr durchlässig ist, aber im Ultrarot jen- seits 4 |i seine Durchlässigkeit verliert, für die langwelligen Reststrahlen wieder eine mit der Wellenlänge langsam wachsende Durchlässigkeit aufweist. Ferner ist sein Brechungsexponent für diese langen Wellen so viel größer als für die Strahlen seines kurzwelligen Durchlässigkeitsgebiets, daß ein Quarzprisma jene langwelligen Strahlen mehr als doppelt so stark ablenkt als die gewöhnlichen Licht- und Wärmestrahlen. Man kann daher leicht jenes langwellige Gebiet von dem kurzwelligen mit Hilfe eines Quarzprismas trennen. Noch bequemer aber wird dieses Ziel durch Anwendung einer Sammellinse aus Quarz erreicht. Man denke sich eine solche Quarzlinse einer Strahlungsquelle so nahe gebracht, daß ihre Entfernung etwas geringer ist als ihre optische Brennweite. Dann werden die Lichtstrahlen und gewöhnlichen Wärmestrahlen nach ihrem Durch- gang durch die Linse ein schwach divergentes Strahlenbündel bilden, während

Langwelliges Spektrum igo

die langwelligen Strahlen infolge ihres hohen Brechungsexponenten hinter der Linse zu einem reellen, wenn auch natürlich unsichtbaren Bilde der Lichtquelle vereinigt werden. Bringt man an die Stelle des Raumes, an welcher dieses reelle Bild entsteht, einen für Strahlung undurchlässigen Schirm, der mit einer kleinen Öffnung versehen ist, welche gerade ausreicht, um jenes Bild aufzu- nehmen, so können durch dieses Loch die langwelligen Strahlen ungeschwächt hindurchtreten, während die kurzwelligen Wärmestrahlen nahezu vollständig von dem Schirme zurückgehalten werden. Durch Wiederholung dieses Isolier- verfahrens mit Hilfe einer zweiten Quarzlinse erhält man den langwelligen Strahlungsanteil in vollkommener Reinheit.

Die auf diese Weise ausgesonderte Strahlung ist freilich sehr unhomogen LangweUige und erstreckt sich über ein weites Spektralgebiet, welches nach Seite der kurzen ^^"^„trl Wellen durch die Absorption des Quarzes, nach der langwelligen Seite durch «^ ^^«u**"' die mit wachsender Wellenlänge abnehmende Strahlungsenergie der Lichtquelle lamp«. begrenzt wird. Die spektrale Lage des isolierten Strahlenbündels muß also bei Anwendung der Linsenmethode wesentlich von der Natur der benutzten Strah- lungsquelle und von der Dicke der im Strahlengange befindlichen Quarzschicht abhängen. Bei Anwendung eines Auerbrenners als Lichtquelle und einer Linsen- anordnung, in welcher die Dicke der eingeschalteten Quarzschicht 2 cm be- trug, wurde eine Strahlung erhalten, welche bei ca. 8o ^ beginnend ein Maxi- mum bei ca. lOO \i aufwies und dann langsam nach Seite der langen Wellen an Intensität abnahm, so daß sie bei 200 jn noch etwa ein Zehntel ihrer Maxi- malintensität besaß. Wurde in der gleichen Anordnung der Auerbrenner dqrch eine Quarz- Quecksilberlampe ersetzt, so erhielt man eine noch viel langwelli- gere Strahlung, welche hauptsächlich aus zwei Teilen bestand, deren Energie- miaxima bei 218 )i und 342 jn gelegen waren. Diese Emissionsbanden rühren, wie sich zeigen läßt, von dem leuchtenden Quecksilberdampf her.

Die langwelligen Emissionsbanden des Quecksilberdampfs bilden die äußer- ste Grenze des bisher erforschten ultraroten Spektrums. Die Wellenlänge des zweiten Maximums ist ca. 580 mal größer als diejenige der gelben Natriumlinie und übertrifft die von Lyman gemessenen Wellenlängen im äußersten Ultra- violett um das 3500fache.

Wollte man das gesamte Spektrum in dieser Ausdehnung nach gleich- Graphische mäßig fortschreitenden Wellenlängen graphisch darstellen und den Maßstab ^et*gosa^la so wählen, daß das sichtbare Gebiet von X = 0,4 |i im Violett bis X = 0,8 |i spektram.. im Rot eine Länge von einem Meter einnimmt, so würden die äußersten ultra- violetten Strahlen Lymans 75 cm links von der violetten Grenze des sicht- baren Gebiets, die zweite langwellige Emissionsbande des Quecksilberdampfs dagegen ca. 850 m rechts von der roten Grenze des sichtbaren Spektrums ein- zutragen sein. Eine derartige Darstellung nach gleichmäßig fortschreitenden Wellenlängen gibt jedoch von der relativen Ausdehnung der einzelnen Spektral- gebiete kein ganz richtiges Bild. Es entspricht nämlich einer gegebenen Ver- kleinerung oder Vergrößerung der Wellenlänge im Ultraviolett eine viel größere

Änderung der spektralen Eigenschaften der Körper als im Ultrarot. In der

200

9. Heinrich Rubens: Wärmestrahlung

Darstellungsweise nach gleichmäßig fortschreitenden Wellenlängen würde also das Ultrarot gegenüber dem Ultraviolett einen viel zu großen Raum einnehmen. Aus dem entgegengesetzten Grunde aber wäre eine Darstellung des Spektrums nach gleichmäßig fortschreitenden Schwingungszahlen zu verwerfen, weil eine gegebene Änderung der Schwingungszahl einen viel größeren Einfluß auf die spektralen Eigenschaften im Ultrarot ausübt als im Ultraviolett. Hier würde

also das Ultraviolett dem Ultrarot gegenüber ungebührlich bevorzugt sein. Frei von diesen Übelständen ist die in der Akustik übhche Ein- teilung nach Oktaven, deren wir uns in dem Vorausgehenden schon mehr- fach bedient haben. Ihr entspricht eine Darstellung des Spektrums nach gleichmäßig wachsenden Logarith- men der Wellenlängen bzw. nach gleichmäßig abnehmenden Loga- rithmen der Schwingungszahlen.

Wir wollen nach diesem Schema ein Bild des gesamten Spektrums entwerfen. In nebenstehender Figur sind die einzelnen Oktaven des Spek- trums in gleicher Größe vertikal übereinander aufgetragen und es sind einige charakteristische An- gaben hinzugefügt. Diejenige Ok- tave, welche dem sichtbaren Ge- biet entspricht, trägt die Ordnungsnummer o. Die Oktaven des ultraroten Spektrums sind mit positiven, diejenigen des ultravioletten Spektrums mit negativen Ordnungsnummern versehen. Außerdem sind auf einer neben der Oktavenachse angebrachten Parallellinie die Wellenlängen der eingezeichneten charakteristischen Punkte angegeben. Wie man sieht, schUeßen sich an das sichtbare Gebiet zwei Oktaven der ultravioletten und neun Oktaven des ultra- roten Spektrums an, so daß das gesamte Spektrum der Wärmestrahlen, welches heute der Beobachtung zugänglich ist, zwölf Oktaven umfaßt, von welchen etwa acht durch die spektroskopische Methode erschlossen worden sind. Von den übrigen vier Oktaven hat man durch die Reststrahlen- und Quarzlinsenmethode Kenntnis erhalten. In der Zeichnung sind die Reststrahlen von Steinsalz und Jodkalium sowie die langwelligen Emissionsbanden des Quecksilberdampfs ein- getragen, um einen Begriff von der Inhomogenität dieser Strahlen zu geben. Als Durchlässigkeitsgrenze der in der Figur näher bezeichneten Medien ist diejenige Stelle des Spektrums bezeichnet, bei welcher eine Schicht von i cm Dicke die auf- fallende Strahlung etwa auf ein Zehntel ihrer Anfangsintensität schwächt. Die übrigen Angaben des Diagramms sind ohne weitere Erläuterungen verständlich.

LTinaa 1906 Schiunazin 1893 DnrcUäasigkotttgreaxe der Luft

DorcUässigkeitsgreiise des Gütaes

Violett \ ,

} Siebtbares Spektmm Rot j

DarcUlssig^keitsgrenxe des GUaes Laaglej x886

Durcbläsd^keitsgrenxe des Flufi- Spats (Paseben 1894)

DorcbUssigkeltsgreiixe des Sylvias (Rabens o. Nicbols 1896)

Reststr. t. Steinsals (Rabens a. Asdlikinass 1898)

Reststr. v. JodkaUom (Robeas o. HoUnagd x9K>)

(Emissionsbaadea des Qnedcsüber- dampb (Rabens a. t. Baeyer 191 z)

i Unbekazintes Spektram

O. V. Baeyer 19x1

1897 Lebedew 1895

Strahlungstheorien 2 o i

Es soll nun kurz dargelegt werden, inwiefern das Studium des ultravio- letten und ultraroten Spektrums dazu beigetragen hat, unsere Auffassung von der Natur des Strahlungsvorganges zu klären.

Die Vorstellung, welche wir von dem Wesen der Strahlung besitzen, ver- Bedenken gegen danken wir in erster Linie Christian Huygens und Clerk Maxwell. Huy- undniations* gens hat zuerst die Wellentheorie des Lichts gelehrt. Seine Undulationstheorie von*^rgen». ist in dem harten Kampfe gegen die Emissionshypothese siegreich geblieben, und sie war imstande, durch fast zwei Jahrhunderte das mächtig anwachsende Tatsachenmaterial rechnerisch in befriedigender Weise darzustellen. Indessen zwang die Undulationstheorie in ihrer ursprünglichen Form als elastisch-opti- sche Lichthypothese ihre Bekenner zu einem Dilemma. Denn sie war ge- nötigt, den allen Raum erfüllenden Äther als festen Körper zu behandeln, um die transversale Natur der Lichtschwingungen zu erklären, während doch bekanntermaßen die Körper bei ihrer Bewegung durch den leeren Raum keinen meßbaren Widerstand erfahren.

Diese Schwierigkeit wurde erst durch die Einführung der elektromagne- Maxwdii tischen Lichttheorie Maxwells beseitigt. Nach Maxwells Auffassung ist magnetische das Licht ein elektromagnetischer Vorgang. Zu diesem weittragenden Schluß l**^^"^®^'*** kam der englische Forscher auf Grund der folgenden Überlegung: Sowohl in der Lehre von der Elektrizität und dem Magnetismus als auch in der Lehre vom Licht ist zur Erklärung der Tatsachen ein den Raum erfüllendes Me- dium notwendig, welches als „Äther** bezeichnet wird. „Ei wäre** - so sagt er in seinem großen Lehrbuche der Elektrizität und des Magnetismus ,, philosophisch nicht zu rechtfertigen, wollte man, so oft es eine neue Erschei- nung zu erklären gibt, auch den ganzen Raum mit einem neuen Medium füllen.** Ist aber die Identität des elektromagnetischen und des optischen Äthers erst einmal ausgesprochen, so liegt es nahe, das Licht als eine elektro- magnetische Erscheinung aufzufassen.

Maxwell selbst konnte zur Stütze seiner Theorie außer ihrer inneren Klar- heit und Konsequenz nur wenige Tatsachen anführen; darunter aber war eine von großer Wichtigkeit. Nach dejn zuverlässigsten damals vorliegenden Be- stimmungen war die Fortpflanzungsgeschwindigkeit des Lichtes mit der Aus- breitungsgeschwindigkeit elektrischer und magnetischer Störungen im freien Raum in Übereinstimmung gefunden worden. Ferner konnte Maxwell aus seiner Theorie die Beziehung herleiten, daß das Quadrat des Brechungsexpo- nenten gleich der Dielektrizitätskonstanten sein müsse. Auch diese Beziehung wurde bei manchen Stoffen, insbesondere bei den Gasen durch die Erfahrung bestätigt, wenn man den Brechungsexponenten n für Lichtwellen und die Di- elektrizitätskonstante k für statische Ladungen in die Formel n* = Ä einsetzte. Bei der Mehrzahl der Stoffe freilich ergab sich auf diesem Wege keine befrie- digende Übereinstimmung. Eine weitere Schwierigkeit der Theorie bestand darin, daß die aus dem elektrischen Leitvermögen der Metalle berechnete Durchsichtigkeit einen ganz anderen Wert ergab als die optisch beobachtete.

Trotz ihres hohen inneren Wertes wurde die Max well sehe Theorie in den

202 9- Heinrich Rubens: Wärmestrahlung

ersten Jahrzehnten ihres Bestehens außerhalb Englands nur wenig beachtet. Hierzu mag sowohl die mangelhafte Übereinstimmung zwischen Theorie und Experiment als auch die Neuheit und Schwierigkeit der in jener Theorie ent- haltenen Gedankengänge beigetragen haben. Erst Heinrich Hertz ist es in den achtziger Jahren des verflossenen Jahrhunderts gelungen, die elektro- magnetische Lichttheorie durch eine Reihe von glänzenden Experimenten sicherer zu begründen und ihr allgemeine Anerkennung zu verschaffen. Ihre qoautative Der den Hertzschen Versuchen zugrunde liegende Gedanke war sehr ein-

Bostätigang . o o

durch fach. Sind die Lichtschwingungen elektromagnetischer Natur, so muß eine Hemnch Hert«. Lichtquelle ein Körper sein, welcher elektromagnetische Wellen aussendet, also selbst elektromagnetische Schwingungen ausführt. Hertz versuchte nun eine künstliche Nachbildung einer Lichtquelle auf rein elektromagnetischem Wege zu schaffen, indem er ein Leitersystem zu schnellen elektrischen Schwin- gungen erregte. Es zeigte sich dann in der Tat, daß von diesem Leitersystem Oszillator genannt eine elektromagnetische Strahlung ausging, die Hertz als Strahlung elektrischer Kraft bezeichnete, welche sich hinsichtlich ihrer wich- tigsten Eigenschaften ebenso verhielt wie die Licht- und Wärmestrahlung des gewöhnlichen optischen Spektrums. Es gelang Hertz die Reflexion, Brechung, Absorption und Polarisation dieser Strahlen elektrischer Kraft zu beobachten und den Nachweis zu liefern, daß es sich um transversale Schwingungen han- delte (vgl. Artikel 14).

In einer Hinsicht jedoch waren die von Hertz untersuchten elektro- magnetischen Wellen von denen des optischen Spektrums sehr verschieden, näm- lich in Beziehung auf ihre Wellenlänge. Die schnellsten elektrischen Schwin- gungen, welche Hertz zu erzeugen vermochte, hatten eine Frequenz von 5 X 10® pro Sekunde, entsprechend einer Wellenlänge von 60 cm, während die Schwingungszahl des gelben Natriumlichts ca. millionenmal größer, seine Wel- lenlänge millionenmal kleiner ist. Hertz konnte daher eine quantitative Über- einstimmung in dem Verhalten der von ihm erzeugten Strahlen elektrischer Kraft und demjenigen der Lichtstrahlen nicht erwarten; er mußte sich damit begnügen, die qualitative Übereinstimmung beider Strahlenarten bewiesen zu haben.

Es ist nun leicht einzusehen, daß die Eigenschaften der beiden Strahlen- arten sich in quantitativer Beziehung um so mehr einander nähern müssen, je weniger sie sich in ihrer Frequenz voneinander unterscheiden. Die Prüfung, welcher man die Max well sehe Theorie unterwerfen kann, wird also eine um so schärfere werden, je schnellere elektrische Schwingungen man zu erzeugen und je weiter man im ultraroten Spektrum nach Seite der langen Wellen vor- zudringen vermag. Fortschritt© Die Erzeugung und Untersuchung sehr kurzer elektrischer Wellen bietet

"koAef eiektHu*^ ''^^g^^ ^^^cr außerordentlich geringen Intensität erhebliche Schwierigkeiten; scfa«r Wellen, dcunoch sind auf diesem Gebiete in den letzten Jahrzehnten große Fortschritte erzielt worden. Die ersten Erfolge dieser Art sind dem italienischen Physiker A. Righi zu verdanken, welchem es mit Hilfe einer verbesserten Konstruk-

Prüfung der Maxwellschen Theorie 203

tion des Oszillators gelang, mit Wellen von einigen Zentimetern Länge zu arbeiten. Auf demselben Wege fortschreitend hat P. Lebedew 1895 die klas- sischen Hohlspiegelversuche von Hertz mit hundertmal kürzeren Wellen, d. h. mit Strahlen elektrischer Kraft von 6 mm Wellenlänge wiederholen können, und zwei Jahre später hat A. Lampa einige Versuche mit elektrischen Wellen von 4 mm Länge angestellt. Endlich ist es neuerdings O. v. Baeyer gelungen, Hertzsche Wellen von 2 mm Länge in hinreichender Stärke zu erzeugen, um eine Untersuchung ihrer Eigenschaften möglich zu machen.

Durch diese Arbeiten ist die Kluft, welche das Spektrum der Strahlen elektrischer Kraft von demjenigen der Wärmestrahlen trennt, außerordentlich verringert worden. In der Zeit, in welcher Hertz seine Hohlspiegelversuche veröffentlichte, waren von dem ultraroten Spektrum nur wenige Oktaven durch die Arbeiten Langleys bekannt und die exakte Wellenlängenmessung endigte bei 5,3 |i. Die Kluft zwischen dem „elektrischen** und dem „optischen** Spek- trum betrug damals 17 Oktaven. Heute ist dieses unbekannte Spektralgebiet auf zwei bis drei Oktaven zusammengeschrumpft, wie aus der graphischen Darstellung auf Seite 200 zu ersehen ist.

Eis ist zu hoffen, daß diese Lücke bald gänzlich verschwinden und damit eine der wichtigsten Aufgaben der modernen Physik vollständig gelöst sein wird. Indessen sind auch heute schon die Früchte der hier geleisteten Arbeit sehr große. Denn das Studium der schnellen elektrischen Schwingungen und in nodi höherem Grade die Untersuchung des langwelligen ultraroten Spektrums haben bereits die Widersprüche vollkommen beseitigt, welche früher zwischen den Forderungen der elektromagnetischen Lichttheorie und den beobachteten Eigen- schaften der Lichtstrahlen in quantitativer Hinsicht zu bestehen schienen.

So hat sich ergeben, daß das Quadrat des Brechungsexponenten nicht nur Quantitative bei den Gasen, sondern bei sämtlichen durchsichtigen Substanzen der Dielek- ^^^'

trizitätskonstanten für statische Ladungen gleich wird, wenn der Brechungs- exponent an einer Stelle des Spektrums gemessen wird, welche nach Seite der langen Wellen genügend weit von dem Absorptionsgebiet des Körpers entfernt ist. Bei denjenigen Körpern, welche nur ein intensives Absorptionsgebiet im Ultrarot besitzen, konnte ferner mit Hilfe der Ketteier- Hei mholtzschen Dispersionsformel aus rein optischen Messungen ein mit der Erfahrung überein- stimmender Wert der Dielektrizitätskonstanten berechnet werden. Es ergab sich weiterhin, daß die aus der Maxwellschen Theorie abgeleitete Beziehung zwischen der elektrischen Leitfähigkeit und dem optischen Absorptionsver- mögen der Metalle, welche im sichtbaren Spektrum zu erheblichen Wider- sprüchen zwischen Theorie und Experiment führte, im Gebiete der langwelligen Wärmestrahlen mit um so größerer Annäherung erfüllt ist, zu je längeren Wellen man fortschreitet. Endlich ist zu erwähnen, daß man an Wärmestrah- len von genügend großer Wellenlänge eine Reihe von Erscheinungen hat nach- weisen können, welche Hertz bei seinen Experimenten mit Strahlen elektri- scher Kraft entdeckt hatte. Hierzu gehört die Polarisation der Wellen durch parallele Metalldrahtgitter und das Phänomen der elektrischen Resonanz.

204 9- Heinrich Rubens: Wärmestrahlung

Grand des Vcr- So hat das Studium des ultraroten Spektrums den elektromagnetischen

sakffcns der

Mazweiischen Charakter der Wärmestrahlung mit immer größerer Deutlichkeit erkennen im knr^^ugen lasscn. Aber damit ist der Nutzen dieser Untersuchungen noch nicht erschöpft. Spektrum, gjg haben auch wesentlich dazu beigetragen, die Gründe für das Versagen der Maxwellschen Theorie in dem kurzwelligen Spektralgebiet klarzulegen. Atomistiiche Dicsc Gründe liegen in der atomistischen Struktur der Materie, auf welche die def*M!^twie.Maxwel Ische Theorie in ihrer ursprünglichen Gestalt keine Rücksicht nimmt. Maxwells Gleichungen gelten für sog. Kontinua, für strukturlose Medien, in welchen weder Farbenzerstreuung noch selektive Absorption eintreten kann. Das Verhalten eines Körpers gegenüber solchen Schwingungen, deren Frequenz groß ist gegen die Eigenfrequenz seiner mitschwingenden Teilchen, kommt je- doch demjenigen eines Kontinuums sehr nahe. Deshalb gilt die Maxwellsche Theorie in ihrer ursprünglichen einfachen Form mit guter Annäherung nur in denjenigen Spektralgebieten, welche weit jenseits der ultraroten Absorptions- streifen gelegen sind, und sie muß in den Teilen des Spektrums versagen, in welchen die Frequenzen von derselben Größenordnung sind wie die molekularen Eigenschwingungen, d. h. in den Gebieten, in welchen die Absorptionsstreif en der Stoffe liegen. Erweitening Um die optischcu Erschcinungcn innerhalb des gesamten Spektrums zu-

"^^^e^^^ treffend darstellen zu können, mußte also eine Erweiterung der ursprünglichen durch Drode. Maxwcllschcn Thcorie vorgenommen werden, derart, daß die atomistische Struktur der Materie in den Grundannahmen der Theorie enthalten ist. An- haltspunkte für eine solche Erweiterung ergaben bereits die älteren elastisch optischen Dispersionstheorien von Sellmeier und andern, welche auf das Vor- handensein schwingender Teilchen Rücksicht nehmen. Diese Aufgabe in der Hauptsache gelöst zu haben ist Paul Drudes Verdienst. Eis ist leicht, einzu- sehen, daß eine Wechselwirkung zwischen elektromagnetischen Wellen und den schwingungsfähigen Gebilden der Moleküle nur dann eintreten kann, wenn die letzteren elektrisch geladen sind. Drudes Theorie liegt die bekannte Vorstellung von dem Bau der Moleküle zugrunde, welche sich durch die chemische Atomistik, die Faraday-Helmholtzsche Deutung der Elektrolyse (vgl. Artikel 13) und die sich daran anschließende Elektronenlehre (vgl. Artikel 1 5) in den letzten Jahr- zehnten entwickelt hat. Die chemischen Kräfte sind nach dieser Auffassung rein elektrischer Natur und ebenso wird der Zusammenhang der Moleküle im festen Körper durch elektrische Kräfte bewirkt. Die in den Molekülen vorhandenen schwingungsfähigen Gebilde sind nach Drude von zweierlei Art: Elektronen und Ionen. Die ersteren sind von gewöhnlicher ponderabler Masse freie Ele- mentarquanten der Elektrizität, die letzteren mit einer oder mehreren Elemen- tarladungen behaftete Atome oder Atomgruppen des Moleküls. Drude hat es ip hohem Grade wahrscheinlich gemacht, daß die Absorptionsstreifen des kurz- welligen ultravioletten Spektrums von der Resonanz der Elektronen, diejenigen des langwelligen ultraroten Spektrums von dem Mitschwingen der Ionen her- rühren. In Übereinstimmung mit den beobachteten Tatsachen folgt aus dieser Annahme, daß das Absorptionsspektrum eines Körpers um so komplizierter

Einfluß der atomistischen Struktur auf die Strahlungsvorgänge 205

sein muß, je mehr schwingungsfähige Gebilde im Molekül vorhanden sind, oder, was auf dasselbe herauskommt, je komplizierter der Bau des Moleküls ist.

Bei den Isolatoren sind sämtliche Elektronen an feste Gleichgewichtslagen gebunden, um welche sie Schwingungen ausführen können. Bei den Metallen dagegen kommen nach Drudes Vorstellung zu diesen ,, gebundenen" Elektro- nen noch „freie** Elektronen hinzu, welche sich zwischen den Körperatomen ungehindert bewegen können. Diese freien Elektronen bewirken das elektrische Licitvermögen der Metalle. Ferner wird das optische Verhalten der Metalle im Gebiete der langen Wellen durch die freien Elektronen in vorwiegendem Maße bestimmt.

Die hier angedeutete Vorstellung von der Struktur der Materie und dem Bau der Moleküle ist nun auch geeignet, uns über die Entstehung der Wärme- strahlung Auskunft zu geben, wozu die Maxwel Ische Theorie in ihrer ur- sprünglichen Gestalt nicht imstande war.

Wir wissen, daß der Wärmeinhalt der Körper teils potentieller, teils kine- Entstehung tischer Natur ist und daß der kinetische Anteil in ungeordneter Bewegung der ^'strawSn^^ Moleküle besteht. Dieser kinetische Anteil ist es, welcher die Temperatur der Körper bestimmt. Nimmt man an, daß ein Teil dieser Bewegungsenergie auf die Ionen und Elektronen im Innern des Moleküls ständig übertragen und von diesen elektrischen Oszillatoren in Form von elektromagnetischen Wellen in den Raum ausgestrahlt wird, so ist damit die Entstehung der Wärmestrahlung gegeben. Da bei diesem Vorgange die Stärke und Zusammensetzung der Strah- lung eines gegebenen Körpers nur von seiner Temperatur abhängt, so hat man diese Art von Emission auch als Temperaturstrahlung bezeichnet.

Aber diese Art der Strahlungserregung ist nicht die einzige, welche in der Lumine«i©n« Natur vorkommt. Es gibt Emissionsvorgänge, welche unter bestimmten äuße- ren physikalischen Bedingungen beobachtet werden, die mit der Temperatur der strahlenden Körper in keinem erkennbaren Zusammenhange stehen. Diese Art der Strahlungserregung bezeichnen wir als Lumineszenz. Man beobachtet sie u. a. bei chemischen Prozessen, bei dem Durchgange elektrischer Entladun- gen durch Gase und bei der Einwirkung gewisser korpuskularen und nicht korpuskularen Strahlenarten auf manche Körper. In diesen Fällen stammt die Energie der in Schwingung versetzten intramolekularen Resonatoren nicht von der lebendigen Kraft der Moleküle, sondern wird durch die erregenden Prozesse den Resonatoren direkt mitgeteilt. Wie dies im einzelnen geschieht, bedarf noch der Aufklärung. Ein besseres Verständnis für diese wichtige Klasse von Erscheinungen wird man erst auf Grund einer genaueren Kenntnis des Baues der Moleküle und Atome gewinnen können.

Während, wie in dem Vorstehenden dargelegt worden ist, die erforschten Ge- Erweiterung biete des Spektrums der ultraroten Strahlen und der Strahlen elektrischer Kraft ^splteiml heute nur noch durch ein Intervall von ca. 2*/, Oktaven voneinander getrennt sind, hat man auf rein optischem Wege bisher nur zwei Oktaven des ultravioletten Spektrums der Messung erschließen können. Es kann indessen keinem Zweifel unterliegen, daß das Spektrum auch nach Seite der kurzen Welle eine viel größere

2o6 9- Heinrich Rubens: Wärmestrahlung

Ausdehnung besitzt und daß wir nur durch besondere experimentelle Schwierig- keiten an der Wahrnehmung jener kurzwelligen Strahlen gehindert werden. Eine dieser Schwierigkeiten besteht, wie schon erwähnt, in der starken Absorption, welche die Luft und alle andern Gase auf die Strahlen dieses Spektralgebiets aus* üben. Die Theorie der optischen Absorption und Dispersion läßt jedoch voraus- sehen, daß in einem Teile des Spektrums, in welchem die Wellen noch sehr viel kürzer sind, derart, daß die zugehörigen Schwingungszahlen die Eigenfrequenzen der intramolekularen Resonatoren erheblich übertreffen, diese Absorption wieder verschwinden muß. Strahlen, welche diesem Spektralgebiete angehören, müssen ein hohes Durchdringungsvermögen nicht nur für Gase, sondern auch für feste und flüssige Körper besitzen. Es folgt weiter aus der Theorie, daß solche Strahlen an der Grenzfläche zweier Medien nach den Gesetzen der geo- metrischen Optik weder gebrochen noch gespiegelt werden können. Zagohörigkeit Man ist hcutc nicht mehr darüber im Zweifel, daß man in den Röntgen*

»frahi^*wi^dem Strahlen solche Strahlen von ungemein kurzer Wellenlänge vor sich hat. Daß optischen die Röntgenstrahlen keine Ionen- oder Elektronenstrahlen sind, wie die a- und

Spektrum.

ß- Strahlen der radioaktiven Stoffe, geht aus der Tatsache hervor, daß sie keine elektrische Ladung mit sich führen und weder durch magnetische noch durch elektrische Kräfte aus ihrer Bahn abgelenkt werden können. Betrachten wir sie aber als ein den Lichtstrahlen entsprechendes Atherphänomen, so kann es sich nur um eine Strahlung von äußerst kurzer Wellenlänge handeln, weil die Röntgenstrahlen weder gebrochen noch geometrisch reflektiert werden. Hier* für spricht auch die Art ihrer Entstehung. Bekanntlich werden Röntgenstrah- len erzeugt, wenn schnell fliegende Elektronen auf feste Körper aufprallen und dadurch zur Ruhe gebracht werden. Man nimmt an, daß die Elektronen inner- halb einer sehr kurzen Wegstrecke ihre Geschwindigkeit verlieren. Während des Durchlaufens dieser Strecke wird von dem gebremsten Elektron ein Strahlungsimpuls ausgesandt, welcher der Halbwelle eines Oszillators ent- spricht. In dem mehrfach benutzten akustischen Bilde ist hiernach der Schwin- gungszustand dieser Röntgenstrahlen mehr einem Knall als einem musikali- schen Tone zu vergleichen. Man hat jedoch beobachtet, daß neben dieser Im- pulsstrahlung beim Auftreffen eines Elektrons noch eine zweite Art von Rönt- genstrahlung ausgesandt wird, welche von den getroffenen Körperatomen aus- geht und, wie es scheint, einen viel regelmäßigeren Schwingungscharakter besitzt (vgl. Artikel 23). Sie ist für verschiedene Materialien verschieden und wird die charakteristische Strahlung genannt. Messung Nachdcm man lange Zeit vergeblich versucht hatte, die Wellenlänge der

^^' ^ntlh^°^* Röntgenstrahlen auf direktem Wege zu ermitteln, ist es vor zwei Jahren M.

Laue undBragg.yQ^ Lauc durch ciucn Ungemein kühnen und ebenso glücklichen Gedanken

gelungen, diese Aufgabe zu lösen.

In dem ersten Teile dieses Aufsatzes ist darauf hingewiesen worden, daß man sich zur Messung der Wellenlängen im sichtbaren und unsichtbaren Spek- trum des Beugungsgitters bedient hat, und daß der Sinus des Ablenkungs- winkels, welchen eine gegebene Strahlenart nach ihrem Durchgang durch das

Röntgenstrahlen 207

Gitter zeigt, ihrer Wellenlänge direkt und der Gitterkonstanten, d. h. dem Ab- stände der Mitten zweier benachbarter Gitteröffnungen, umgekehrt propor- tional ist. Hieraus geht hervor, daß man, um merkliche Ablenkungswinkel zu erhalten, um so feinere Gitter verwenden muß, je kleiner die Wellenlänge der zu untersuchenden Strahlung ist. Wenn nun, wie aus gewissen theoretischen Betrachtungen hervorgeht, die Wellenlänge der Röntgenstrahlen mehrere tausendmal kleiner ist als diejenige des Lichts, so bedarf man zur Wellenlängen- messung jener Strahlenart derartig feiner Beugungsgitter, daß der Abstand be- nachbarter Gitteröffnungen nur wenige Molekulardurchmesser betragen dürfte. Die künstliche Herstellung solcher Gitter ist mit unseren heutigen Hilfsmitteln völlig ausgeschlossen; jedoch sind sie bereits, worauf M. von Laue zuerst hin- gewiesen hat, in der Natur in tadelloser Ausführung vorhanden, und zwar in den Raumgittern der Kristalle. Es ist seit langer Zeit bekannt, daß die Atome in einem Kristall mit großer Regelmäßigkeit gelagert sind und im allgemeinen ein System von geradlinigen äquidistanten Atomreihen bilden, welches man als Raumgitter des Kristalls bezeichnet. Ein solches Gitter unterscheidet sich freilich von den Beugungsgittern der Optik nicht nur durch seine feine Struk- tur, sondern vor allen Dingen darin, daß es kein flächenhaftes, sondern ein räumliches Gebilde darstellt. Die mit Hilfe solcher Raumgitter zu erwartenden Interferenzphänomene müssen daher in einigen wichtigen Punkten von den bekannten Beugungsspektren der gewöhnlichen optischen Gitter verschieden sein, aber sie können trotzdem, wie sowohl von Laue und seinen Mitarbeitern, als auch besonders von W. H. und W. L. Bragg gezeigt worden ist, zur Mes- sung der Wellenlänge der Röntgenstrahlen verwendet werden. Voraussetzung ist hierbei freilich, daß die Dimensionen der Kristallgitter bekannt sind, was aber in einigen Fällen mit ziemlicher Sicherheit angenommen werden darf.

Diese Messungen ergaben nun für die charakteristische Strahlung der Substanzen eng begrenzte Wellenlängenbereiche, welche in Beziehung auf spektrale Schärfe mit den Emissionslinien der Stoffe im sichtbaren Gebiet ver- gleichbar sind. Bei Verwendung einer Antikathede aus Rhodium z. B. erhält man zwei scharfe Linien, deren Wellenlänge 0,607 bzw. 0,533 XIO""* cm be- trägt. Bei anderen Substanzen von geringerem Atomgewicht beobachtete Moseley charakteristische Röntgenstrahlen von größerer Wellenlänge, z.B. 3,36 und 3,09 X iO"-8 cm bei dem Calcium. Das entspricht etwa dem zwei- tausendsten Teil der Wellenlänge des gelben Lichts und angenähert dem drei- hundertsten Teil der Wellenlänge der von Lyman untersuchten Strahlen.

Hiernach umfaßt das unbekannte Spektralgebiet, welches zwischen den kurzwelligsten ultravioletten Strahlen des gewöhnlichen optischen Spektrums und den charakteristischen Röntgenstrahlen des Calciums gelegen ist, etwa 8 Oktaven. Um in unserer schematischen Zeichnung des Spektrums (S. 200) auch die Röntgenstrahlen eintragen zu können, müßten wir das Diagramm nach oben um eine Strecke verlängern, welche die Länge des gesamten bisher erforschten ultraroten Spektrums übertrifft. Die charakteristischen Röntgen-

2oS 9- Heinrich Rubens: Wärmestrahlung

strahlen würden in unserem Schema in den ultravioletten Oktaven liegen, welche die Ordnungsnummern II bis 13 tragen.

Sind auch hiernach die Röntgenstrahlen von den kurzwelligen Strahlen des optischen Spektrums durch eine ungeheure Kluft getrennt, so lassen sich doch bereits mehrere charakteristische Eigenschaften angeben, welche diesen beiden Strahlenarten gemeinsam sind und welche die ultraroten Strahlen nicht besitzen. Sowohl die ultravioletten Strahlen als auch die Röntgenstrahlen ver- mögen bei dem Auf treffen auf die Körperatome Elektronen in Freiheit zu setzen. Ferner wirken beide Strahlenarten Fluoreszenz erregend und beide sind photo- graphisch wirksam. Es mag wohl sein, daß zwischen diesen drei Eigenschaften ein Kausalzusammenhang besteht.

Wie das Studium des ultraroten Spektrums sich als wertvoll erwiesen hat, um die elektromagnetische Natur des Lichtes darzutun, so hat die Erforschung des ultravioletten Spektrums dazu beigetragen, unsere Vorstellung vom Wesen der Röntgenstrahlen zu befestigen, nach welcher auch diese wunderbare Strah- lenart dem erweiterten optischen Spektrum angehört. Hiernach bleibt der künftigen Forschung im Bereich der kurzen Wellen ein großes Arbeitsfeld, denn es gilt, das unbekannte Spektralgebiet, welches sich von Schumanns und Lymans ultravioletten Strahlen bis zu den Röntgenstrahlen erstreckt, der Beobachtung zugänglich zu machen.

lO.

THEORIE DER WÄRMESTRAHLUNG.

Von W. Wien.

I. Allgemeine Gesetze der Strahlung auf thermodynamischer Grundlage. Die Theorie der Strahlung gehört deshalb zu den wichtigsten physikalischen Theorien, weil sie sich mit den Gesetzen beschäftigt, welche die Erzeugung der Licht- und Wärmestrahlen beherrschen und weil diese Betrach- tungen weit tiefer in den inneren Bau der Materie führen als die anderen physi- kalischen Theorien. Für den Physiker ist das Licht, soweit es von unserem Auge wahrgenommen wird, kein besonders ausgezeichneter Teil der Strahlung, son- dern er betrachtet alle Strahlung von den Röntgenstrahlen bis zu den längsten Wellen der Wärmestrahlen und darüber hinaus bis zu den Wellen der elektri- schen Schwingungen und Wechselströme als gleichartig und nur quantitativ durch die Wellenlänge unterschieden. Nach den jetzigen Anschauungen sind alle diese Strahlen elektromagnetische Wellen, deren Energie zur Hälfte elek- trisch, zur Hälfte magnetisch ist und die sich im leeren Raum alle mit derselben Geschwindigkeit, der des Lichtes fortpflanzen. Man muß jedoch zwei Gruppen dieser Strahlen voneinander trennen, die elektromagnetischen Wellen, welche durch molekulare und atomistische Vorgänge hervorgerufen werden, und solche, deren Wellenlänge durch makroskopische Verhältnisse, wie Kapazität von Kon- densatoren und Selbstinduktion von Leitern bestimmt werden.

Die zweite Gruppe wird uns hier nicht beschäftigen. Sie gehört zu einem anderen Abschnitt der Physik. Die erste ist durch das Hineinspielen der mole- kularen Vorgänge besonders charakterisiert und gehorcht infolgedessen ganz anderen Gesetzen.

Zwar spielt in den fundamentalen Gesetzen der Strahlungstheorie die Mole- Botstehong kularphysik zunächst keine Rolle. Aber indirekt ist sie doch auch hier von Ein- ^aw^^^rac.* fluß, weil diese Gesetze auf dem charakteristischen Grundsatz der Wärmelehre, dem sog. zweiten Hauptsatz der mechanischen Wärmetheorie beruhen. Dieser Satz, der die beschränkte Verwandelbarkeit von Wärme in andere physikalische Energieformen ausspricht, ist eine Folge des molekularen Charakters der Wär- mebewegung. Diese Bewegung ist vollständig unregelmäßig und ungeordnet, so daß die Verteilung der Geschwindigkeiten oder lebendigen Kräfte auf die ein- zelnen Moleküle nur nach den Regeln der Wahrscheinlichkeit aufgesucht werden kann. Hierbei ergibt sich nun in einem Gase eine bestimmte Geschwindigkeits- verteilung auf gleichartige Moleküle als die wahrscheinlichste, die ganz analog ist der Verteilung der Beobachtungsfehler. Wenn diese Geschwindigkeitsver-

K.d.G.m.i]z,Bdx Physik 14

2 lo 10. W. Wien: Theorie der Wännestrahlung

teilung erreicht ist, so befindet sich das Gas im Zustande des Wärmegleich- gewichts und es treten keine spontanen Änderungen mehr ein. Ein in diesem Gase befindlicher Körper gleicher Temperatur vermag dann dem Gase keine Wärme zu entziehen und in andere Energieformen zu verwandeln.

Heiße Körper senden nun Wärmestrahlung aus und wenn man die Körper genügend erhitzt, so erhält man sämtliche Strahlen bis zu den kürzesten bisher beobachteten Wellenlängen. Es stammt also die Wärmestrahlung aus der Wär- me und bei genauerer Betrachtung kann man beide gar nicht voneinander trennen. Denn die Strahlung, die von einem heißen Körper ausgesandt wird, ist auch in seinem Innern vorhanden und wird hier beständig absorbiert und wieder ausgestrahlt. Es müssen daher für die Wärmestrahlung auch die allgemeinen Gesetze der Wärmelehre gelten. So muß sich insbesondere im Inneren eines heißen Körpers ein Gleichgewichtszustand der Strahlung herstellen, bei dem die Menge der in der Form von Strahlung vorhandenen Energie bei gleicher

stnhiaBffs- Temperatur unveränderlich ist. Dieses Gleichgewicht der Strahlung gibt giMchgewic t. zusammen mit dem Gleichgewicht der lebendigen Kraft der Moleküle das eigent- liche Wärmegleichgewicht. Aus diesem Gleichgewicht für die Strahlung folgt zunächst für die Gesamtstrahlung der berühmte Kirchhof f sehe Satz, daß das Verhältnis des Emissionsvermögens eines Körpers zu dem Absorptionsvermögen bei gleicher Temperatur für alle Körper gleich ist. Man versteht unter Emissions- vermögen einer Oberfläche die Menge Energie, die ein Quadratzentimeter in der Sekunde aussendet, unter Absorptionsvermögen die in der Sekunde aufge- nommene und in Wärme verwandelte Energie. Die auffallende Energie ist also die Summe der absorbierten, durchgelassenen und reflektierten Energie. Hat man im Inneren eines absorbierenden Körpers gleicher Temperatur einen Hohl- raum, so wird die von einem Teil der Oberfläche dieses Innenraums ausgesandte Energie wieder auf die Oberfläche auf treffen und so lange durch Reflexion hin und her geworfen, bis sie vollständig absorbiert ist. Sind die Wände dick genug, so kommt die hindurchgelassene Strahlung nicht in Betracht.

KirchhoffM:her Es muß jcdc Stelle der Oberfläche gleichviel Energie absorbieren wie emit^ tieren, weil sonst eine lokale Temperaturänderung eintreten würde, was dem Wärmegleichgewicht widerspricht. Also muß eine Stelle der Oberfläche, die wenig Energie aussendet, in demselben Verhältnis wenig absorbieren. Trotzdem ist die Menge Energie, die in Form von Strahlung vorhanden ist, überall die gleiche. Denn wenn man einem beliebigen Teil der Oberfläche die Oberfläche eines zweiten Körpers unmittelbar gegenüberstellt, die alle auffallenden Strah- len absorbiert und deshalb auch das größte Emissionsvermögen hat, so müssen sich die beiden Oberflächen gleich viel Energie zusenden. Die von der ersten ausgehende Strahlung ist also auch so beschaffen, als ob alle Strahlung ab- sorbiert würde. Es kommt dies so zustande, daß die ausgesandte plus der reflektierten Strahlung gleich der auffallenden ist. In einem solchen Hohlraum gehen die Strahlen nach allen Seiten und es ist keine Richtung besonders aus- gezeichnet.

Alle diese Betrachtungen, aus denen sich der Kirchhoff sehe Satz ergibt,

Emission und Absorption 21 1

beziehen sich zunächst nur auf die Gesamtstrahlung. Es läßt sich aber leicht der Satz auf die Strahlung jeder beliebigen Wellenlänge anwenden. Wir haben näm- lich mannigfaltige Hilfsmittel, um die Strahlung durch Prismen oder durch Interferenz in ihre einfarbigen Bestandteile zu zerlegen. Man kann also auf diese Weise jeden Bestandteil der Strahlung, der einem kleinen Wellenlängenbereich angehört, für sich betrachten und auf ihn dieselben Betrachtungen wie auf die Gesamtstrahlung anwenden.

Wie so oft in der Physik ist der Gültigkeitsbereich des Kirchhoff sehen Satzes viel größer als der Beweis desselben zunächst vorgesehen hat. Er scheint bei den meisten, wenn nicht bei allen Leuchtvorgängen zu gelten.

Daß man den Temperaturbegriff auf alle Leuchtprozesse anwenden kann, ist unzweifelhaft. Denn da wir jede Lichtart durch heiße Körper hervorbringen können, so können wir der mit heißen Körpern im Wärmegleichgewicht befind- lichen Strahlung die Temperatur dieser Körper zuschreiben und jede, auch von einem phosphoreszierenden Körper ausgehende Strahlung hat deshalb für jede Strahlung eine bestimmte Temperatur. Aber diese Temperatur hat mit der des phosphoreszierenden Körpers gar nichts zu tun und es ist auch vorläufig nicht möglich, sich bestimmte Vorstellungen zu machen, wie sich ein phosphores- zierender Körper mit der Strahlung ins Gleichgewicht setzt.

Bei Körpern, welche die aufgenommene Strahlung umsetzen und erst nach langer Zeit emittieren, müssen die Vorgänge sehr verwickelt sein.

Auch bei der Lichtemission in Geiß 1er sehen Röhren ist über den eigent- GBitigkeits- lichen Erregungsprozeß wenig bekannt. Aber auch hier scheint der Kirch- ^^.^^^^^Jj^j^^. hoff sehe Satz zu gelten, da jedenfalls sicher ist, daß die leuchtenden Gase nur »cbonSatxes. innerhalb der feinen Spektrallinien Licht absorbieren, alle anderen Farben aber hindurchlassen. Eine quantitative Untersuchung der Gültigkeit des Kirch- hoff sehen Gesetzes ist in diesem Fall sehr schwierig. Jedenfalls ist man be- rechtigt, die hellen Linien im Spektrum, auch der Himmelskörper, als Emis- sionsvorgang, die dunkeln Linien, wie die Fraunhof ersehen bei der Sonne, als Absorptionsvorgang in denselben Stoffen anzusehen. Die Grundlage, auf der wir den Kirch hoff sehen Satz abgeleitet haben, kann man auch benutzen, um einen sog. schwarzen Körper zu realisieren. Man versteht unter einem solchen einen Körper, der alle auffallende Strahlung absorbiert und nach dem Kirch- hoff sehen Satz das Maximum des Emissionsvermögens hat. Kein Körper kann an seiner freien Oberfläche diese Eigenschaft haben, weil jeder Körper nur ein bestimmtes Absorptionsgebiet hat und die stark absorbierenden Körper gleich- zeitig auch das Licht beträchtlich zurückwerfen.

Aber nach den obigen Betrachtungen besteht in einem Hohlraum die Strah- Hobiraum. lung aus Strahlen, die nach allen Richtungen hin und her gehen und eine solche ** ^^* Intensität haben, als ob die Wände vollkommen schwarz wären. Wenn man eine kleine Öffnung in dem Hohlraum anbringt, so wird die Strahlung aus ihr mit einer Intensität herausdringen, als ob die Fläche der Öffnung vollkommen schwarz wäre und die Temperatur des Körpers hätte. Umgekehrt muß jeder von außen kommende Strahl, der auf diese Öffnung fällt, ins Innere des Hohl-

212 10« W.Wien: Theorie der Wärmestrahlung

raumes gelangen und dort so lange hin und her reflektiert werden, bis er voll- kommen absorbiert ist. Nur ein geringer Bruchteil wird nach den Reflexionen wieder die Öffnung finden und wieder herauskommen. Dieser Betrag ist ein Maß für die Abweichung der Vorrichtung von einem vollkommen schwarzen Körper.

Das Emissionsvermögen eines solchen vollkommen schwarzen Körpers ist, wie wir gesehen haben, nur noch von der Temperatur abhängig. Die individu- ellen Eigenschaften der Körper scheiden hierbei vollständig aus. Es ist eine der wichtigsten Aufgaben der Strahlungstheorie, dieses Emissionsvermögen als Funktion der Temperatur und Wellenlänge zu bestimmen. Nun gestattet die elektromagnetische Lichttheorie in Verbindung mit dem zweiten Hauptsatz der Wärmetheorie die Abhängigkeit des Emissionsvermögens von der Temperatur zu bestimmen.

Man braucht zu dieser Ableitung die auch sonst sehr fruchtbaren idealen Prozesse. Es sind das Gedankenexperimente, deren Ausführung vielfach tech- nisch unmöglich ist, die aber nichtsdestoweniger zu zuverlässigen Ergebnissen führen. Man kann solche Betrachtungen nur durchführen, wenn alle Vorgänge, die solchen Gedankenexperimenten zugrunde gelegt werden, in ihrem gesetz- idMie Prozesse, mäßigen Ablauf vollständig bekannt sind, so daß man die Wirkung jeder ge- dachten Veränderung genau und vollständig angeben kann. Ferner muß es mög- lich sein, alle unwesentlichen Begleiterscheinungen beiseite zu lassen und nur das zu berücksichtigen, was mit den betrachteten Vorgängen untrennbar ver- bunden ist. Solche idealen Prozesse haben in der Wärmelehre eine große Rolle gespielt und die Ergebnisse, zu denen sie geführt haben, sind immer in Überein- stimmung mit der Erfahrung gewesen. Auch Kirchhoff hat sich für den Be- weis seines Satzes solcher Prozesse bedient. Er setzte die Existenz vollkommen schwarzer und vollkommen spiegelnder Körper voraus. Die ersteren kann man, wie wir gesehen haben, mit beliebiger Annäherung realisieren. Auch vollkom- mene Spiegelung ist bei der Totalreflexion möglich, obwohl diese an Bedingungen geknüpft ist, wie sie bei der Anwendung der vollkommenen Spiegel bei den ide- alen Prozessen nicht immer erfüllt sind.

Auf Grund dieser Voraussetzungen kann man nun, wie Bartoli und Boltzmann zuerst getan haben, eine bestimmte Strahlungsenergie in einen Raum mit spiegelnden Wänden einschließen, so daß die Strahlung mit den Wänden gar nicht zum Energieaustausch kommt. Verkleinert man das Volu- men des Raums, so wird die Strahlung verdichtet und man kann die Strahlung auf diese Weise von einem kälteren zu einem wärmeren Körper überführen. Denn wenn man einen Körper mit diesem Raum verbindet, so wird sich in ihm der Zustand des Strahlungsgleichgewichts herstellen und die Energie in der Volum- einheit wird der Temperatur des Körpers entsprechen. Wenn dann das Volumen erheblich verkleinert wird, so wird die Energie in der Volumeinheit entsprechend zunehmen und wenn man dann den Raum mit einem Körper von höherer Tem- strahiungsdruck. peratur Verbindet, so wird an diesen so viel Energie übergehen, bis die Energie- menge in der Volumeinheit dieser Temperatur entspricht. Man würde auf diese

Ideale Prozesse; Gesetz von Stefan-Boltzmaim 213

Weise Energie von einem Körper niederer Temperatur zu einem höherer Tempera- tur übergehen lassen, was dem zweiten Hauptsatz widerspricht (vgl. Artikel 5 u. 32). Hierbei ist aber nicht berücksichtigt, daß die Strahlung auf die einschließen- den Wände einen Druck ausübt, den sog. Strahlungsdruck, dessen Existenz aus der elektromagnetischen Lichttheorie gefolgert werden kann. Dieser Druck ist bei einem senkrecht auftreffenden Lichtstrahl gleich der in der Volumeinheit befindlichen Energie. Da diese Energie sehr klein ist, weil die Energie in der Volumeinheit gleich der fortschreitenden Energie dividiert durch die Licht- geschwindigkeit ist, so ist auch dieser Druck sehr klein, so daß sein Vorhanden- sein lange Zeit sich der Beobachtung entzog. Erst Lebe de w sowie Nicols und Hu 11 gelang es mit Hilfe von sehr leichten Spiegeln in der äußersten Luftver- dünnung den Lichtdruck nachzuweisen. Infolge dieses Lichtdrucks muß man nun bei der Kompression der Strahlung eine Arbeit leisten, so daß die Über- führung der Wärme von einem kälteren zu einem wärmeren Körper nicht ohne diese Arbeitsleistung möglich ist. Damit schwindet der Widerspruch mit dem zweiten Hauptsatz. Da man die Energiedichte der Strahlung sowohl durch Kompression wie durch Temperatur erhöhen kann und die für die Zusammen- drückung erforderliche Arbeit aus dem bekannten Lichtdruck berechnen kann, hat Boltzmann die Abhängigkeit der Strahlungsdichte und damit auch der Ableitung Emission eines schwarzen Körpers von der Temperatur berechnet. Er fand, m stJLi- daß diese Strahlung proportional der vierten Potenz der absoluten Temperatur ^^^°^*^ zunimmt, wie vorher Stefan schon rein empirisch gefunden hatte.

Hiermit waren aber die aus der Thermodynamik zu gewinnenden Folge- rungen nicht erschöpft, man kann noch die Veränderung feststellen, welche die einzelnen in der Strahlung vorhandenen Farben mit Änderung der Temperatur erfahren. Die Berechnung dieser Änderung beruht auch auf einem idealen Pro- zeß. Für diesen muß man vollkommen spiegelnde Flächen voraussetzen, aber solche, die alle auffallende Strahlung zerstreut zurückwerfen und die wir des- halb als vollkommen weiß bezeichnen können. Lassen wir die Strahlung eines schwarzen Körpers in einen von weißen Wänden umschlossenen Raum gehen und diesen füllen, bis sich der Gleichgewichtszustand der Strahlung hergestellt hat, so können wir diese Strahlung von dem schwarzen Körper ganz abschließen und das Volumen wieder durch Verschieben der Wände verkleinern, wobei wir, wie wir gesehen haben, eine bestimmte angebbare Arbeit leisten müssen, die sich auch in Strahlung verwandelt. Die hierdurch hervorgerufene Änderung der Strah- lungsdichte ist aber nicht die einzige Änderung, welche die Strahlung erfahren hat. Wenn ein Lichtstrahl von einem bewegten Spiegel reflektiert wird, so er- fährt er eine Veränderung der durch die Schwingungszahl bestimmten Farbe. Diese Änderung nach dem sog. Dop pl ersehen Prinzip (vgl. Artikel 26) wird in der Astrophysik benutzt, um die Bewegung eines Himmelskörpers im Visions- radius zu bestimmen. Die Spektrallinie, welche ein sich nähernder Himmels- körper uns zusendet, erscheint nach den kürzeren Wellenlängen verschoben im Verhältnis seiner Geschwindigkeit zur Lichtgeschwindigkeit. Auch ein Strahl, der von einem bewegten Spiegel reflektiert wird, erfährt diese Veränderung der

214 '^* ^' Wien : Theorie der Wärmestrahlung

Farbe, die hier doppelt so groß ist. Wir können also sowohl die Veränderung der Strahlungsdichte wie die Veränderung der einzelnen Wellenlängen berechnen. Es läßt sich nun aus diesem Gedankenexperimente eine wichtige Folgerung ziehen. Aus dem zweiten Hauptsatz der mechanischen Wärmetheorie folgt, daß die spektrale Zusammensetzung der Strahlung, deren Änderung durch die Kom- pression wir berechnet haben, genau dieselbe ist, als wenn die vergrößerte Dichte durch Temperaturerhöhung des ursprünglich die Strahlung aussendenden schwarzen Körpers hervorgerufen wäre, weil wir sonst durch Farbenfilter die ursprünglich gleiche Strahlungsdichte ungleich machen und dann durch den Strahlungsdruck Arbeit aus Wärme ohne Kompensation erzeugen könnten.

Die Berechnung ergibt, daß die Strahlungsenergie einer bestimmten

Wellenlänge sich mit der Temperatur so ändert, daß das Produkt aus Temperatur

und Wellenlänge konstant bleibt.

wiensdiei Dicscs vott W. Wien gefundene sog. Verschiebungsgesetz gestattet, die Ver-

KMete. teilungder Intensität der Wärmestrahlung auf die einzelnen Wellenlängen für

jede Temperatur zu berechnen, sobald sie für eine Temperatur bekannt ist.

Für die Beobachtung ist besonders die Verschiebung des Maximums der Energie direkt zugänglich. Das Maximum der Energie ist das Hauptgebiet der Strahlung und man kann nach dem Verschiebungsgesetz durch geänderte Tem- peratur dieses Hauptgebiet auf beliebig kurze oder beliebig lange Wellen verlegen.

H. A. Lorentz hat eine andere Ableitung des Verschiebungsgesetzes ge- geben. Wenn man in den elektromagnetischen Gleichungen von Maxwell sich sämtliche Raumdimensionen in gleichem Verhältnis zeitlich verändert denkt, dann zeigen jene Gleichungen, daß die elektromagnetische Energie in der Vo- lumeinheit im Verhältnis der vierten Potenz der Verschiebung abnehmen muß. Anderseits ändert sich nach demStefan-Boltzmann sehen Gesetz die Energie nach der vierten Potenz der absoluten Temperatur. Einer Vergrößerung der Lineardimensionen durch Verschiebung entspricht also eine umgekehrt propor- tionale Abnahme der Temperatur. Jede charakteristische Länge muß sich in diesem Verhältnis ändern, woraus das Verschiebungsgesetz hervorgeht. Tempenttnr Man kann von den Strahlungsgesetzen interessante Anwendungen auf die

'körpen Temperaturbestimmung der Himmelskörper machen. Wenn man im leeren Weltraum einen vollkommen schwarzen Körper hat, der Sonnenstrahlung emp- fängt und sich hierdurch so lange erwärmt, bis er ebensoviel Wärme seinerseits nach dem Stefan- Boltzmannschen Gesetz ausstrahlt, so erhält man aus diesem Gesetz die Temperatur des Himmelskörpers. Bei den Planeten kann die Atmosphäre die Ausstrahlung modifizieren. Wenn man indessen diese Über- legung auf die Erde anwendet, so erhält man tatsächlich sehr nahe die mittlere Jahrestemperatur der Erde.

Die Temperatur der Sonne kann man aus der Intensität der Sonnenstrah- lung, der sog. Solarkonstante bestimmen, wenn man die Sonne als schwarzen Körper ansehen kann, indem man ebenfalls das Stef an-Boltzmannsche Ge- setz anwendet.

Auch aus dem Verschiebungsgesetz kann man die Temperatur der Sonne

Wiensches Verschiebungsgesetz 215

berechnen, wenn man die gleiche Voraussetzung macht. Man braucht dann nur die Lage des Maximums der Sonnenstrahlung zu kennen. Diese Wellenlänge wird von verschiedenen Beobachtern verschieden angegeben, von Very gleich 0,532 ^ und von Abbot und Fowle gleich 0,433 M* ^^^ Sonnentemperatur er- gibt sich entsprechend zu 5530® und 6790®, wenn man \aaxT=i 2940 ent- sprechend den Beobachtungen von L u m m e r und Pringsheim annimmt. Wie groß die Abweichungen der Beobachter auch sind, es unterliegt keinem Zweifel, daß das Maximum der Sonnenstrahlung im sichtbaren Gebiet des Spektrums liegt. Damit ist gesagt, daß die Sonnentemperatur die für unsere Beleuchtung günstigste Ausnützung der strahlenden Energie eines schwarzen Körpers ist und daß wir bei unseren künstlichen Lichtquellen, welche die Wärmestrahlung be- nutzen, diese Temperatur anstreben müssen, von der wir allerdings noch recht weit entfernt sind.

Wenn die Röntgenstrahlen, wie kürzlich Laue endgültig bewiesen hat, sich Anwendoi« wie Licht von sehr kurzer Wellenlänge verhalten, so muß das Verschiebungs- bangsgetets» gesetz auch auf sie angewendet werden können. Bekanntlich werden die Röntgen- *"'^b'5!S!" strahlen durch das Auf treffen von Elektronen auf feste Körper erzeugt und ihre Wellenlänge kann nur von der lebendigen Kraft dieser Elektronen abhängen. Anderseits müßten wir auch von heißen Körpern Röntgenstrahlen erhalten, wenn wir sie genügend hoch erhitzen könnten. Nun kann es für die Erzeugung der Röntgeifstrahlen nur auf die lebendige Kraft, nicht auf die Art ankommen, wie sie erzeugt wird. Nach der kinetischen Gastheorie ist die mittlere lebendige Kraft eines Moleküls ein Maß für die absolute Temperatur. Wenn wir, wie es die Elektronentheorie tut, annehmen, daß dies auch für die Elektronen gilt, so würde die lebendige Kraft der Kathodenstrahlen ein Maß für ihre Temperatur sein. Setzen wir die so berechnete Temperatur in das Verschiebungsgesetz ein, so gibt es uns die Wellenlänge des Maximums der Energie des Wellenlängenge- biets der Röntgenstrahlen an, das gut mit den aus anderen Überlegungen er- schlossenen Wellenlängen übereinstimmt.

2. Statistische Str ah lungstheorie. Mit den bisher besprochenen all- Anwendung gemeinen Gesetzen sind die Folgerungen erschöpft, die sich aus der allgemeinen ^hTOrie. mechanischen Wärmetheorie ziehen lassen. Dabei war es eine Grundlage der Betrachtungen, daß die einzelnen Farben, die in der Strahlung vorhanden sind, als ganz unabhängig voneinander betrachtet werden können. Wie sich die In- tensitäten bei einer bestimmten Temperatur auf die einzelnen Farben verteilen, kann aus diesen allgemeinen Betrachtungen nicht erschlossen werden. Um dieses Gesetz zu finden, bedarf es eines Eingehens auf die Vorgänge bei der Lichtemission, die sich offenbar in den Molekülen oder Atomen der Körper ab- spielen. Nach den Vorstellungen der elektromagnetischen Lichttheorie müssen es die an den Molekülen oder Atomen haftenden elektrischen Ladungen sein, deren Bewegung das ausgesandte Licht erzeugt. Eine wesentliche Stütze fand diese Auffassung indem von Zeeman entdeckten Phänomen. Man versteht hierunter die Veränderung, welche eine Spektrallinie erfährt, wenn man den lichtaussendenden Körper in ein magnetisches Feld bringt. Unter der Voraus-

2 1 6 lo. W. Wien: Theorie der WärmestrahluDg

Lichtemiasion Setzung, daß die Lichtemission durch Elektronen erfolgt, die kreisförmige Elektronen- Bahnen beschreiben, so daß die Farbe durch die Umlaufsgeschwindigkeit der bcwegung. Elektronen bestimmt wird, kann man die Veränderung dieser Umlauf sgeschwin- digkeit und damit der Farbe ohne Schwierigkeit berechnen. Aus der Verschie- bung der Spektrallinie und der Stärke des magnetischen Feldes kann man das Verhältnis der Ladung des Elektrons zu seiner Masse, die sog. spezifische Ladung, berechnen. Und diese stimmt nun bei den einfachen Typen des Zee- m an sehen Phänomens sehr genau überein mit den Zahlen, die man durch Messungen an Kathodenstrahlen gewonnen hat (vgl. Artikel 2i u. 30).

Wenn man so auch über den Mechanismus der Lichterregung etwas er- fahren hat, so weiß man doch noch in keiner Weise, wie die Bewegung der Elek- tronen, welche die Lichtemission bedingen, eigentlich zustande kommt. Es ist am wahrscheinlichsten, daß es die Zusammenstöße der Moleküle sind, welche diese Bewegung hervorrufen. Es bedarf also eines Eingehens auf die Molekular- theorie, um das eigentliche Strahlungsgesetz kennen zu lernen.

Bei der Gastheorie liegen die Verhältnisse ähnlich. Die mechanische Wär- metheorie vermag nichts über die Größe der spezifischen Wärme der Gase aus- zusagen, es bedarf auch hier des Eingehens auf die Molekulartheorie. Die auf Wahrscheinlichkeitsbetrachtungen der Zusammenstöße gegründete kinetische Gastheorie ist ziemlich weit vorgedrungen. Sie hat zunächst von dem zweiten Hauptsatz der mechanischen Wärmetheorie Rechenschaft ablegen können und hat dann wichtige Ergebnisse über die spezifischen Wärmen der Gase und über Reibung und Wärmeleitung ergeben. Es ist sogar gelungen, Abweichungen vom thermodynamischen Gleichgewichtszustand, wie sie z. B. in der Brownschen Molekularbewegung auftreten, theoretisch zu erklären. Die bisherige Strah- lungstheorie hat dagegen noch nicht einmal versucht, die allgemeinen Strah- lungsgesetze, das Stefan- Boltzmannsche Gesetz und das Verschiebungs- gesetz, molekulartheoretisch abzuleiten. Sie hat sich zunächst nur die Aufgabe gestellt, unter Zuhilfenahme der allgemeinen Gesetze das Verteilungsgesetz der Energie auf die einzelnen Wellenlängen zu gewinnen. Der erste Versuch in dieser Richtung von W. Wien knüpfte unmittelbar an die Molekularbe- wegung an. Man kann sich auch unregelmäßig bewegte Elektronen denken, die beim Auftreffen auf Moleküle Strahlung hervorrufen. Wesentlich ist dann die weitere Annahme, daß ein solches Teilchen immer nur Strahlung einer bestimmten, von der Geschwindigkeit abhängigen Wellenlänge emittiert und daß die Geschwindigkeitsverteilung der Teilchen dem von Maxwell für die wiensches Gasmoleküle aufgestellten Gesetz folgt (vgl. Artikel 11 u. 12). Nimmt man gctete** die aus der Thermodynamik abgeleiteten Strahlungsgesetze zu Hilfe, so er- hält man ein Strahlungsgesetz, das für einen großen Bezirk von Wellenlängen mit der Erfahrung gut übereinstimmt, nämlich solange das Produkt aus Tem- peratur und Wellenlänge nicht zu groß ist. Hiermit war eine Formel gewonnen, die sich nur für große Wellenlängen erheblich von der wirklichen entfernt. Die Beobachtungen stellten indessen diese Abweichungen unzweifelhaft fest und so war es sicher, daß die Formel einer Abänderung bedurfte.

Molekulartheoretische Gesetze von Wien und Rayleigh 217

Lord Rayleigh hat das Problem von einer ganz anderen Seite betrachtet. Anwendung Er wandte einen sehr allgemeinen Satz der statistischen Mechanik auf das Mocilnik LP Strahlungsproblem an, den Satz von der gleichmäßigen Verteilung der Energie straJ^i^ng. auf die Freiheitsgrade des Systems im Zustande des statistischen Gleichge- wichts. Der Satz sagt folgendes aus :

Im Zustande des Wärmegleichgewichts sind alle Bewegungen der Moleküle so vollständig unregelmäßig, daß keine Bewegung existiert, die vor einer anderen ausgezeichnet wäre. Man kann die Lage der bewegten Teile durch geometrische Bestimmungsstücke feststellen, die voneinander unabhängig sind und in deren Richtung die Bewegung fällt. Diese nennt man die Freiheitsgrade des Systems. In bezug auf die lebendige Kraft ist kein Freiheitsgrad vor dem anderen bevor- zugt, so daß jeder den gleichen Betrag der Gesamtenergie enthält. Es läßt sich auch die im leeren Raum befindliche Strahlung so darstellen, daß man die ihr zukommenden Freiheitsgrade erkennen kann. Gerade wie sich die Schwin- gungen einer Saite als System stehender Wellen darstellen lassen, so kann man auch die zwischen zwei spiegelnden Wänden hin und her gehende Strahlung als ein System stehender Wellen auffassen, die sich zwischen die Wände so an- ordnen, daß der Abstand der Wände immer ein ganzes Vielfaches der halben Wellenlänge ist.

Die einzelnen möglichen stehenden Wellen stellen hier die Bestimmungs- stücke der Vorgänge dar und entsprechen den Freiheitsgraden. Erteilt man jedem Freiheitsgrad den ihm zukommenden Energiebetrag, so erhält man das Rayleigh sehe Strahlungsgesetz, nach dem die Emission der absoluten Tem- peratur direkt und der vierten Potenz der Wellenlänge indirekt proportional ist. Dies Gesetz stimmt gerade dort mit der Erfahrung überein, wo das vorhin be- sprochene versagt und man kann es als das Strahlungsgesetz ansehen, das für verhältnismäßig große Wellenlängen gültig ist. Wenn indessen der Vorgang der R^yieighsciici Ausstrahlung nach den Gesetzen der Elektronentheorie erfolgt, so muß man, wie Lorentz bewiesen hat, notwendig zum Rayleighschen Strahlungsgesetz kommen, wenn man den Satz von der Verteilung der Energie auf die Freiheits- grade als richtig ansieht. Als allgemeines Strahlungsgesetz widerspricht es aber der Erfahrung durchaus, denn nach ihm müßte sich die Energie immer mehr bei den allerkürzesten Wellenlängen aufhäufen und auch die gewöhnliche Wärme- energie müßte hierbei den Körpern entzogen werden. Bei den sichtbaren Strah- len, für welche bei erreichbaren Temperaturen das Rayleigh sehe Gesetz nicht mehr gilt, kann man nach dem Kirch hoff sehen Gesetze leicht berechnen, daß der Gleichgewichtszustand der Strahlung in kürzester Zeit erreicht sein muß, der aber doch weit vom Rayleighschen Gesetze entfernt bleibt.

Hier treten uns nun die außerordentlichen Schwierigkeiten entgegen, mit Schwierigkeiten denen die Strahlungstheorie jetzt zu kämpfen hat. Wenn man an dem Satz der strahinngs- Verteilung der Energie auf die Freiheitsgrade festhält, so können die bisherigen elektromagnetischen Theorien nicht von dem allgemeinsten Phänomen, der Lichtaussendung, Rechenschaft geben. Daß diese Grundlagen aber doch die richtigen sind, geht daraus hervor, daß die elektromagnetische Theorie der

theorie.

2i8 lo W.Wien: Theorie der Wännestrahlung

Lichtaussendung das Zee man sehe Phänomen und die Aussendung von Rönt- genstrahlen richtig zu erklären vermag. Es muß also in den Molekularvorgängen etwas bisher Unbekanntes enthalten sein, was verhindert, daß sich die Energie der gewöhnlichen Wahrscheinlichkeitsbetrachtung gemäß verteilt. Wir werden noch sehen, daß in der Tat das Verhalten der spezifischen Wärmen der Körper zu demselben Ergebnis führt. Woher dieses Verhalten kommt, kann vorläufig noch nicht gesagt werden. Es ist möglich, daß die Zusammenstöße der Mole- küle, die man bisher nach den gewöhnlichen mechanischen Stößen beurteilt hat, etwas bisher Unbekanntes mit sich bringen. stnhiongsgeMts Jedenfalls ist es das Verdienst von Planck, neue Hypothesen in die Theo-

▼on Planck.

rie eingeführt zu haben, welche es ermöglichen, ein Strahlungsgesetz abzuleiten, das mit der Erfahrung bisher gut übereinstimmt. Es hat eine solche Form, daß es für lange Wellen in das Rayleighsche, für kurze in das oben besprochene Strahlungsgesetz überführt. Sein Ausgangspunkt ist auch wieder die Verteilung der Energie auf die Freiheitsgrade. Er unterwirft aber diese Verteilung einer Hypothese Beschränkung durch die Einführung einer neuen Hypothese der Energie- eiemente. clemcnte. Nach dieser Hypothese soll für periodische Schwingungen die Ener- gie nicht unbeschränkt teilbar sein, sondern sich nur nach endlichen Quanten verteilen können. Diese Energieelemente sind aber nicht konstante Mengen Energie, Energieatome, sondern sie sind nach dem Wienschen Verschiebungs- gesetz für verschiedene Schwingungen verschieden, so daß sie mit zunehmen- der Schwingungszahl dieser proportional zunehmen.

Hierin liegt die Schwierigkeit, diese Energieelemente physikalisch ver- ständlich zu machen. Wenn es sich nur um unteilbare Elemente der Energie handeln würde, so würde man die Hypothese wohl ebenso angenommen haben wie die Elementarquanten der Elektrizität und der Materie. Aber von Schwin- gungen, bei denen sich die Energie nur nach ganzen Vielfachen eines von der Schwingungszahl abhängigen Quantums verteilt, kann man sich auf den bis- herigen physikalischen Grundlagen kein Bild machen.

Man hat bisher immer angenommen, daß der Satz der gleichmäßigen Ver- teilung der Energie auf die Freiheitsgrade des Systems im Zustande des Wärmegleichgewichts eine notwendige Folgerung der Wahrscheinlichkeits- rechnung ist, wenn das System den bisher angenommenen allgemeinen elektro- magnetischen oder mechanischen Gesetzen gehorcht. Dies ist aber nicht all- gemein richtig, sondern nur unter Hinzunahme gewisser Zusatzhjrpothesen, im allgemeinen sind auch Verteilungen der Energie möglich, bei denen die verschiedenen Freiheitsgrade verschiedene Energie erhalten. Es ist daher wohl kaum erforderlich, die Schwierigkeiten der Strahlungstheorie durch Aufstellung neuer allgemeiner Gesetze für die elektromagnetischen Vorgänge zu besei- tigen, was man als ziemlich aussichtslos bezeichnen müßte mit Rücksicht auf das Fehlen jeder Andeutung, in welcher Richtung man zu suchen hätte. Viel- mehr wird man vorläufig bei den bisherigen bewährten elektromagnetischen Grundlagen bleiben. In der Hypothese der Energieelemente wird man zunächst mehr eine Vorschrift erblicken, in welcher Weise die Verteilung der Energie im

Theorie der Energieelemente von Planck 219

Zustande des Gleichgewichts auf die Freiheitsgrade vorzunehmen ist. Aller- dings kann man sich hiermit nicht begnügen; man muß vielmehr noch physi- kalisch zu begründen suchen, weshalb eine solche bestimmte Verteilung der Energie vorgenommen werden muß. Man wird den Grund in den atomistischen Eigenschaften der Materie suchen und hieraus abzuleiten haben, daß die ge- wöhnlichen wahrscheinlichkeitstheoretischen Sätze nicht angewendet werden dürfen. Möglicherweise handelt es sich um Beschränkungen in der Bewegungs- freiheit der Elektronen im Innern des Atoms. Man entgeht so vielen Schwierig- keiten der Planckschen Theorie, besonders der Schwierigkeit, die in der Frage liegt, ob die einzelnen Atome auch Energieelemente absorbieren und emittieren. Die Auffassung, daß die Verteilung der Energie nach Energie- elementen erfolgen soll, findet eine wesentliche Stütze in der Theorie der spezifischen Wärmen. Bis ist schon seit langem bekannt, daß die spezifischen Wärmen dem Dulong-Pe titschen Gesetz (vgl. Artikel 6) nicht genau folgen und bei tiefen Temperaturen abnehmen. Der Diamant folgte auch bei gewöhn- lichen Temperaturen diesem Gesetz nicht. Dieses kann aus dem Satz der Ver- Theorie

der ipezifischea

teilung der Energie auf die Freiheitsgrade abgeleitet werden und sagt aus, daß wärmen. in festen Körpern jedes Atom entsprechend seinen drei Freiheitsgraden den drei- fachen Betrag an Energie und durch die potentielle Energie im ganzen den sechsfachen Betrag der Energie eines Freiheitsgrades erhält.

Wenn man die Energie entsprechend der Planckschen Verteilung der Energie nach Energieelementen anwendet, so erhält man nach Einstein eine Formel, welche die Abhängigkeit von der Temperatur tatsächlich ergibt, wobei für die Schwingungszahl, die die Größe des Energieelements bestimmt, die den Atomabständen entsprechenden elastischen Schwingungen des Körpers zu wäh- len sind. Naturgemäß ist diese Formel ungenau und man erhält eine Formel, welche die tatsächlichen Beobachtungen sehr gut wiedergibt, wenn man nach Debye alle möglichen elastischen Schwingungen berücksichtigt und jeder das ihr zukommende Energieelement der Planckschen Formel entsprechend zu- teilt. Die Schwierigkeiten, mit der die Strahlungstheorie zu kämpfen hat, treten auch bei einer ganz anderen Betrachtungsweise hervor. Einstein hat die Schwankungen untersucht, welche die Strahlung auch im Zustande des Gleich- gewichts durch die Unregelmäßigkeiten der Wärmevorgänge fortwährend er- schwankongen fahren muß. Wenn wir uns in einem von Strahlung erfüllten Hohlraum eine strau^ kleine Platte denken, so wird diese einen Strahlungsdruck erfahren, der im drucks. Mittel auf beiden Seiten der Platte gleich ist. Da aber die Strahlung Unregel- mäßigkeiten enthalten muß, so wird der Druck manchmal auf der einen, dann wieder auf der anderen Seite größer sein, so daß die Platte kleine unregelmäßige Bewegungen ausführen muß, ähnlich der Bro wuschen Bewegung eines suspen- dierten Staubteilchens in einer Flüssigkeit. Man kann diese Schwankungen leicht berechnen. Nach den allgemeinen Untersuchungen von Boltzmann hängen Entropie und Wahrscheinlichkeit eng zusammen. Es ist nämlich die Entropie dem Logarithmus der Wahrscheinlichkeit des betrachteten Zustandes proportional. Aus dem Strahlungsgesetz kennt man die Entropie der Strahlung,

220 10. W.Wien: Theorie der Wärmestrahlung

SO daß dann auch die Zustandswahrscheinlichkeit bekannt ist. Aus dieser lassen sich die Schwankungen berechnen, wenn man das gewöhnliche Fehlergesetz zu- grunde legt. Der mathematische Ausdruck für diese Schwankungen setzt sich in eigentümlicher Weise aus zwei Gliedern zusammen. Das eine ist ohne weiteres verständlich. Es rührt von den Unregelmäßigkeiten her, die infolge der Inter- ferenzen der vielen voneinander unabhängigen Strahlenbündel eintreten, die in einem Punkt zusammentreffen. Dieses Glied ist bei großer Dichte der Strah- lungsenergie allein vorherrschend und entspricht dem Strahlungsgebiet, das dem R ay 1 e i g h sehen Gesetze folgt. Aber das andere Glied, das aus der Undulations- theorie nicht direkt erklärt werden kann, überwiegt bei kleiner Dichte der Strahlungsenergie (tiefer Temperatur). Man könnte es verstehen, wenn die Strah- lung aus Planckschen Energieelementen bestünde, die auch im leeren Raum lokalisiert wären. Man kann indessen diese Vorstellung nicht weiter verfolgen, schon deshalb nicht, weil dieses Glied nicht allein vorhanden ist. Bei diesen Schwierigkeiten ist es natürlich, daß die Meinungen über den jetzt einzuschlagen- den Weg sehr geteilt sind. Einige glauben, daß die Grundlagen der Elektro- dynamik geändert werden müssen. Aber die bisherige Theorie umspannt ein so weites Gebiet von Tatsachen, sie gibt von den Vorgängen bei den schnellsten Be- wegungen der Elektronen in den ß- Strahlen Rechenschaft, sie hat insbeson- dere bei dem Zee man sehen Phänomen, wo es sich doch gerade auch um die Lichtemission handelt, so gut bewährt, daß sie zweifellos auch weiterhin die eigentliche Grundlage der theoretischen Physik bilden wird. Auch ist die Max- well sehe elektro- dynamische Theorie so in sich geschlossen, daß es kaum mög- lich erscheint, sie umzubilden.

Die Theorie der spezifischen Wärmen zeigt, daß es nicht nur die Strahlung ist, bei welcher diese Schwierigkeiten auftreten, sondern daß diese in der Wärme begründet sind. Dies macht es weiter unwahrscheinlich, daß wir von den Grrund- lagen der elektromagnetischen Theorie abzuweichen hätten.

Vielmehr liegt das Problem offenbar so, daß wir nur bei großer Energie- dichte (bei hoher Temperatur) eine so vollständige Unordnung der Molekular* bewegung annehmen können, wie es in den Wahrscheinlichkeitsbetrachtungen bisher vorausgesetzt wurde. Bei abnehmender Temperatur wird die Bewegung immer geordneter und die Plancksche Theorie gibt den einfachsten Ausdruck für diese Abweichung von den gewöhnlichen Wahrscheinlichkeitsansätzen. Hiermit ist die Frage aber noch nicht erledigt, vielmehr muß nach dem eigent- lichen Grunde gesucht werden, weshalb die molekulare Unordnung mit abneh- mender Temperatur geringer wird. Diese Aufgabe wird schwer zu lösen sein ohne genauere Kenntnis der Eigenschaften der Moleküle und Atome. Lichteiektrische Schließlich ist noch eine wichtige Anwendung zu besprechen, welche die Vorgänge, pianckschc Theorie der Quanten auf die sog. lichtelektrischen Vorgänge ge- funden hat. Ultraviolettes Licht ebenso wie Röntgenstrahlen lösen aus festen Körpern, die auf sie treffen, Elektronen aus, die mit Geschwindigkeiten von der Oberfläche fortfliegen, die von der Wellenlänge der auffallenden Strahlung ab- hängig sind. Je kürzer diese Wellenlänge ist, um so größer ist die Geschwindig-

Lichtelektrische Vorgänge ; Spektrallinie 221

keit der Elektronen, und bei Röntgenstrahlen ist sie so groß, daß man sie in einer Cr ookes sehen Röhre nur durch eine Spannung von 30000 Volt erzeugen könnte, während die Geschwindigkeit beim ultravioletten Licht wenigen Volt entspricht. Nun zeigt eine einfache Rechnung, daß die mittlere Intensität der auffallenden Strahlung erst nach verhältnismäßig langer Zeit die Energie in einem Atom aufzuhäufen vermag, die erforderlich ist, um einem Elektron die beobachtete Geschwindigkeit zu erteilen. Da eine Aufhäufung der Energie während langer Zeit ausgeschlossen erscheint, so bleibt nur übrig anzunehmen, daß die Energie aus dem Energieinhalte des Atoms stammt. Dabei nehmen alle Atome aus der auffallenden Strahlung Energie auf, aber nur einige senden Ener- gie in Gestalt eines davonfliegenden Elektrons aus.

Es ist nun nicht unmöglich, daß dieser Vorgang mit der Planckschen Quantenhypothese in Zusammenhang steht. Denn tatsächlich ist die Energie der ausgesandten Elektronen sehr nahe gleich der Energie eines Planckschen Elementarquantums, wenn man dieses nach der Wellenlänge der auslösenden Strahlung berechnet. Man würde diesen Vorgang dann so aufzufassen haben, daß Emission eines Elektrons erst erfolgt oder erfolgen kann, wenn die Energie des Atoms den Betrag eines Elementarquantums überschreitet. Die Atome ent- halten nun nicht alle gleichviel Energie der betreffenden Schwingungszahl, und so werden zuerst diejenigen emittieren, denen nur ein kleiner Betrag fehlt am vollen Energiequantum, während die anderen erst länger Energie aufsammeln müssen, bis sie diesen Betrag erreichen.

Auch für die photochemischen Prozesse scheinen die Lichtquanten Bedeu- Photochemische tung zu besitzen. Nach Einstein soll die Zahl der zersetzten Moleküle gleich der Anzahl der absorbierten Elementarquanten sein. In der Tat findet War- burg bei der Ozonisierung des Sauerstoff es durch ultraviolettes Licht diesen Satz bestätigt.

Eine sehr bemerkenswerte Anwendung hat die Quantentheorie in aller- neuester Zeit auf die Theorie der Spektrallinien gefunden. Diese Linien ordnen sich vielfach nach genauen Gesetzmäßigkeiten und lassen sich durch mathe- matische Formeln von großer Einfachheit darstellen (Serien), aus denen die Schwingungszahl der Linien sich durch Einsetzen der natürlichen Zahlen er- gibt. Es war bisher nicht möglich gewesen, diese Formeln aus den bisheri- gen Differentialgleichungen der Physik ohne Zuhilfenahme ganz künstlicher Hypothesen abzuleiten. Nun ist es Bohr gelungen, zur einfachen Serieh- formel des Wasserstoffs zu gelangen durch die Annahme, daß um einen posi- tiven Kern des Wasserstoffatoms ein Elektron in bestimmten Bahnen um- laufen kann. Diese Bahnen sind dadurch bestimmt, daß der Energieunter- schied des Elektrons gleich einem ganzen Vielfachen des Energieelements ist. Nimmt man nun an, daß bei der Lichterregung ein Elektron von einer dieser Bahnen zu einer bestimmten andern übergeht und dabei ein Energieelement aussendet, so ergibt sich in der Tat die Balmersche Serienformel und zwar aus den universellen Konstanten der Strahlungstheorie in überraschender Übereinstimmung mit der Erfahrung. Allerdings ist die Theorie noch nicht

222 10. W. Wien : Theorie der Wännestrahlung

widerspruchsfrei in sich und widerspricht auch der elektromagnetischen Theorie durch die Annahme, daß das rotierende Elektron nicht strahlt

Bis kann nach alledem kaum zweifelhaft sein, daß die Planckschen Ele- mentarquanten der Energie in irgendeiner Weise de^ tatsächlichen Vorgängen entsprechen. Aber in das bisherige System der theoretischen Physik haben sie sich noch nicht in befriedigender Weise einordnen lassen, jedenfalls bleibt ihre eigentliche physikalische Bedeutung unklar. Nur die allgemeinen, aus der Thermodynamik abzuleitenden Sätze fügen sich ohne Schwierigkeit ein.

So zeigt die Strahlungstheorie eine Lücke in der theoretischen Physik an, deren Ausfüllung Aufgabe der nächsten Zukunft sein wird.

II. EXPERIMENTELLE ATOMISTIK.

Von Ernst Dorn.

Erfüllen die uns umgebenden Körper den Raum vollständig 7 Oder be- Die Fmgen- stehen sie aus kleinen, durch Zwischenräume getrennten Teilchen, die wir nur *** '^^' deswegen nicht einzeln wahrnehmen, weil unsere Sinnesorgane dazu nicht fein genug sind?

Diese Frage hat denkende Köpfe schon früh beschäftigt. Die griechischen GescUchtuches. Philosophen Leukipp os und Demokritos*) setzen als Prinzipien das „Volle" und das „Leere'* und bestimmen das Volle näher als unteilbare Urkörperchen oder Atome, welche sich nicht nach inneren Qualitäten, sondern nur geome- trisch durch Gestalt, Lage und Anordnung unterscheiden.^) An Demokritos schließt sich Epikuros an, dessen Lehre Lucretius mit großer Kunst, z. T. mit hohem poetischen Schwung dargestellt hat.

Von den späteren Atomistikem bis zum Beginn der Neuzeit mag nur Gassendi^) erwähnt werden, bei dem sich eine Reihe ganz modern anmutender Sätze findet. „Auch in scheinbar ruhenden Körpern sind die Atome in Bewegung; alle Übertragung von Bewegung kann nur durch Zug oder Stoß geschehen; auch die Wärme beruht auf der heftigen Bewegung sehr kleiner Atome; aller Wechsel der Eigenschaften ist auf Bewegung zurückzuführen.*' Gassendi hat auch schon den Gedanken einer Vereinigung mehrerer Atome zu einem Molekül ausgesprochen. * *)

Wie man sieht, haben die alten Philosophen an die Atomistik gleich die höchsten Anforderungen gestellt. Wir sind auch heute noch weit entfernt davon, eine derartige Atomistik zu besitzen* * *) ; ja man hegt begründete Zweifel, ob sie überhaupt möglich sei.

Unter dem Einfluß der Erfolge von Newtons Gravitationsgesetz ent- wickelte sich bekanntlich, im Widerspruch zu Newtons eigener Anschauung, die Annahme unvermittelter Fernwirkungen, und man setzte solche später auch

^ Diese Ziffern verweisen auf die Literaturangaben am Schlüsse des Artikels. *) Die Geburtsjahre sind etwa 500 und 460 v. Chr. Atomistische Vorstellungen haben sich also unabhängig von der Chemie und vor Kenntnis der Grundtatsachen derselben ent- wickelt.

**) Indem Gassendi bei der Durchführung seiner Atomistik gegen die Grundsätze der Mechanik verstiefi, femer seine Atome geradezu als kleine Maschinchen ausgestaltete, gab er den Anstoß zum Verfall der kinetischen Atomistik.

***) Als Versuche in dieser Richtung kann man die Wirbelatomtheorie von W. Thomson (Lord Kelvin) und Lenards Äthertheorie betrachten.

2 24 ^'- SRNST Dorn: Experimentelle Atomistik

zwischen den Atomen voraus. Auch gegenwärtig findet man Fernwirkungen in Molekulartheorien vielfach verwertet, z. B. von Maxwell und Boltzmann in der kinetischen Theorie der Gase; man darf ;aber wohl annehmen, daß die Physiker heutzutage von der Widersinnigkeit unvermittelter Fernwirkungen überzeugt sind. Die Erscheinungen verlaufen so, als ob solche Fem Wirkungen vorhanden wären; die Aufsuchung der Art der Übertragung wird ausdrück- lich oder stillschweigend der Zukunft überlassen. Das Wesentliche bleibt der molekulare Aufbau der Körper. Einwände gegen Es mögen hier gleich einige Ein'v^ände erörtert werden, welche gegen *hyp^he»c. ' die Atomistik und die Molekularhypothese überhaupt erhoben sind.

Warum sollen wir uns die Welt als Mosaik vorstellen, da wir die einzelnen Steinchen desselben doch nicht untersuchen können? (Mach.)

Gegen diese und andere Angriffe (von selten der Phänomenologen, welche als Aufgabe der Physik die ,, Beschreibung** der Naturvorgänge betrachten, und der ,, Energetiker**, die lediglich die Wandlungen der Energie verfolgen wollen) ist der Molekularphysik ein beredter Anwalt in Boltzmann') erstanden.

Wie besonders Maxwell und H. Hertz betont haben, besitzen die phy- sikalischen Theorien nur die Bedeutung von Bildern, die wir uns von den Dingen machen, um aus früheren Erfahrungen zukünftige vorauszusagen; nach Mach sind sie ,, Anweisungen zur Konstruktion eines Weltbildes**. Boltz- mann weist darauf hin, daß die Atomistik ein in den wesentlichen Zügen zu- treffendes Bild der Mechanik, Wärmelehre, Chemie und Kristallographie bietet. Besonders die letztgenannten Wissenschaften werden wohl nie die Atomistik entbehren können. Wärme Stellt man sich einmal auf den Boden der Molekularphysik, so wird man zu

* bew^g/ der Annahme gedrängt, daß die Wärme eine fortdauernde Bewegung der Moleküle sei. J. R. Mayer , der Entdecker der Äquivalenz von Wärme und Arbeit, teilte merkwürdigerweise diese Ansicht nicht.

Vorbehaltlich späterer weiterer Ausführungen mögen im Anschluß an Clausius und Boltzmann die Vorstellungen über die Art der Wärmebewe- gung kurz erörtert werden.

Bei den festen Körpern ist jedes Molekül durch „Kräfte** an seine Nach- barn gefesselt und seine Wärmebewegung verläuft in geradlinigen oder ellipsenähnlichen Schwingungen um eine Gleichgewichtslage, ohne sich von dieser merklich zu entfernen. Wird die Temperatur erhöht, so wächst zu- nächst nur die Weite der Schwingungen und damit das Volumen des Kör- pers. Bei genügender Verstärkung der Wärmebewegung kann die Schwingungs- weite so groß werden, daß das Molekül die Wirkungssphäre seiner ursprüng- lichen Nachbarmoleküle verläßt und unter der Mitwirkung anderer Moleküle sich dauernd von seiner ursprünglichen Ruhelage entfernt: Der Körper ist flüssig geworden.

Ist die Bewegung der Moleküle über eine gewisse Grenze gewachsen, so werden sich einzelne von der Oberfläche loslösen und frei in den Raum hinaus- fliegen: die Flüssigkeit verdunstet. Befindet sie sich in einem geschlos-

Kinetische Theorie der Gase (Bemoulli) 225

senen Gefäße, so werden einige Moleküle wieder auf die Flüssigkeitsoberfläche treffen und dort festgehalten werden. Wenn schließlich im Durchschnitt eben- soviel Moleküle zurückkehren als ausgehen, so „steht die Flüssigkeit in Be- rührung mit ihrem gesättigten Dampf**, woraus bereits erhellt, daß zwi- schen „Dampf** und „Gas** kein grundsätzlicher Unterschied besteht. Übrigens verdampfen auch viele feste Körper merklich.

Nach der kinetischen Theorie der Gase*) bestehen diese lediglich ausi>ie UnetiMh» solchen frei herumfliegenden Molekülen. Wirken auf diese keine äußeren Kräfte der gIIV wie die Schwerkraft, so bewegt sich jedes Molekül geradlinig mit gleichblei- bender Geschwindigkeit, bis es auf ein anderes oder auf die Wand des ein- schließenden Gefäßes trifft. Durch den Stoß wird Richtung und Geschwin- digkeit der Bewegung geändert. Bei* Laboratoriumsversuchen kann man von der Schwerkraft absehen; anders ist es mit elektrischen Kräften.

Diese Vorstellung von der Beschaffenheit der Gase ist zuerst von Daniel Daniel semoomp Bernoulli 1738 klar ausgesprochen und zur Herleitung des 1662 von Boyle BoyieroewS! gefundenen Gesetzes verwendet, nach welchem bei gleichbleibender Temperatur das Volumen einer und derselben Gasmenge dem Druck merklich umgekehrt proportional ist; die Dichte ist also dem Druck direkt proportional.

Der Grundgedanke von Bernoulli läßt sich wie folgt an einem besonderen Falle erläutern. In einem würfelförmigen Gefäße befinde sich eine sehr große An- zahl außerordentlich kleiner Kugeln, deren Gesamtvolum gegen das des Würfels verschwindend gering sei. Sie mögen sich in dem oben geschilderten Bewegungs- zustande befinden, so werden sie durch ihre Stöße auf die Wand einen Druck ausüben. Gesucht wird dessen Änderung, wenn die linearen Abmessungen des Würfels auf die Hälfte verringert werden, während dieselbe Gasmenge darin bleibt und die Geschwindigkeit der Teilchen sich nicht ändert.

Die Größe einer Würfelfläche ist auf den vierten Teil herabgesetzt, folglich kommen auf ein gleich großes Stück (z. B. i qcm) viermal soviel stoßende Teilchen als vorher. Jedes Teilchen hat aber nur den halben Weg zurück- zulegen, stößt also doppelt so oft. Die Zahl der Stöße auf i qcm wird daher in gleicher Zeit achtmal so groß sein als vorher. Das Volum ist aber auf Vs des anfänglichen gebracht, womit Boyles Gesetz abgeleitet ist.

Bernoulli zeigte weiter, daß, wenn das Volum der Teilchen nicht ganz gegen das des einschließenden Gefäßes vernachlässigt werden darf, der Druck bei Volumverringerung schneller steigen muß, als nach Boyles Gesetz, und erklärte auch bereits die Drucksteigerung durch Temperaturerhöhung als die Folge der vermehrten Geschwindigkeit der Moleküle.

Mit Bernoulli war die Atomistik, im besonderen die kinetische Gastheorie, über allgemeine, unbestimmte Erwägungen hinaus zu klar formulierten, einer quantitativen Prüfung durch die Beobachtung zugänglichen Ergebnissen gelangt. Diesem hoffnungsvollen Anfang entsprach aber der Fortgang nicht. Berno Ullis Arbeit wurde vergessen, und länger als ein Jahrhundert kam es nur zu vereinzelten Anläufen*), die wenig beachtet wurden.

*) Vgl. O. E. Meyer.»)

K.d.G.m.ni,Bdi Physik Ij

2 26 II- Ernst Dorn: Experimentelle Atomistik

jonio. Hier sei nur auf ein wichtiges, von Joule (1851) erhaltenes Ergebnis hin-

DCSQinixiQiifr der ^

Geschwindigkeit gewiesen. Wenn der Druck der Gase eine Folge der Stöße der Moleküle ist,

GattnlScküie. ^^^ ^^ ^^^^ ^^^ *^^®^ Geschwindigkeit und ihrer Masse (im Volum von i ccm,

d. h. ihrer Dichte) berechnen lassen. Mißt man, was keine Schwierigkeiten

bietet, den Druck, so kann man umgekehrt die Geschwindigkeit der Gasteilchen

ermitteln.*)

Man erhält für Luft von 485 m in der Sekunde**); ferner für Sauerstoff Stickstoff Wasserstoff Kohlensäure Argon Helium

461 493 1839 392 413 13 10 m/sek.

Diese Zahlen sind von der Größenordnung der Geschwindigkeit moderner Ge- schosse und übertreffen diese z. T. erheblich. Vom Standpunkte der kinetischen Gastheorie ist dies weiter nicht befremdlich, denn der Schall legt in trockener Luft von 331,4 m in der Sekunde zurück, und die Übertragung der Schall- bewegung muß doch durch Vermittlung der molekularen Stöße erfolgen.

Die Begründer Als Begründer der modernen kinetischen Gastheorie muß Clausius an- der neaeren , ,

Gastheorie, gesehen werden.

Nachdem Krönig^) schon 1856 beachtenswerte Gedanken über die kine- tische Gastheorie ausgesprochen hatte, sah sich Clausius*) dadurch ver- anlaßt, seine bereits früher begonnenen Studien zu veröffentlichen und später fortzusetzen. Er faßte neben der fortschreitenden Bewegung der Moleküle noch Drehung derselben sowie Schwingungen der Atome mehratomiger Gase im Molekül ins Auge, was sich für die Beziehungen zu den Wärmevorgängen als fruchtbar erwies.

Er widerlegte die Einwendungen, die gegen die kinetische Gastheorie er- hoben wurden wegen der vermeintlichen Unvereinbarkeit der großen Mole- kulargeschwindigkeiten mit der tatsächlichen Langsamkeit der Diffusion***) und Wärmeleitung in Gasen. Er wies auf die Schiefe der Stöße hin, infolge deren ein Teilchen einen Zickzackweg zurücklegt, dessen Ende im allgemeinen vom Anfang nicht weit entfernt ist. Genaaeres über Als „ideal** bezcichnct man ein Gas, welches dem Boyleschen Gesetz oyes esete. g|.ygjjg fQ\g^^ ^{g Verhalten sich die wirklichen Gase?

Ältere Versuche lieferten kein sicheres Ergebnis; erst seit der Mitte des vorigen Jahrhunderts führten die Fortschritte in der Beobachtungskunst und im Apparatenbau zum Ziele. Regnault zeigte 1847, ^^ ^^^ meisten damals bekannten Gase durch mäßige Drucke bis zu 14 Atm. stärker zusam-

*) p = NmG^ p CP*, wenn p der Druck in Dynen/qcm, A'' die Anzahl der Mole-

kille im ccm, m die Masse eines Moleküles in gr, G^ den Mittelwert des Quadrates der Geschwindigkeit, diese in cm/sek gemessen, p die Dichtigkeit des Gases bedeutet.

**) In die Formel G^]/iPIq ist einzutragen 1,0133* 10', p = 0,0012928, wodurch C;» 48 490 cm/sek, rund 485 m/sek folgt. Für andere Gase ist diese Zahl mit |/tf zu divi- dieren, wenn c die auf Luft bezogene Dichte ist. Übrigens ist Luft kein einheitliches Gas. ***) Ein schweres Gas, z. B. Kohlensäure, hält sich in einem hohen engen Zylinder ziemlich lange; der durchdringende Geruch von Schwefelwasserstoff verbreitet sich in einem großen Zimmer langsam , obwohl ein mit obigen Geschwindigkeiten frei fliegendes Teilchen den Raum viele Male in der Sekunde durchlaufen würde.

Die neuere kinetische Gastheorie. Boyles Gesetz 227

mengedrückt werden, als Boyles Gesetz verlangt, nur bei Wasserstoff blieb das Volum zu groß.

Da war es nun sehr auffallend, daß Natterer 1850—54 für sehr hohe Drucke bis zu 2790 Atm. das Volum viel zu groß fand, bei Stickstoff, Luft und Kohlenoxyd etwa vi er mall (Vgl. Artikel 7.)

Aufklärung brachten genaue Messungen von Cailletet (seit 1870) und anderen, insbesondere von Amagat (seit 1878), der die Drucke bis 450 Atm. durch Quecksilbersäulen, bis 3000 Atm. mit einer Art „umgekehrter hydrau- lischer Presse** maß und bis zu Temperaturen von 258® ging.

Die Abweichungen von B o y 1 e s Gesetz erkennt man am besten, wenn man für eine bestimmte Temperatur das Produkt aus Druck und Volum (pt;), das nach Boyle konstant sein sollte, in seiner Abhängigkeit vom Druck {p) betrachtet.

Zur Veranschaulichung trage man auf einer horizontalen Geraden von einem Punkte aus dem Drucke p entsprechende Strecken auf und in ihren End- punkten senkrecht zur Linie die zugehörigen Werte von pv . Tut man dies für eine Reihe von Temperaturen, so erhält man eine Schar von „Isothermen**. Für ein ideales Gas sollten diese horizontale Gerade sein; tatsächlich erreicht aber pv ein Minimum für

Stickstoff Sauerstoff Luft Methan Äthylen bei 45 ICK) 65 120 65 m Quecksilber.

Der Anschluß an Boyles Gesetz wird besser mit zunehmender Tempera- tur. Diese Tatsachen werden verständlich durch die Annahme anziehender Kräfte zwischen den Molekülen, auf welche schon die Möglichkeit der Ver- flüssigung der Gase hindeutet. Diese „Kohäsionskräfte** wirken in entgegen- gesetztem Sinne wie die oben (S. 225) erörterte Raumerfüllung der Moleküle, und je nachdem der eine oder der andere Umstand überwiegt, liegt die Abweichung von Boyles Gesetz nach der einen oder der anderen Seite*) (vgl. Artikel 6).

Nach der Seite der kleineren Drucke gelangten am weitesten wohl Scheel und Heuse mit Hilfe ihres Membranmanometers, bei dem die win- zigen Durchbiegungen eines sehr dünnen Kupferbleches nach einer optischen Methode gemessen wurden. Innerhalb des Bereiches von V20 ^^^ Viooo ^^ Quecksilber gelang es, Boyles Gesetz bis auf V2 Prozent zu bestätigen.

Die Druckzunahme bei Erhöhung der Temperatur führte bereits Temperatur. BernouUi auf die Steigerung der Molekulargeschwindigkeit zurück.

Es war ein außerordentlich glücklicher Gedanke von Amontons (1703), dieTemperatur durchdenDruckeinesauf konstantem Volum erhaltenen Gases zu messen.**) Durchgeführt wurde er erst um die Mitte des 19. Jahr- hunderts insbesondere durch Magnus und Regnault.

*) Die Bedingungen zur genauen Erfüllung von Boyles Gesetz erörtert ClausiusA "Es muB auch die Stoßdauer gegen die Zeit zwischen zwei Stöflen verschwindend klein sein. ^) Die Formeln sind in leichtverständlicher Bezeichnung

t^tLzh., wo ti.^tm:Zp.. A1so^/=A (i+aO-

a ist für Wasserstofi und Helium 0,00366255; für andere Gase ein wenig größer, z. B. für Luft 0,003670,

I5*

2 28 II- Ernst Dorn: Experimentelle Atomistik

Wählt man als Nullpunkt den Schmelzpunkt des Eises und als ,, Punkt loo" den Siedepunkt des Wassers unter dem Drucke einer Normalatmosphäre, so erhält man Anschluß an die Celsiusskala (vgl. Artikel 3). „Abtoiute" Weit übersichtlicher werden aber die Gesetze, wenn man die Skala unter den

emparator. £jgp^J^J^|. j^jg ^um Druck o fortgcsetzt denkt*), wobei man die vorher festge- legte Größe eines Grades beibehalten kann. Die „absolute" Temperatur T ist einfach dem Druck einer auf konstantem Volum gehaltenen Gasmenge pro- portional**) (vgl. Artikel 3 u. 5).

Ein Gasthermometer mit einem „idealen** Gase würde mit der „ther- modynamischen**, von der besonderen Beschaffenheit eines Körpers unab- hängigen Temperaturskala von Lord Kelvin übereinstimmende Angaben liefern (vgl. Artikel 5). Wasserstoff- und insbesondere Heliumthermometer weichen davon in weiten Grenzen nur sehr wenig ab, zwischen und 100® C. etwa 72000^- ^^^ absolute Nullpunkt der Kelvin- Skala liegt nach D. Berthelo t^*') bei 273,09^ C. , Kiaetuche Die kinetische Energie (K) des in der Raumeinheit (i ccm) enthaltenen

^an?*ab«S^^ Gases ist das halbe Produkt aus seiner Dichte (p) in den Mittelwert des Ge- '^^^v^^T&in^ schwindigkeitsquadrates (G^). Vergleichen wir dies mit dem S. 226 Anm. * ange- gebenen Wert des Druckes, so folgt die Energie pro Volum i numerisch gleich dem I %f achen Drucke. * * *) Da nun soeben die absolute Temperatur proportional dem Druck (einer Gasmasse bei konstantem Volum) gefunden wurde, ist auch die kinetische Energie proportional der absoluten Temperatur. Avogadros Bercits in seiner ersten Abhandlung^ erklärt Clausius es für wahr-

scheinlich, daß bei gleicher Temperatur die mittlere kinetische Energie eines Moleküls für alle Gase übereinstimmt.

Sind in dem Volum von je i ccm zwei verschiedene Gase von gleicher Temperatur und gleichem Druck enthalten, so übersieht man leicht, daß die Anzahl der Moleküle für beide Gase die gleiche ist.-)*) Hiermit ist also das Avoga drosche Gesetz, einer der Grundpfeiler der theoretischen Chemie (Nernst), aus der kinetischen Gastheorie hergeleitet. itoM Gesct«. Nach Dalton ist der Druck eines Gasgemisches gleich der Summe der

Partialdrucke, welche die Einzelgase, in dem Raum allein gedacht, ausüben würden. Dies ergibt sich leicht wie folgt. Zwei chemisch nicht aufeinander wirkende Gase seien zunächst durch eine Scheidewand getrennt. Da die durch-

*) Tatsächlich würden sich alle Gase vorher verflüssigen. •♦) / = a/o wo r- - -f /- 273 + / . und p^ für den Eispunkt gilt. ***) Ist m die Masse eines Moleküls, u) seine Geschwindigkeit, A^ die Anzahl der Moleküle im ccm, so wird AT— Z «« ui* = Nm G*^ pG\ Da ^ Nm ö* = p (?* war,

folgt AT« ^ p. G* ist der Mittelwert der w\

2

t) Die Gleichheit der Temperatur fordert —m^G^*^ m^G^*; die Gleichheit des

z. z

Druckes N^m^G^*^ N^ m^ G^ *, folglich A^^ « A^,. 0 o

Gasthermometer. Gesetze von Avogadro, Dalton, Maxwell 22g

schnittliche kinetische Energie eines Moleküls in beiden Gasen die gleiche ist, so ist zu erwarten, daß nach Entfernung der Wand und Mischung der Gase der Druck unverändert bleibt. Die Summe der nach Boyles Gesetz berechneten Partialdrucke ist aber dem Anfangsdrucke gleich.

Bei den bisherigen Erörterungen, die im wesentlichen sich auf Druck undMaxweiiaGeaeu Temperatur bezogen, kam lediglich der Mittelwert des Geschwindigkeits- de^lStS^g. quadrates, multipliziert in die Masse eines Moleküls in Betracht, d. h. die ^^^^^ Größen waren der mittleren kinetischen Energie proportional, und es genügte, mit einem dem entsprechenden Werte der Geschwindigkeit zu rechnen. In- dessen sind die Geschwindigkeiten der Moleküle keineswegs gleich, und selbst, wenn sie es in einem Augenblick wären, würden sich infolge der Stöße sofort Verschiedenheiten einstellen.

Es ist nun nicht möglich, für jedes der zahlreichen Moleküle in jedem Au- genblick die Geschwindigkeit und ihre Richtung anzugeben; für die wahr- nehmbaren Vorgänge kommt es hierauf aber auch nicht an, vielmehr hängen diese nur von der durchschnittlichen Geschwindigkeits Verteilung ab.

Bei der Behandlung dieser Aufgabe hat sich, und dies ist von großer Be- deutung, eine neue Betrachtungsweise entwickelt, die statistische, welche die Wahrscheinlichkeit des Eintretens gewisser Ereignisse aufsucht. Bei den Gasen handelt es sich um die wahrscheinlichste Verteilung der Geschwin- digkeiten.

Gefunden ist das Gesetz derselben von Max well ^^), den allgemeinsten Beweis hat Boltzmann') gegeben. Seine Gültigkeit ist, streng genommen, an das Vorhandensein unendlich vieler Moleküle geknüpft; für eine endliche Anzahl gilt es um so näher, je größer diese ist; der Zustand für eine endliche Anzahl wechselt im Laufe der Zeit, der mittlere Zustand für unendlich lange Zeiträume würde aber wieder dem Gesetze entsprechen.

Das Gesetz, das sich auf die Bewegung des Schwerpunktes des Moleküls bezieht, ist unabhängig von den Vorstellungen, die man sich über die Art des Stoßes macht; es gilt für einatomige wie für zusammengesetzte Moleküle.

Außer der ganzen Geschwindigkeit eines Moleküles kommen noch die Teilgeschwindigkeiten in Betracht, mit welchen das Molekül nach drei aufeinander senkrechten Richtungen fortschreitet („Geschwindigkeitskompo- nenten**).

Das Verhalten der Geschwindigkeit und ihrer Komponenten erläutert Maxwell in folgendem Bilde.*)

Mehrere tüchtige Schützen mögen auf eine Scheibe eine große Anzahl von Schüssen abgeben. Die Löcher werden in der Nähe des Zentrums am dichtesten sein, bei Entfernung von diesem spärlicher werden.

Zerlegen wir die Scheibe in schmale senkrechte Streifen gleicher Breite (s. Fig. I S. 230), so liegen die meisten Treffer auf dem durch das Zentrum gehenden Streifen, die folgenden weisen um so weniger auf, je weiter sie vom Zentrum abstehen.

*) Im Bilde kommen zwei Dimensionen vor; für das Gas drei.

f<r'

230

II. Ernst Dorm: Experimentelle Atomistik

<

»

••

I.'

«

Beschreiben wir andererseits um das Zentrum Kreise mit einem klei- nen Radius, dem doppelten, drei- fachen usf., so zerfällt die Scheibe in einen kleinen Kreis und Ringe von gleicher Breite. Im inneren Kreise finden wir nun wegen seiner geringen Fläche ganz wenig Treffer, im näch- sten Ringe schon mehr usw., aber von einem gewissen Abstände an nimmt die Zahl wieder ab.

Ahnlich sind nun nach Maxwells Gesetz die kleinen Geschwindigkeits- komponenten die häufigsten; die ganz kleinen Geschwindigkeiten Fig. z. selbst sind selten, ebenso die sehr gro-

ßen, dazwischen liegt ein Wert häufigsten Vorkommens, indessen Nähe übrigens die weitaus überwiegende Anzahl der vorkommenden Geschwindigkeiten liegt. Wählen wir den „wahrscheinlichsten" (häufigsten) Wert der Geschwindig- keit ab Elinheit, so haben von 10 000 Molekülen Geschwindigkeiten zwischen

fl

••

o u. 0,1

0,1 0,2

0,8

11

>j

f>

0,2

0,3 0,9

8 Moleküle

133 790

»»

If

M

0,9 u. 1,0

1.0 1,1

1.1 1,2 1,9 2,0

825 Moleküle 825

794 192

M

M

Im ganzen über 2,0: 460;

3,0 nur etwa 4.

Ein Teilchen mit einer Geschwindigkeit über vier kommt erst auf mehr als eine Million Teilchen. Also sind die großen Geschwindigkeiten außerordentlich selten. Die Teilchen mit Geschwindigkeiten größer als die häufigste sind zahl- reicher als die mit kleinerer: 5724 gegen 4276 unter 10 000.

Mit Hilfe von Maxwells Gesetz ergibt sich der arithmetische Mittelwert

der Geschwindigkeit Q W»^^ ^0,9213 G. Spezififlcho Um ein Gramm eines Gases bei konstantem Druck um i ® zu erwärmen, G^*e. braucht man eine größere Wärmemenge (^^) ab bei konstantem Volum (^J, denn im ersteren Falle wird durch Zurückdrängung des äußeren Druckes Arbeit gelei- stet, welche auch aus der zugeführten Wärme bestritten werden muß. c^ und c„ sind die spezifischen Wärmen des Gases bei konstantem Druck und konstantem Volum; experimentell scharf bestimmbar ist c^ und c^c^ (vgl. Artikel 4u. 6). Unter der Voraussetzung, daß die kinetische Energie der fort- schreitenden Bewegung der Moleküle dem ganzen Wärmeinhalt des Gases entspricht, folgt theoretisch c^c„ = l Vs = 1,666 •*)

*) Die kinetische Energie der Moleküle in i ccm eines Gases der Dichte p^ bei 0* C. ist nach S. 228 Anm. *** Po ^0' £^r^ und wächst nach S. 228 für i* um Vt Po G^^aErg.

MaxwelU Geseti. Spezifische Wäime der Gase

331

Ein Grammolekül eines solchen Gases sollte zur Er- wärmung um etwa 3,0 Grammkalorien brauchen*), d, h. M c„ sollte konstant 3,0 sein {Af Molekulargewicht). Diese Folgerungen aus der kinetischen Theorie waren aber für die Clausius be- kannten Gase nicht erfüllt. Vielmehr wird z.B. für Sauer- stoff Mcp =s 32 X 0,1563 = 5,00 und cjc„ nahe 1,402.

Das chemische Verhal- ten von Sauerstoff, Stick- stoff, Wasserstoff, Chlor . . . hatte bereits dahin geführt, die Moleküle dieser Gase als aus zwei Atomen bestehend zu betrachten, und Clausius') deutete die hohen Werte der spezifischen Wärme dahin, daQ auQer der fortschreitenden Bewegung der Moleküle noch Bewegungen der Atome im Molekül und ev. drehende Bewegungen desselben vorliegen. Auch eine „potentielle Energie" ist möglichenfalls vorhanden.

Da war es nun von außerordentlicher Bedeutung, daß Kundt und War- Qu^ckdibm- b urg (i 876) nach der Methode der Kund tschen Staubfiguren bei hohen Wärme- ' ' graden {281" und 346'} für den einatomigen Quecksilberdampf cjc„ = 1,667 fanden.

Ein wertvolles und, wenn erst rein dargestellt, verhältnismäßig leicht zu dib ,.Bd«igus' handhabendes Material erhielt die Molekularphysik in den seit 1894 entdeckten „Edelgasen", Es wurde Cf/c„ gefunden für

Argon Helium Neon Krypton Xenon

1,667 1,65 1,66 1,66 1,66.

(wegen

i vgl, S. 217 Anm. "). Messen wäre dies p^c^Erg. ei Erwärmung um ron apErg entspricht.

r für den Augenblick auch die Wärmemengen i]

tritt eine VolurovergröBerung um a com ein, welcher eine Da nun ^ p»tj,', so wird die Arbeit p, G|,'a£'»y.

AI50

d.h.

V^.

j Po Co'o

, = 1,666 ,

GsKbwiadlgkelt Fif.3.

•) Nach der vorigen Amnerkung ist p^ "^e " ~ Po ''« ' <" ^*t< somit M c^ = —MG^a.Erg, was zur Reduktion auf Gramm- kalorien mit 4, 186' lo' zu dividieren ist. Setit man (Saner- stoft) ^■■3i.6^,<B4öioocm^ek, a = Vi73,i> ^ kommt 3,04 gr-Kal.

232 II. Ernst Dorn: Experimentelle Atomistik

Für Argon und Helium ist auch die spezifische Wärme bei konstantem Druck gemessen (0,1233 bzw. 1,266). M c„ berechnete sich hiernach tatsächlich zu nahe 3. Die Edelgase gehen mit keinem Stoff eine chemische Verbindung ein, man hätte also ihr Atomgewicht nicht feststellen können, wenn obige Zahlen nicht ihre Einatomigkeit nachgewiesen hätten, so daß ihr Atomgewicht dem aus der Gasdichte folgenden Molekulargewicht gleichzusetzen ist.

Da für den Quecksilberdampf und die Edelgase die ganze Energie in der fortschreitenden Bewegung der Moleküle enthalten ist, folgt, daß die Moleküle dieser Substanzen keine Rotation besitzen. Sie verhalten sich also wie vollkommen glatte Kugeln, deren Inneres auch sphärisch-symmetrisch gebaut ist.

Die Voraussage des Verhältnisses der spezifischen Wärme einatomiger Gase ist einer der schönsten Erfolge der kinetischen Gastheorie.

In einer von Clausius abweichenden Weise behandelten Maxwell und Boltzmann^) die spezifische Wärme mehratomiger Gase, indem sie die An- zahl der Bewegungsmöglichkeiten („Freiheitsgrade**) eines Systems von Teil- chen ins Auge faßten.

Werden die Moleküle als absolut glatte, undeformierbare Körper angesehen, so wird für q Freiheitsgrade das Verhältnis der spezifischen Wärmen c^c„ =

Für sphärisch-symmetrische einatomige Moleküle kommt nur die Bewe- gung nach drei aufeinander senkrechten Richtungen in Betracht, da die Stöße der Moleküle keine Rotation erzeugen würden. Also wird ? = 3 und c^c^ = i Vs in Übereinstimmung mit dem Früheren.

Bei einem zweiatomigen Molekül (allgemeiner bei Symmetrie um eine Achse) wäre j = 5 und cjc„ = 1,4. Dieser Wert ist für zweiatomige Gase die Regel (z. B. H,, O^, N^ CO, NO, HCl, HJ).*)

Ein beliebig gestaltetes starres Molekül hätte sechs Freiheitsgrade, somit f/^tf = Ii33> welcher Wert sich bei Cl^, BrJ und angenähert bei Br^ und J^ findet.

Moleküle mit mehr als zwei Atomen haben oft ein sehr kleines Verhältnis cjc„, doch haben sich von der Beschaffenheit der Atome unabhängige Be- ziehungen nicht feststellen lassen. Merkwürdigerweise zeigt Wasserstoff {H^ für Temperaturen unter 60^ absolut = 213^ C. bei konstantem Volum 3,0 als spezifische Wärme des Gramm-Moleküls, wie ein einatomiges Gas! Dieser Befund ist mit der Maxwell-Boltzmannschen Auffassung kaum zu vereinigen, wohl aber mit der von Clausius,- wenn man in Anlehnung an Nernsts Wärmetheorem annimmt, daß schon in einiger Entfernung vom abso- luten Nullpunkt die relative Bewegung der Atome merklich verschwindet. Innere Reibang Schou früh entwickelte C 1 a u s i u s *) eine Beziehung zwischen der mittleren

we^gi ^* freien Weglänge der Gasteilchen, ihrem durchschnittlichen Abstände und dem Moiekoie. Molekulardurchmcsscr, doch vermochte er diese Größen selbst nicht zu ermitteln.

*) ^»4 kann nicht vorkommen; cJc^^i^s ist auch nicht beobachtet.

Spezifische Wanne. Freie Weglänge der Moleküle. Reibung 233

Für die freie Weglänge gelang dies dem Scharfsinn Maxwells^*) mit Benutzung der inneren Reibung der Gase.

Das wesentliche Merkmal der Reibung ist „Übertragung von Bewegungs- größe'' in einer zur Bewegung selbst senkrechten Richtung. Setzt man z. B. eine Schicht einer ruhenden Wassermasse in gleichförmige Bewegung, so wird die nächste Schicht in Mitleidenschaft gezogen usw. Während aber bei tropf- baren Flüssigkeiten und auch bei festen Körpern der Vorgang der Übertragung noch nicht recht aufgehellt ist, übersieht man sofort, daß bei dem Gase die tumultuarische Molekularbewegung schneller fortschreitende Teilchen in die langsamer bewegte Schicht befördert. Durch die Zusammenstöße wird dann die Energie der fortschreitenden Bewegung in Energie der Molekularbewegung, also in Wärme umgesetzt.

Es mögen zwei Schichten eines Gases im Abstand von i cm eine Geschwin- digkeitsdifferenz von I cm in der Sekunde haben, so nennt man ,, Reibungs- koeffizient'' die in einer Sekunde durch i qcm hindurch übertragene Quanti- tät fortschreitender Bewegung. Maxwell findet den Reibungskoeffizienten r\ proportional der Dichte p des Gases, der Weglänge L und der mittleren Ge- schwindigkeit G. Hierzu tritt noch der Faktor ^/s-*)

Mißt man also den Reibungskoeffizienten, so ist die mittlere Weg- Mittiere

I .. t i_ Weglänge der

lange zu berechnen. Moieküi«.

Mit Hilfe von Beziehungen, die Clausius hergeleitet hat, läßt sich die Der ReitKmgs- Formel für den Reibungskoeffizienten so umgestalten, daß sie nur vomabhiagi^*^ Druck unabhängige Größen enthält.**) Der Reibungskoeffizient ^^<=^^ müßte also vom Drucke unabhängig seini Ohne Rechnung wird dies dadurch verständlich, daß bei Verdünnung eines Gases zwar die Zahl der die Bewegung übertragenden Teilchen abnimmt, dafür aber die Tiefe des Ein- dringens wächst.

So unwahrscheinlich dies Ergebnis klingt, so ist es doch zwischen weiten Grenzen durch Versuche bestätigt worden. Es war dies ein Triumph der kinetischen Theorie.

0. E. Meyer und Maxwell ermittelten den Reibungskoeffizienten aus der Abnahme der Weite der Torsionsschwingungen von Scheiben. Die voU- kommneren Versuche von Maxwell ergaben Unabhängigkeit vom Druck zwischen 1,37 und 74,09 cm Quecksilber.

Ein anderes Verfahren, die Transpirationsmethode, läßt den Rei- bungskoeffizienten berechnen aus der Zeit, während welcher ein gemessenes Gasvolum eine lange, enge Kapillarröhre unter der Wirkung einer Druckdiffe- renz durchströmt.

*) T) n p Z. Cj. Andere Forscher geben andere, wenig verschiedene Zahlenkoeffizienten

z. B. O. £. Meyer r) » 0,30967 pLQ, vro Q der arithmetische Mittelwert der Geschwindigkeit ist. Genauere Formeln unter verschiedenen Annahmen s. Chapman. ')

**) r)B ; G wie oben, m Masse eines Moleküls, b sein Durchmesser.

IT 0

234 '^* ^^^^ DORN: Experimentelle Atomistik

Die Strömungsgeschwindigkeit wächst von der Röhrenwand nach der Mitte; denkt man sich also das Gas in einen zentralen Faden und Zylinder- mäntel von wachsendem Durchmesser zerlegt, so werden sich diese aneinander „reiben**. Die in der 2^iteinheit durchströmende Gasmenge ist der vierten Potenz des Röhrenradius direkt, dem Reibungskoeffizienten umgekehrt pro- portional.

Aus älteren Versuchen von Graham konnte 0. E. Meyer für Luft, Sauerstoff und Wasserstoff die Unabhängigkeit des Reibungskoeffizienten vom Druck für Überdrucke von 5,08 bis 50,8 cm Quecksilber dartun.

Die Formel (S. 233 Fußnote *) ergibt für ein Gas von bekannter Temperatur und bekanntem Drucke die mittlere Weglänge L. Dividiert man die mittlere Geschwindigkeit Q durch die mittlere Weglänge L, so erhält man die Anzahl der Zusammenstöße eines Teilchens während einer Sekunde.

Nachstehendes Täfelchen enthält für einige Gase den Reibungskoeffizienten,

die mittlere Weglänge (für und Atmosphärendruck) und die zugehörige

Stoßzahl.12)

T) Z,(cm) Stoßzahl (MiUionen/Sek.)

0,0001887 0,0000283 4190

2 114 178 3800

1926 102 4180

1671 095 4780

0841 178 9520

Die mittlere Weglänge ist der Dichte, somit dem Drucke umgekehrt pro- portional. Für Viooo Atm. = 0,76 mm Quecksilber wäre die Weglänge eines Sauerstoff moleküls bereits 0,01 cm = 0,1 mm, für ein Milliontel Atm. s= 0,CMX)76mm Hg locml Die Quecksilberluftpumpe nach Gaede gestattet noch höhere Vakua zu erreichen; nach Dewars Verfahren der Absorption der Gas- reste durch Kohle von 190® 0,000 007 mm //g, wozu eine Weglänge von etwa IG m gehört.

Es wäre nun ein grober Fehler, wenn man die Unabhängigkeit der Gas- reibung vom Druck für beliebig kleine Drucke behaupten wollte. Man darf nicht vergessen, daß die Ergebnisse hergeleitet sind unter der Annahme, daß die Abmessungen des Gasraumes sehr groß sind gegen die mittlere Weglänge der Moleküle.

In der Tat fanden Kundt und Warburg^') aus Torsionsschwingungen einer Kreisscheibe zwischen zwei festen eine erhebliche Abnahme der Reibung für Drucke von i mm Quecksilber bis zum Vakuum ihrer Quecksilberluftpumpe, und War bürg bestätigte dies durch Transpirationsversuche. Die genannten Forscher nahmen eine „Gleitung** des Gases an der Wand an, die sie aus der kinetischen Vorstellung als notwendig nachwiesen. ^Molekular- Die Strömung durch enge Röhren bei niedrigen Drucken („Molekular- atrömmig." strömuttg**) ist von Knudsen^^) weiter untersucht. Wenn umgekehrt wie bei gewöhnlichen Drucken die molekulare Weglänge groß ist gegen die Röhrenweite, werden die Stöße der Moleküle untereinander zurücktreten

Helium . . . Argon. . . . Sauerstoff . Stickstoff . Wasserstoff

Weglänge. »»Molekularströmung." Reibung und Temperatur 235

gegen die Stöße auf die Wand. Knudsen setzt nun voraus, daß, wenn die Teil- chen eines als Masse ruhenden Gases eine feste, ebenfalls ruhende Wand treffen, die Bewegungsrichtung nach dem Stoß von der Einfallsrichtung unabhängig ist. Die aus dieser Voraussetzung abgeleiteten Gesetze der „Molekularströ- mung** sind von denen der Reibungsströmung verschieden, z, B. wird die durch- strömende Gasmenge der dritten Potenz des Röhrenhalbmessers proportional.*) Versuche ergaben eine Bestätigung der Theorie.

Gaede hat auf die Molekularreibung eine außerordentlich wirksame Luftpumpe gegründet („Molekularluftpumpe**).

Maxwell hatte die Gasmoleküle zunächst als hart-elastische Kugeln be- Reibun« trachtet und erhielt dann den Reibungskoeffizienten der Quadratwurzel aus der «"p«»*»»*' absoluten Temperatur proportional.

Aus unvollkommenen Versuchen schloß er später auf Proportionalität mit der Temperatur selbst; indem er die Moleküle als Kraftzentra betrachtete, die sich mit einer Kraft umgekehrt proportional mit der fünften Potenz der Entfernung abstoßen, erhielt er in der Tat den Reibungskoeffizienten propor- tional der absoluten Temperatur. Viele sehr genaue Versuche über eine große Zahl von Gasen widersprachen aber dieser Theorie entschieden. V*)

Eine in weiten Grenzen brauchbare Formel für die Abhängigkeit des Rei- satheriand» bungskoeffizienten von der Temperatur entwickelte Sutherland, indem er ""*' zwischen den kugelförmig gedachten Molekülen anziehende Kräfte annahm. Derartige Kräfte werden die Anzahl der Stöße vergrößern, und zwar um so mehr, je geringer die Geschwindigkeit der Moleküle, also je niedriger die Tempera- tur ist.**)

Die Formel hat sich für mittlere und hohe Temperaturen durchgängig be- währt, versagte aber vielfach unterhalb 60® C.^*), sogar für Helium.

Auch auf Gasgemische läßt sich die Sutherlandsche Formel mit Erfolg anwenden. Hier tritt eine merkwürdige, schon von Graham bemerkte Er- scheinung auf. Obwohl Wasserstoff einen kleineren Reibungskoeffizienten besitzt als Kohlensäure, so bewirkt ein nicht zu großer Wasserstoffzusatz zu Kohlensäure eine Zunahme des Reibungskoeffizienten, ebenso ein Helium- zusatz zu Argon. Hier ebenso für Wasserstoff Sauerstoffgemische bewährte sich die Theorie von Chapman.')

Bei der Reibung von Gasgemischen kommt es auf die Weglänge der Moleküle im Gemisch an; dies bedingt das Interesse an der Erscheinung.

Der Vorgang bei der Leitung der Wärme in Gasen wird durch die wärmei«itung. kinetische Theorie sofort verständlich: herrscht in einem Teile einer Gasmasse höhere Temperatur, also schnellere Molekularbewegung, so wird diese durch die Stöße nach Stellen niederer Temperatur übertragen werden.

*) Hierauf werden auch die Strömungserscheinungen von Gasen durch poröse Wände zurückgeführt

**) *!/ =■ % Tr'/T^V' + ai;wQY\ der Reibungskoeffizient, t die Temperatur nach Celsius, T die absolute Temperatur, a der Ausdehnungskoeffizent des Gases, C eine Konstante.

236 II- Ernst Dorn: Experimentelle Atomistik

Als ,, Koeffizient der Wärmeleitung*' bezeichnet man die Anzahl von Grammkalorien, welche durch i qcm in einer Sekunde hindurchgeht, wenn zwei um l cm entfernte ebene Schichten eine Temperaturdifferenz von i ® haben. Dabei ist eine Gramm- Kalorie diejenige Wärmemenge, welche i g Wasser um i^ (genauer von 14,5® auf 15,5®) erwärmt (vgl. Artikel 8).

Der Anstoß zu erfolgreichen Untersuchungen über Wärmeleitung der Gase ging erst von der kinetischen Gastheorie aus, und zwar war es wieder die von der Theorie geforderte Unabhängigkeit vom Druck, welche zu einer experimen- tellen Prüfung aufforderte.

Diese Aufgabe wird erschwert durch die Notwendigkeit, die Wärmeüber- tragung durch Strömungen in der Gasmasse zu hindern und den auf die Wärme- strahlung fallenden Teil abzusondern. Methoden fur Stefan umgab einen Metallzylinder, der zugleich als Luftthermometer Wann "*«^8- ^jig^te, mit einem zweiten in geringem Abstand (0,235 bis 0,512 mm). Das Gas wifkrilliiiii befand sich in dem geschlossenen Raum zwischen den Zylindern. Der Apparat wurde, nachdem er Zimmertemperatur angenommen hatte, in Eiswasser ge- taucht, und der Gang des Luftthermometers in Abhängigkeit von der Zeit beobachtet. Wegen der Enge des Zwischenraumes war der Einfluß der Strö- mungen gering; die Strahlung hat Stefan nicht bestimmt, hält sie aber auf Grund eines Hilfsversuches für unbedeutend, wärmaioitimg Verdünnung des Gases im Zwischenraum von Atmosphärendruck auf

unäbhängi^g. 428 mm änderte die Wärmeleitung nicht.

Die Stef ansehe Methode ist dann vor vielen Beobachtern angewendet und weiter ausgebildet, namentlich von Winkelmann; für eine genaue Berechnung ist es vorteilhaft, statt der Zylinder Kugeln bzw. Kugelschalen anzuwenden.

Kundt und Warburg^*) benutzten Thermometer mit kugeligen Gefäßen in kugelförmigen Glashüllen und fanden die Abkühlungszeit zwischen zwei be- stimmten Temperaturen vom Druck unabhängig innerhalb 150— i mm Queck- silber für Luft und Kohlensäure und 150— 9 mm für Wasserstoff. Für noch geringere Drucke nahm die Abkühlungsgeschwindigkeit ab.

Nach einer von Kundt und Warburg ausgesprochenen Vermutung ist der Grund dieser Erscheinung ein Vorgang an der Wand. Ist die Wand wärmer als das Gas, so werden die von ihr fortfliegenden Moleküle höchstens die Temperatur der Wand haben, die auf die Wand zufliegenden aber eine »tief ere, da sie ja kälteren Schichten entstammen. Die der Wand benachbarte Gasschicht wird also eine niedrigere Temperatur als die Wand besitzen: es wird ein Tem- peratursprung vorhanden sein. Nach v. Smoluchowski kann man dem- selben Rechnung tragen, indem man die Wand um eine Strecke t hinter ihren wirklichen Ort verlegt denkt, wonach Gehrcke für Luft f = l,83L, für Wasser- stoff T = 5,70 L (L = mittlere Weglänge) ist. Diese muß aber immer noch klein gegen die Abmessungen des Gasraumes sein. Methode Schlciermacher verfährt folgendermaßen: In der Achse eines zylin-

^** m^her**' drischcn Glasrohres, das in einem Bade konstanter Temperatur sich befindet, ist ein Platindraht ausgespannt, der durch einen elektrischen Strom erwärmt

Wärmeleitung. Beziehung zur Reibung 237

wird. Ist der Zustand stationär geworden, so wird die vom Strom erzeugte Wär- memenge durch Leitung und Strahlung fortgeführt; den Betrag der letzteren liefert ein Versuch im hohen Vakuum.

Gemessen wird die Stromstärke und die Potentialdifferenz zweier Stellen des Drahtes, hieraus ist die erzeugte Wärmemenge und der Widerstand des Drahtes berechenbar (vgl. Artikel 32); der Vergleich mit vorgängigen, bei ver- schiedenen Temperaturen ausgeführten Widerstandsmessungen liefert die Tem- peratur des Drahtes.

Nachstehend sind einige Wärmeleitungskoeffizienten zusammengestellt: He^*) Ar^*) Luft Wasserstoff Sauerstoff Stickstoff

o,Os339*) 0,0^389 0,04569 0,03387 0,04578 0,04569

Da bei der Reibung Quantität der fortschreitenden Bewegung, bei der Bedehonffeii Wärmeleitung Wärmeenergie durch den gleichen Vorgang, nämlich durch die wt^. Molekularbewegung übertragen wird, so lag es nahe, eine Beziehung zwischen ^^^HSSL,*?*^ den Koeffizienten der Reibung (ti) und der Wärmeleitung (X) zu suchen.

Alle theoretischen iBetrachtungen führen auf eine Gleichung der Form

wo c„ die spezifische Wärme des Gases bei konstantem Volum, /"einen Zahlen- faktor bedeutet.

Für/"sind theoretisch die verschiedensten Werte von 0,5 aufwärts gefunden worden.

Diese Theorien haben sämtlich die Prüfung durch das Experiment nicht bestanden.^ Nur ein Ergebnis von Chapman (a. a. O. S. 46off.) wurde be- stätigt, nämlich daß für sphärisch-symmetrische Molekille/ = 2,50 sein soll, gleichgültig ob die Gasmoleküle elastische Kugeln, Kraftzentren oder sich anziehende Kugeln sind.

Sphärische Symmetrie wird bei den Molekülen der Edelgase vorausgesetzt werden können, und in der Tat folgte aus den Beobachtungen von Schwarze in Halle für Helium /"= 2,507, für Argon 2,501. Den gleichen Wert fand neuerdings Bannawitz (Halle) für Neon.

Es bleibt demnach hier noch ein weites Feld für theoretische und experi- mentelle Untersuchungen; besonders bei tiefen Temperaturen sind interessante Ergebnisse zu erwarten.

Die Wärmeleitung wächst, wie vorauszusehen, mit steigender Temperatur, doch sind die Ergebnisse verschiedener Methoden nicht im Einklang.**)

Ganz veränderte Verhältnisse treten ein, wenn die molekulare Weglänge wännai©itimg groß wird gegen die Abmessungen des einschließenden Gefäßes. Dann wird die niedrigen Wärmeübertragung der Anzahl der übertragenden Moleküle d. h. dem Druck ^"»^®'»- proportional und weit kleiner als bei „gewöhnlichen** Gasdichten.

*) o, bedeutet: 000, ähnlich o^ :oooo.

♦*) Setzt man ^^^^^^ii + ß^t so wird ß zwischen o* und loo* für He 0,00318, für Argon 0,00260, Lufto,oo2S3 (Schwarze a.a.O.). Nach der Methode von Stefan-Winkel- mann Band letzterer kleinere Werte z.B. Luft 0,00190. Vielatomige Gase haben größere ß, z. B. Methan 0,00655 (Ziegler), Äthylen 0,00763 (Krey).

238 II* Ernst Dorn: Experimentelle Atomistik

Aus den insbesondere von Knudsen^^) angestellten Beobachtungen geht hervor, daß die auf eine wärmere, feste Wand treffenden Gasteilchen nicht mit einer Geschwindigkeit zurückprallen, welche der Wandtemperatur entspricht - besonders bei Wasserstoff ist der Unterschied groß. Auch von der Beschaffen- heit der Wand war der Wärmeaustausch abhängig, z. B. für blankes Platin klei- ner als für platiniertes. Radiometer Hicraus wird die Wirkungsweise des Radiometers von Crookes („Licht-

Ton roo es. jjj^jj|g«4j verständlich. Der Flügel, der einerseits blank, anderseits platiniert ist, sei gegen die Abmessungen des Behälters klein, dann entspricht die mittlere Geschwindigkeit der Gasmoleküle merklich der Temperatur der Hülle. Wird der Flügel, z. B. durch Bestrahlung, erwärmt, so teilt die platinierte Seite den Gasmolekülen eine größere Geschwindigkeit mit als die blanke, und wird durch Reaktion zurückgetrieben. Diftiaion. Schichtet man ein leichtes Gas über ein schweres, z. B. Wasserstoff über

Kohlensäure, so tritt eine allmähliche Vermischung der beiden Gase ein, ent- gegen der Wirkung der Schwere : die Gase diffundieren ineinander (vgl. Artikel 6).

Wie bei der Reibung fortschreitende Bewegung, bei der Wärmeleitung Energie, so wird bei der Diffusion Materie durch die Molekularbewe- gung übertragen.

In einem vertikalen Rohr von gleichmäßiger Weite befinde sich z. B. ein Gemisch von Kohlensäure und Wasserstoff derart, daß der Gehalt an Wasser- stoff von unten nach oben zunimmt, so werden durch einen Querschnitt mehr Wasserstoffteilchen von oben nach unten als umgekehrt treten. Der Über- schuß der nach unten gelangenden Wasserstoffmoleküle (für eine Sekunde und einem qcm berechnet), die „Diffusionsströmung** wird erhalten, wenn wir die Dichtendifferenz des Wasserstoffes für zwei um i cm entfernte Schichten mit dem „Diffusionskoeffizienten** multiplizieren. Dieser wird von der Natur der Gase, dem Druck, der Temperatur und möglichenfalb von dem Mischungs- verhältnis der Gase abhängen.

Die ersten genaueren Messungen über Diffusion sind von Loschmidt angestellt. Die beiden Hälften einer vertikalen Röhre (975 mm lang, 26 mm Durchmesser) konnten durch einen Schieber*) getrennt oder in Verbindung gesetzt werden. In der ersten Schieberstellung wurde die untere Hälfte mit dem schwereren, die obere mit dem leichteren Gase gefüllt und dann die Ver- bindung für eine gemessene Zeit hergestellt. Nach erneutem Abschluß wurde das Gasgemisch in den beiden Teilen analysiert. Man erhält so das Endergebnis der Diffusion während der ganzen Versuchsdauer.

Waitz vermochte durch Messung der Lichtbrechung des durch Diffusion entstehenden Gasgemisches in verschiedenen Höhen seines trogartigen Diffu- sionsgefäßes den Vorgang zeitlich und örtlich zu verfolgen. Doch ist die An- wendbarkeit dieses Verfahrens sehr beschränkt. Versuche über Gasdiffusion sind schwierig und manchen Störungen, insbesondere durch Strömungen in- folge von Temperaturunterschieden ausgesetzt. Bei einatomigen Gasen kommt

*) Ein Hahn läßt leichter Undichtheiten vermeiden.

Diffusion. Unmittelbare Eigenschaften der Moleküle 239

noch hinzu, daß chemische Methoden zur Analyse des Gemisches nicht anwend- bar sind und nur eine Bestimmung der Dichte zum Ziele führt. Diese ist aber wegen der geringen verfügbaren Mengen nicht leicht.

Eine Steigerung des Gesamtdruckes wird durch Verringerung der freien Weglänge die Diffusion verlangsamen, und Loschmidt fand tatsächlich in Übereinstimmung mit allen Theorien den Diffusionskoeffizienten dem Ge- samtdruck umgekehrt proportional. Temperaturerhöhung steigert die Geschwin- digkeit der Gasteilchen, muß abo die Diffusion beschleunigen. Dies bestätigen denn auch die Beobachtungen von Loschmidt und die umfangreicheren von V. Obermayer, aber über das Gesetz der Abhängigkeit von der Temperatur bestehen noch Zweifel.

Wahrscheinlich ist dies Gesetz nicht für alle Gaspaare das gleiche, auch ist der Eünfluß des Mischungsverhältnisses der beiden Gase noch nicht sicher aufgehellt.!«)

O. E. Meyer') und Chapman^) berechneten den Diffusionskoeffizienten aus den Reibungskoeffizienten.

Die Häufigkeit der Zusammenstöße zwischen den Molekülen und daher Die auch die nuttlere freie Weglänge wird von den Abmessungen der Moleküle ab^ wunuteibareii hängen, und schon Clausius*) hat (unter Annahme der Kugelform) eine Be- •«*>**" ^^^ Ziehung aufgestellt zwischen der mittleren Weglänge, dem Durchmesser der Moleküle und ihrer Anzahl im Kubikzentimeter.

Seine Formel ist sodann insbesondere durch Berücksichtigung des Max well sehen Gesetzes der Geschwindigkeitsverteilung verbessert wor- den; die mittlere Weglänge ergibt sich umgekehrt proportional dem Quer- schnitt eines Moleküls und der Zahl der Moleküle im Kubikzentimeter.*)

Es ist hiernach die mittlere Weglänge umgekehrt proportional dersamme der Summe der Querschnitte der Moleküle im Kubikzentimeter; de7M<Si"* diese kann also berechnet werden, da man die mittlere Weglänge aus dem Rei- >^^««»<^<^™- bungskoeffizienten erhält.

Die in i ccm bei und Atmosphärendruck enthaltenen Teilchen würden^) folgende Flächen einnehmen:

Wasserstoff Sauerstoff Kohlensäure Chloräthyl

9 900 17 4CX) 27 000 49 300 qcm

also etwa ein bis fünf Quadratmeter.

Hieraus wird man nicht etwa auf einen großen Molekularquerschnitt schließen dürfen, sondern umgekehrt auf einen sehr kleinen; denn je feiner man eine Substanz pulvert, eine um so größere Fläche kann man mit dem Pulver dicht bestreuen.

Um zur Kenntnis des Molekulardurchmessers selbst zu gelangen, Darchmesser

.. « . ¥%•« r t f 9 der Gasmoleküle

ist noch eine Beziehung erforderlich.

*) Befinden sich im Kubikzentimeter N Moleküle des Durchmessers b, so ist die mitt- lere Weglänge i

240 ii> Ernst Dorn: Experimentelle Atomistik

Nach LoMhmtdt Elnc oberc Grenze erhielt Loschmidt^*) durch die Überlegung, daß im flüssigen oder festen Zustande die Moleküle den Raum auch noch nicht vollstän- dig erfüllen werden, woher ihr Gesamtvolum kleiner sein wird als das von dem verflüssigten (oder erstarrten) Gase eingenommene.*)

So wurden u. a, folgende (zu großen) Werte in Zehnmilliontel mm(= lo^'mm) berechnet: Wasserstoff 30,6; Sauerstoff 15,7, Kohlensäure 16,2; Helium 28,5; Argon 10,7.

Aas der Eine Untere Grenze für die wirkliche Raumerfüllung durch die Gasteil-

koiutaate. chcn erhielt Dorn durch Verwertung der elektrischen Eigenschaften der Gase (der „Dielektrizitätskonstante").^*) E^ ergab sich so der Molekulardurchmesser für Wasserstoff 1,4; Kohlensäure 1,8; ferner Helium 0,597 (iO""'mrn) (vgl. Artikel 13 u. 14).

Ans dem Da bei den Gasen mit großer Genauigkeit die Dielektrizitätskonstante

koJffisieDtoä. gleich ist dem Quadrat des Brechungskoeffizienten (für lange Wellen), so kann auch dieser zur Ermittelung des Molekulardurchmessers benutzt werden.

Exner findet so u. a. (in 10""' mm) : Stickstoff 1,7 ; Sauerstoff 1,6; Chlor 1,9 ; Rudorf : Helium 0,559; Argon 1,59.

Aas dea Eiu weitcrcs Verfahren zur Ermittlung des Molekulardurchmessers stützt

von Boyies sich auf die Abweichungen der Gase von Boyles Gesetz, die einerseits in der

Ge»tx. Raumerfüllung der Moleküle, andererseits in der gegenseitigen Anziehung der- selben ihren Grund haben. Van der Waals berücksichtigte beide Um- stände, indem er zum Druck einen mit abnehmendem Volum wachsenden Betrag {ajv^) hinzufügte, vom Volum eine konstante Größe (&) subtrahierte. Beide Zusatzglieder lassen sich aus Beobachtungen ermitteln.

Nach van der Waals ist nun h das Vierfache des von den Molekülen erfüllten Raumes* ♦) (vgl. Artikel 7).

Für Kohlensäure folgt aus h = 0,00 228 und L = 0,0^68 cm der Mole- kulardurchmesser € = 3,29 10""' mm, für Wasserstoff aus b = 0,00 052, L = 0,04178: = 1,96 10"' mm.

Die Oben (S. 239) war die Summe der Querschnitte der Moleküle in l ccm ge-

z^ ^ ^ funden; da wir soeben den Durchmesser eines Moleküls bestimmen gelernt haben, folgt sofort sein Querschnitt und weiter durch einfache Division die Zahl 91 der Moleküle in i ccm bei unter Atmosphärendruck, die sog. Lo- schmidtsche Zahl (91). Verbindet man für Kohlensäure mit der Querschnitt- summe 27000 qcm den zu großen Molekulardurchmesser nach Lo-

•) Die vorige Formel werde geschrieben oder nach Multiplikation mit h

Die eingeklammerte GröBe ist das von den Molekülen eingenommene Volum, sie ist kleiner als das durch Änderung des Aggregatzustandes erhaltene v^ somit

b < 6 y 2"v £.

••>

Absolute Größe der Moleküle. Loschmidts und Avogadros Zahl 241

Schmidt 16,2. 10""* cm, so folgt die jedenfalls viel zu kleine Zahl 91= 1,31 Trillionen. Der wahrscheinlich zu kleine, aus der Dielektrizitätskonstante er- haltene Durchmesser 0,18. lO"^ cm führt auf 106 Trillionen. O.E.Meyer (Gastheorie S. 335) findet auf dem letzteren Wege für Luft 60 Trillionen. Die nach van der Waals berechneten Molekulardurchmesser von Kohlensäure und Wasserstoff ergeben 30,6 bzw. 32,8 Trillionen (= 3,28. lO**).

Alle Rechnungen dieser Art liefern Werte der Los chmi dt sehen Zahl (9i) von derselben Größenordnung, doch gehen die einzelnen Werte noch stark auseinander.

Später werden Methoden erörtert werden, welche eine sicherere Ermitt- lung von 9i ermöglichen; vorgreifend möge 2,77. lo^* als wahrscheinlicher Wert der Loschmidtschen Zahl angenommen werden.

Mit Hilfe derselben hat Chapman aus van der Waals Theorie und unabhängig davon aus dem Reibungskoeffizienten folgende Werte des Mole- kulardurchmessers € (in 10""' mm) berechnet.^) ^

Aus V. d. W. Aus dem Reibungs- Theorie ^ koeffizienten

Wasserstoff 2,30 2,36

Stickstoff 3,52 3,10

Kohlensäure 3,40 2,98

Helium 2,32 1,88

Argon 2,86 3,02

Die Masse eines einzelnen Moleküls ergibt sich einfach, wenn voium, Ma«© man die Masse im Volum l ccm (für C. und Normalatmosphäre), d. h. aeTM^ltSüe. die auf Wasser bezogene Dichte des Gases durch die Anzahl 9i der Moleküle dividiert.

Aus dem Molekulardurchmesser*) ist leicht das Molekularvolum zu be- rechnen und nunmehr weiter die Dichte der Moleküle.

In nachstehender Zusammenstellung ist noch die größte gemessene Dichte der verflüssigten Gase zum Vergleich hinzugefügt.

Helium Argon Sauerstoff Stickstoff Wasserstoff Kohlensäure

Masse des Moleküls 0,639 6*43 5,16 4,51 0,324 7,14x10""'^

Dichte 1,81 4,58 3,88 2,88 0,471 3,89

Dichte der Fl. ... 0,146 1,429 1,429 0,854 0,0763 1,057

Hieraus geht hervor, daß, abgesehen von Wasserstoff und Helium, die Moleküle in den Flüssigkeiten „ziemlich dicht zusammengepackt'* sind.

Da das „Mol** (soviel Gramm als das chemische Molekulargewicht beträgt) für alle Gase ein Volum von 22 400 ccm einnimmt, so braucht man die Lo- schmidtsche Zahl nur mit 22 400 zu multiplizieren, um die sog. Avogadro- Avogadros zahi sehe Zahl, die Anzahl der Moleküle im „Mol** zu erhalten.

Aus 91 = 2,77. lO^* folgt die Avogadrosche Zahl Stt = 6,20, io".

*) Benutzt sind die Molekularradien, die Chapman (a. a. O. S. 476) unter Annahme anziehender Kugeln aus dem Reibungskoeffizienten berechnet.

EL cLG.IILni^Bdx Physik l5

242 II- Ernst Dorn: ExperimenteDe Atomistik

DieBrownscbe Dcf englischc Botaniker Brown*') beobachtete 1827 in dem Pollen der Bewegung, pfj^^j^^e Clafckia pulchella unter dem Mikroskop zylindrische Körperchen von etwa V200 ^^ Länge, die in dauernder unregelmäßiger Bewegung begriffen waren, ferner weit kleinere, noch rascher bewegte Kügelchen. Ähnliche Be- wegungen zeigten Teilchen getrockneter und in Alkohol aufbewahrter Pflanzen sowie anorganische Körper.

Einen wesentlichen Fortschritt brachten die sorgfältigen Beobachtungen von Christian Wiener.^®) Nicht Infusorien konnten die Bewegungen ver- ursachen, diese waren auch nicht beim Aufsetzen des Deckglases mitgeteilt, nicht durch Wärmeunterschiede oder Verdunstung bedingt, vielmehr schreibt er sie bereits „inneren, dem Flüssigkeitszustande eigentümlichen Be- wegungen** zu.

Die Aufmerksamkeit weiterer Kreise wurde auf diese Erscheinungen wieder durch Gouy (1889) gelenkt. Er schloß Erschütterungen und Temperaturunter- schiede sorgfältig aus; Beleuchtung mit verschiedenfarbigem Licht und die Einwirkung eines kräftigen Elektromagnets änderten an der Bewegung nichts. Diese war um so schwächer, je größer die Abmessungen der Teilchen und die Reibung der verwendeten Flüssigkeiten waren. Auch er spricht sich dahin aus, daß die Bro wüsche Bewegung uns den inneren Bewegungszustand der Flüssig- keiten sichtbar macht.

Ähnliche Bewegungen an suspendierten Teilchen in Gasen (Zigarrenrauch, Salmiakdämpfe usw.) hat wohl zuerst Bodaszewski (1881) beobachtet. Er erblickt in ihnen ein Bild der von der kinetischen Theorie angenommenen Be- wegungen der Gasmoleküle.

Ein vorzügliches Hilfsmittel zur Erforschung der Brown sehen Bewegung schufen Siedentopf und Zsigmondy in ihrem Ultramikroskop. Dieses genial erdachte Instrument*) läßt Teilchen noch als vorhanden erkennen, welche in einem gewöhnlichen Mikroskop wegen ihrer Kleinheit nicht mehr wahrnehm- bar sind.

Die Bewegungen dieser „ultramikroskopischen'' Teilchen sind verglichen mit denen der „mikroskopischen*' von außerordentlicher Lebhaftigkeit, so daß Zsigmondy zuerst eine neue, von der Brown sehen Bewegung verschiedene Erscheinung vor sich zu haben glaubte.

Zsigmondy, der auch schon Messungen über die Bewegung der Teil- chen kolloidaler Goldlösungen angestellt hat, erwartet „Aufklärung von der kinetischen Theorie der Flüssigkeiten**. Eine solche wurde von Ein- stein") und V. Smoluchowski*®) entwickelt, und damit war der experimen- tellen Forschung der Weg vorgezeichnet.

Die erfolgreichsten messenden Versuche sind von Perrin*^) und The Svedberg") angestellt. Perrint Van't Hoff hatte die Gasgesetze auf verdünnte Lösungen ausgedehnt,

MeMangen.

*) Beim Ultramikroskop gelangt von der Lichtquelle kein Licht unmittelbar ins Gesichts- feld; die Teilchen werden seitlich beleuchtet und durch das an ihnen gebeugte Licht sichtbar.

Brownsche Bewegung. Perrins Messungen 243

Einstein (und unabhängig Perrin) erweiterte den Gültigkeitsbereich auf verdünnte Emulsionen.

Durch ein sinnreiches Zentrifugierungsverfahren bereitete Perrin Emul- sionen von Gummigutt und Mastix, deren kugelförmige Teilchen merklich von gleicher Größe waren.

Die Dichte der Substanz wurde nach verschiedenen Methoden („ Schwebe- methode", Pyknometer) (vgl. Artikel 6) übereinstimmend gefunden (Gummi- gutt 1,206, Mastix 1,063). ^^^ Kugelhalbmesser erhielt Perrin zunächst aus der Schnelligkeit des Sinkens in einer Flüssigkeit von bekannter Dichte und Zähigkeit nach einer Formel von Stokes.*) Andere Methoden gaben gut stim- mende Werte, was wegen der gegen die Allgemeingültigkeit von Stokes For- mel erhobenen Bedenken wesentlich ist. Der Halbmesser war bei Gummigutt 0,14 0,53 ^, bei Mastix 0,52 6^ (im = Viooo J^"^)-

Perrin betrachtet eine Emulsion von gleichen Teilchen und sucht die Ver- Koiueiitnttion teilung derselben unter dem Einfluß der Schwere. Es ist zu erwarten, daß die in ve«cbiedoner tieferen Schichten mehr Teilchen enthalten werden. ^****

Bei der Herleitung der Formel**) ist eine wesentliche Voraussetzung, daß die mittlere kinetische Energie der Kügelchen gleich ist derjenigen der Moleküle eines Gases gleicher Temperatur. Die Formel gestattet, aus dem Verhältnis der Konzentration in zwei Schichten bekannter Höhendifferenz die Avogadrosche Zahl zu berechnen.

Die Versuchsanordnung kann hier nicht eingehend beschrieben werden. Hervorgehoben sei, daß die ganze Flüssigkeitssäule nur die Höhe von o, l mm hatte.

Perrin bezeichnet als sichersten Wert der Avogadroschen Zahl den mit einer besonders sorgfältig bereiteten Gummiguttemulsion (r = 0,212 ^) erhal- tenen 7,05. IG**; andere Beobachtungsreihen lieferten

Gummigutt Mastix

r 0,14; 0,3; 0,29; 0,45; 0,52 M

Ä 5iO-8>o; 7>5; 6,5; 7,2; 7,2x10*«.

Wenn die mittlere kinetische Energie der suspendierten Teilchen der Mole- Avogadn» Zahi kularenergie eines Gasteilchens gleich sein soll, so schien es am nächsten liegend. Bewein»* nach die Brownsche Bewegung unter dem Mikroskop messend zu verfolgen und aus »iMtein. der so erhaltenen mittleren Geschwindigkeit und der Masse der Kügelchen die Energie zu berechnen.

Dieser Weg ist in der Tat zuerst betreten worden; die Energie ergab sich aber so etwa 100 000 mal kleiner als erwartet. Der Grund hierfür ist der, daß

^ 6irr)r2/a r*(A ^W, wor) der Reibungskoeffizient (die .^Zähigkeit**) der Flüssig- keit, r der Radius der Kügelchen, v die Sinkgeschwindigkeit, A die Dichte der Substanz, ä die der Flüssigkeit, ^ die Schwerebeschleunigung ist

•*) ?^lognat^-^r*^(A-</)A. Hier ist fft die „Gaskonstante»' (8,31. loMn

absolutem Mafie), 7* die absolute Temperatur, 9[ die Avogadrosche Zahl, n^ und n die Konzentrationen in zwei um A verschiedenen Höhen. Sonst wie in i).

i6*

244 II. Ernst Dorn: Experimentelle Atomistik

die tatsächliche Bahn der Teilchen viel verwickelter ist, als sie im Mikroskop erscheint. Erst die theoretischen Untersuchungen von Einstein^*) ermög- lichten eine erfolgreiche Behandlung der Brown sehen Bewegung,

Man denke sich den Ort eines Teilchens im Gesichtsfelde in gleichen Zwi- schenzeiten bezeichnet, ziehe von den so erhaltenen Punkten Senkrechte auf eine beliebige Richtung und bilde den Mittelwert (?) der Quadrate des Ab- standes aufeinander folgender Fußpunkte der Senkrechten. Dieser Mittelwert steht dann in einer einfachen Beziehung zum Radius der Teilchen, der Zähigkeit der Flüssigkeit und der Avogadroschen Zahl % und kann zur Bestimmung der letzteren verwendet werden.*)

Perrin und seine Mitarbeiter führten die soeben angedeuteten Messungen aus, indem sie ihr Mikroskop mit einem Zeichenapparat (camera lucida) ver- sahen und den Ort eines Teilchens immer nach Ablauf derselben Zeit ver- merkten. Messungen an Gummigutt mit verschiedenen Korngrößen und Flüssig- keiten führten im Mittel auf 21 = 7,0 10*^; ähnlich Mastix auf 7,3. 10**,. womit zugleich die Unabhängigkeit von der Dichte (die ja in Einsteins For- mel nicht vorkommt) erwiesen ist.

Für die Häufigkeit der Verschiebungen verschiedener Größe fordert die Theorie ähnliche Formeln wie die Maxwellsche für die Geschwindigkeiten der Gasmoleküle; die Versuche entsprachen nahe der Theorie. Brownache Auch für Brownsche Rotationsbewegungen hat Einstein eine For-

X* rt*-»*S Ana.

bewegtmg. mel abgeleitet auf Grund der durchschnittlichen Gleichheit der Energie der fortschreitenden und drehenden Bewegung.**)

Perrin konnte unter Benutzung von Einschlüssen in Mastixkugeln (Durchmesser 13 ^) die Stellungen in gleichen Zeitintervallen markieren und fand daraus 21 = 6,5 10*'. Dies Ergebnis ist von Interesse, da bei den ein- atomigen Gasen eine merkliche Drehung der Moleküle zu fehlen scheint. Perrins Werte von 91 sind wahrscheinlich alle etwas zu hoch, svedbergs Thc Svcdberg^*) bringt im ersten Teile seiner Schrift Gründe für seine °' molekulartheoretisch bedeutsame Auffassung bei, daß Emulsionen, kolloi- dale Lösungen mit mikroskopischen, ultramikroskopischen und amikrosko- pischen***) Teilchen und „wahren** Lösungen eine stetig zusammenhängende Reihe bilden. Widerlegung Wichtig ist Seine Widerlegung der elektrischen Theorie der Brown- eiektrJcben schen Bewegung. Die Teilchen eines Kolloides sind im allgemeinen elektrisch ^^®°™^^ geladen; aber die Molekularbewegung in einem Silberhydrosol (einer kolloidalen Bewegimg. Sllbcrlösung) blieb ungeändert, als die Kolloidteilchen durch vorsichtigen Zu- satz von Aluminiumsulfat entladen und umgeladen wurden.

Durch Abmessung der Verschiebung in gleichen Zeiten fand Svedberg bei

fR T' I

•) E* T -=rz . WO T die Zwischenzeit, r] der Reibungskoeffizient ist, im übrigen

«l 3 "^ ^^

die Bedeutung der Zeichen wie S. 243 Anm. •• ist.

•♦) Boltzmanns Satz von der gleichmäßigen Verteilung der Energie auf „Momentoide". *) Auch im Ultramikroskop nicht unterscheidbaren.

Messungen von Perrin» Svedberg. Elektron ^A.^

kolloidalen Goldlösungen mit kleinen, direkt hergestellten Körnchen nach der Einsteinschen Formel die Avogadrosche Zahl 2( = 6,2 10*', was sich den Ergebnissen anderweitiger Untersuchungen noch besser anschließt als der Wert von Perrin. Die Häufigkeitsverteilung der verschiedenen Größen der Verschiebung wurde mit den Formeln v. Smoluchowskis*®) in Übereinstimmung gefunden.

Atomistische Vorstellungen sind nicht nur für die wägbare Materie von Atomistisch« Bedeutung, vielmehr hat insbesondere Helmholtz (1881) aus den von Kiektmitit. Faraday ermittelten Gesetzen der Elektrolyse geschlossen, daß aus einer ato- mis tischen Struktur der Materie auch eine atomistische Struktur der Elektrizität folgt.

Bei der Elektrolyse bewegt sich die Elektrizität zusammen mit den Be- standteilen, in welche die zu zersetzende Verbindung zerfällt, und zwar wandert mit einem Grammatom*) einer jeden chemisch einwertigen Substanz die gleiche Elektrizitätsmenge, nämlich 9647 Einheiten des elektromagnetischen Maßsystems == 2,894 10^* elektrostatische Einheiten (vgl. Artikel 13).

Da nun in jedem Grammatom gleich viel Atome enthalten sind (Avo- gadrosche Zahl), so wandert mit jedem Atom eines einwertigen Elementes die gleiche Elektrizitätsmenge**); dieselbe bzw. ganze Vielfache tritt bei anderen Erscheinungen auf. Jede Methode, welche zur Kenntnis dieses elektrischen Elementarquantums („Elektron**) führt, ergibt durch einfache Division die Avogadrosche Zahl.

H. A. Wilson (1903) ließ Röntgenstrahlen auf feuchte Luft zwischen den Mewung Platten eines Kondensators wirken, wodurch die Luftmoleküle in positive und ^^ch \viLon! negative Bestandteile (Ionen) zerlegt werden. Durch plötzliche Ausdehnung in einem geeigneten Maße kondensierte sich der Wasserdampf nur an den negativen Ionen. Die so entstandene „Wolke** senkte sich; beobachtet wurde die Zeit für die Bewegung von der oberen zur unteren Platte, und zwar bei un- geladenem und geladenem Kondensator. Hieraus ließ sich unter der aller- dings unsicheren Annahme, daß jedes Ion nur ein Elektron enthält, die Lä- dung bestimmen; der gefundene Wert / = 3,1 io~" elektrostatische Einheiten ist zu klein (vgl. Artikel 20).

Die gegen Wilsons Verfahren zu erhebenden Einwände umging Milli- Messang kan") in höchst sinnreicher Weise (vgl. Artikel 20). ""* ^^'^*^-

Ein mit winzigen öltröpfchen beladener Luftstrom wurde über die mit einem kleinen Loche versehene obere Platte eines Kondensators geblasen. War ein Tröpfchen hindurchgefallen, so wurde die Öffnung verschlossen und in dem Luftraum zwischen den Kondensatorplatten durch ein Radiumpräparat Ionen erzeugt. Wenn sich einige von diesen an das Tröpfchen angesetzt hatten, wurde die Bewegung desselben mit einem Fernrohr kurzer Sehweite verfolgt; die Kondensatorplatten blieben dabei ungeladen oder erhielten eine geeignete Spannung. Es war so möglich, das Teilchen durch elektrische Kräfte zu heben

*) So viel Gramm, als das chemische Atomgewicht beträgt. **) Bei zwei-, dreiwertigen Elementen die zwei-, drei-fache.

246 II* Ernst Dorn: Experimentelle Atomistik

und wieder fallen zu lassen, und dies konnte mehrfach länger als vier Stunden fortgesetzt werden, da ja das öl nicht, wie Wasser es tut, verdunstete.*)

Den zur Verwertung der Beobachtungen erforderlichen Durchmesser des Tröpfchens erhielt Millikan nach der von ihm berichtigten Formel von Stokes.

Es [setzten sich bei dem freien Fallen des Tröpfchens nicht aber während der Wirkung des elektrischen Feldes öfter weitere Ionen gleichen oder entgegengesetzten Vorzeichens an; die Ladung änderte sich dabei stets um ganze Vielfache einer und derselben Größe, eben des Elektrons.

Die vorzüglich übereinstimmenden Messungen lieferten für das Elektron e = 4,9016 io~" elektrostatische Einheiten, woraus die Avog ad rösche Zahl

^'^^^ ' '^'^ = 5,910 ig", die Loschmidtsche Zahl 91 = 2,637 10" folgt. 4,9016, io-*°

In einer späteren Arbeit zeigen dann Millikan und Fletcher, daß bei Ionisierung der Luft durch Röntgen- a, ß und y Strahlen immer nur ein Elementarquantum abgespalten wird. Dl« radioaktivea Von außerordentlicher Bedeutung für die Molekularphysik und ins- besondere für die Atomtheorie erwies sich die Entdeckung der radioak- tiven Substanzen Uran, Radium**), Thorium, Aktinium (seit 1896) (vgl. Artikel 25).

Nach der in allen ihren Folgerungen bestätigten und allgemein anerkann- tenZerfalltheorie von Rutherford'^) sind die Atome dieser Substanzen in einem freiwilligen Umwandlungsprozeß begriffen, indem in jeder Sekunde ein bestimmter Bruchteil derselben unter Aussendung eines a-oder ß-Teilchens***) in eine neue Substanz mit ganz veränderten Eigenschaften übergeht, diese in eine dritte usf.

So verwandelt sich das dem Baryum nahestehende Radium unter Aus- sendung eines a-Teilchens in die gasförmige Radiumemanation, diese wieder ein a-Teilchen abgebend in einen festen Körper Ra A^ dieses stößt ein a-Teilchen ab und geht in Ra B über, dieses, indem es ein ß-Teilchen verliert, in Ra C . . . weiter bis RaF (= Polonium). Dabei zeigen nicht nur Uran und Thorium, sondern auch Radium alle Eigenschaften der chemischen Elemente, sie haben ein bestimmtes Verbindungsgewicht, ein eigenes Spektrum usw. Die Atome Die von der älteren Chemie aufgestellte Ansicht von der vollkommenen

unreriuderiich. UnVeränderlichkeit der Atome ist also nicht länger haltbar. Die Zeit für die Umwandlung zur Hälfte ist sehr verschieden, von Bruchteilen einer Sekunde bis zu Milliarden von Jahren, wie bei Uran und Thorium. Atome dieser letzteren Art kann man für die meisten Zwecke als unveränderlich be-

*) Die höchst interessanten Einzelheiten, z. B. das Ansetzen weiterer Ionen, mögen im Original nachgelesen werden.

^) Seitdem als Abkömmling des Urans erkannt.

***) Gleichzeitig mit den ß -Teilchen treten die den Röntgenstrahlen ähnlichen f-Strah- len auf.

Millikans Messungen. Avogadros Zahl aus Radioaktivität 247

trachten; mehrfach hat man daher die Atome aller Elemente als verwandelbar angesehen.

Die a-Teilchen sind Heliumatome, wofür Rutherford und Royds einen unmittelbaren, zwingenden Beweis erbracht haben, und zwar mit doppelter Elementarladung, die ß-Teilchen nach Kaufmann negative Elektronen.

Die radioaktiven Substanzen sind zur Bestimmung der Konstanten der Verwertung Molekulartheorie vielfach mit bestem Erfolg verwendet worden. sabstansen f&r°

Dies beruht auf der Möglichkeit, die a-Teilchen, welche von einem radio- Moi0k«»urtheorie. aktiven Präparat ausgesendet werden, zu zählen.

Beim Auftreffen auf Zinksulfid, gewisse Diamanten und andere Kristalle erzeugt jedes a-Teilchen ein schnell erlöschendes Lichtpünktchen („Szintilla-

tion").

Regener (1908) zählte die von einem (nur a- Strahlen aussendenden) Po- Regenen

loniumpräparat in der Sekunde auf einem gelbbraunen Diamant hervorge- ""' rufenen Lichtpünktchen*) unter dem Mikroskop und maß außerdem die von den a-Teilchen desselben Präparates in der Sekunde beförderte positive Elek- trizitätsmenge.

Eine einfache Division ergab dann für das Elektron 4,79 lO""*** elektro- statische Einheiten, woraus Avogadros Zahl 6,04 lo*'.

Die Messungen von Rutherford und Geiger wurden zunächst ähnlich Rotherfbrd mit Ra C und einem Zinksulfidschirm ausgeführt.

Außerdem wurde aber eine elektrometrische Zählung vorgenommen, in- dem die Wirkung eines einzelnen a-Teilchens durch einen Kunstgriff**) ver- tausendfacht wurde. Die so ermittelte Zahl der a-Teilchen stimmte gut mit derjenigen der Szintillationen. Gleichzeitig wurde die y- Strahl- Intensität des benutzten Ra C gemessen.

In einer Fortsetzung der Arbeit wurde die positive Elektrizitätsmenge be- stimmt, welche eine ebenfalls durch ihre y- Strahlung festgelegte Menge von Ra C in der Sekunde aussendet.

Aus den beiden Teilergebnissen folgte für die Ladung des a-Teilchens 9,3 io~", somit für das Elektron 4,65 io~'** elektrostatische Einheiten, also Avogadros Zahl 6,22 lO**.

Auch ohne den Umweg über das Elektron haben B o 1 1 w o o d und R u t h e r - BoUwood ford die Loschmidtsche Zahl SR bestimmt, Sie ermittelten nämlich das-*" jenige Heliumvolum, welches von l g Radium im Gleichgewicht mit seinen ersten Umwandlungsprodukten Emanation, Ra A und Ra C jährlich geliefert wird, zu 158 cbmm; da ferner die Heliumatome, welche l g Radium in der Sekunde abgibt, früher gezählt waren, so konnte unmittelbar die Loschmidt- sche Zahl zu 2,69 10^* berechnet werden, woraus die Avogadrosche Zahl 6,02 -10*» folgt.

Die Konstanten der Molekularphysik sind noch von einem scheinbar sehr n&iiciu strah-

lun^theorie.

^ Diese entsprachen einem kleinen, aber genau berechenbaren Bruchteil der sämt- lichen ausgesendeten a-Teilchen. ♦♦) Durch „Stoßionisation".

248 II' l^RNST Dorn: Experimentelle Atomistik

weit entfernten Gebiete aus bestimmt worden, nämlich aus der Planckschen Strahlungstheorie. *^) Es kann hier dieser schwierige Gegenstand nicht näher erörtert werden, es genüge die Andeutung, daß Planck „Wahrschein- lichkeitsbetrachtungen in die elektromagnetische Strahlungstheorie ein- führt'* (a. a. O. S. 129) (vgl. Artikel 10). Planck findet mit Benutzung der Strahlungsbeobachtungen von Kurlbaum die Loschmidtsche Zahl 92 = 2,76 10^*; die Avogadrosche Zahl 81 = 0,175 IG**; die Masse eines Wasserstoffmoleküls 1,63 lO""'^ g; das elektrische Elementarquantum e = 4,69 10- '^

Es mögen die nach den verschiedenen Methoden gefundenen Werte der Avogad roschen Zahl (Moleküle im Gramm -Molekül) zusammengestellt werden:

Reibung und Dichte des kondensierten Gases (untere Grenze) für Kohlensäure 0,29 10'* Reibung und Dielektrizitätskonstante (obere Grenze) für Kohlensäure . . . 23,7

Reibung und v. d. Waals' Formel 6,94

Brownsche Bewegung (Perrin) 7,05

(The Svedberg) 6,20

Messung des elektrischen Elementarquantums (Millikan) und elektrochemisches

Äquivalent 5,91

Zählung der a -Teilchen und Messung der beförderten Elektrizitätsmenge (Regener) 6,04

Dasselbe Rutherford und Geiger 6,22

;' Zahl der a -Teilchen und Volum des Heliums (Boltwood u. Rutherford) . . . 6,02

Plancks Strahlungstheorie 6,17

Mittel der sieben letzten Werte 6,23 -lo"

Hieraus folgt Loschmidts Zahl (Moleküle im ccm bei o^ und Atmosphärendruck) 2,78-10'*

Das elektrische Elementarquantum (elektrostatisch) 4,65- lo""**

Die Masse eines Wasserstofiatoms in Gramm ^ 1,62-* lo'*^

Die nahe Übereinstimmung der aus den entlegensten Gebieten hergeholten M^ Werte bietet eine Gewähr für die Richtigkeit der molekulartheoretischen Vor-

stellungen.

Die aus der Elektrizitätslehre und der Radioaktivität stammenden Werte erscheinen sicherer; die gegenwärtige Physik beherrscht die Elek- trizität besser als die wägbare Materie, wie sich auch bei anderen Gelegen- heiten zeigt. Weiter« ^^^ ^^^ Betrachtungen der kinetischen Gastheorie nimmt man an, daß bei

Aufgaben, ^jgjj Zusammenstößcn die Teilchen sich höchstens berühren, was für Geschwin- digkeiten, die nur wenige Vielfache der durchschnittlichen erreichen, zu- treffen mag.

Mit großer Geschwindigkeit bewegte Teilchen durchdringen aber die Moleküle. Lenard hatte dies schon früh für die Entladungen in verdünnten Gasen geschlossen; für die a- Strahlen (alsoi/^-Teilchen) der radioaktiven Sub- stanzen kann man es leicht als notwendig erkennen. Da die Summe der Mole- külquerschnitte eines Kubikzentimeters für normale Luft 18 400 qcm beträgt, müßte ein a-Teilchen auf dem Wege eines Zentimeters 18 400 Moleküle durch- dringen, und die a-Teilchen von Thor C haben sogar eine Reichweite von

Konstanten der Atomistik. Weitere Aufgaben. 249

8,6 cm. Ähnlich für die noch schnelleren Elektronen der ß-Teilchen.*) Bei diesen Durchdringungen werden Elektronen abgespalten.

Bei einatomigen Gasen hat man für die Aufgaben der kinetischen Gas- theorie von inneren Bewegungen absehen können. Und doch lehren die Er- scheinungen der Spektralanalyse, daß ein solches Atom kein einfaches Ge- bilde sein kann. Selbst Helium, das man wohl für das einfachste Gas halten kann, besitzt gegen 100 wohl bestimmte Spektrallinien, Uran gar 4940 1 Das Innere des Atoms ist also einer großen Zahl verschiedener Schwingungen fähig.

So erhebt sich jenseits der kinetischen Gastheorie eine neue Aufgabe, die Untersuchung des Innern der Atome.

Einige Literaturnachweise.

1. Ober die ältere Atomistik vgLÜBERWEG, Geschichte der Philosophie und insbes. LASSwrrz, Geschichte der Atomistik, sowie Der Verfall der kinetischen Atomistik im 17. Jahrhundert, PoggendorfTs Annalen 153, 373 ff. 1874.

2. BOLTZMANN, Die Unentbehrlichkeit der Atomistik in der Naturwissenschaft Wied. Ann. 60. 231. 1897.

Zur IdnetiBChon Theorie der Grase.

3. Eine zusammenfassende elementare Darstellung mit einem mathematischen Anhang gibt O. E. Meyer, Die kinetische Theorie der Gase, 2. Aufl. Die ältere Literatur ist von O.E.Meyer ausgiebig berücksichtigt.

4. Clausius, Kinetische Theorie der Gase, herausgg. von Planck und Pulfrich. 1889— 189 1.

Ist leider unvollendet geblieben. In theoretischer Richtung weiter reichen

5. BOLTZMANN, Vorlesungen über Gastheorie.

6. Jeans, The dynamical Theory of Gases. 1904.

7. Chapman, Phil. Transact. A. 211. 191 1. Chapman behandelt sphärisch symmetrische Moleküle ; seine Betrachtungen finden Anwendung auf einige Dämpfe, z. B. von Queck- silber und die „Edelgase" (Argon, Neon, Krypton, Xenon, Helium).

8. Krönig, Pogg. Ann. 99, 315. 1856.

9. Clausius, Pogg. Ann. zog. 353. 1857; Z05. 239. 1858; 1x5. i. 1862.

10. D. Berthelot, Travaux et m^moires du bureau international des poids et mesures 13. 1907.

11. Maxwell, Phil. Mag. (4) 19, 22. 1860.

12. Ober Edelgase (und auch andere Gase) sind seit 1897 im physikalischen Institut zu Halle unter Leitung von Professor Dorn zahlreiche Untersuchungen angestellt. Eine Zu- sammenfassung der Reibungsversuche gibt K. Schmitt, Ann. d. Phys. (4) 30, 393. 1909: für Diffusion LoNius, ebenda 29, 664. 1909. Wärmeleitung von Argon und Helium s. Schwarze, ebenda zz. 303. 1903; für Neon Bannawitz, Diss. Halle 1914.

13. Kundt & Warburg, Pogg. Ann. Z55, 337 und 525. 1875.

14. Kundt & Warburg, Pogg. Ann. Z56, 177. 1875.

15. Knudsen, Ann. d. Phys. (4) 28, 75. 1909 und 34, 593. 1911«

16. Dorn, Wied. Ann. 13, 378. i88i. Loschmidt, Wiener Sitzungsber. 52. II. 395. 1865.

Brownsche Bewegung.

17. Brown, A brief account etc. 1827; übersetzt Pogg. Ann. 14, 294- 1828.

18. Chr. Wiener, Pogg. Ann. zzs, 79. 1863.

♦) Man vergleiche hierzu die interessanten Photographien der Bahnen von a und ß- Teilchen bei C.T.R. Wilson«»).

250 11* Ernst Dorn: Experimentelle Atomistik

19. Einstein, Ami. d. Phys. (4) 17, 549. 1905 und ebenda zg, 371. 1906.

20. V. Smoluchowski, ebenda ax, 756. 1906 und 25, 205. 1908.

21. Perrin, Die BROWNsche Bewegung. .. . Deutsch in den Kolloidchemischen Beiheften. 19 10. Siehe auch Perrin, Die Atome. 191 3.

22. The Svedberg, Die Existenz der Moleküle. 191 2.

Blektrisitit, Radioaktivitit usw.

23. MiLLKAN, Phil. Mag. (6) zg, 209. 1910 und Phys. Z. S. zz, 1907. 1910.

24. Rutherford, Radioactive Substances and their Radiations. 3. Aufl.

25. Planck, Vorlesungen über die Theorie der Wärmestrahlung. 1906.

26. C. T. R.Wilson, Jahrb. d. Radioakt. und Elektronik, zo, 34. 191 3.

12.

THEORETISCHE ATOMISTIK.

Von

Albert Einstein.

Zu der Entwicklung der modernen Wärmelehre im allgemeinen sowie der owchnb molekularkinetischen Theorie der Wärme hat in erster Linie die Aufstellung des "Jr^^eS^* Energieprinzips den Anstoß gegeben. Bei diesem letzteren wollen wir zuerst *•«, einen Augenblick verweilen, um zu überlegen, in was für einer Beziehung dies .ar Brfahnmg. Prinzip zu der physikalischen Erfahrung steht. Wir wollen diese Überlegung an einem ganz einfachen Gleichnis ausführen, um weder durch die Mannigfaltig- keit des Gegenstandes noch durch Gewohnheiten bzw. Überzeugungen gestört zu werden.

Vor mir stehen zwei oben offene, z. T. mit Wasser gefüllte Gefäße G^ und (tj, die durch einen biegsamen Schlauch miteinander kommunizieren, durch den Wasser von der untersten Schicht jedes der Gefäße in diejenige des anderen überströmen kann; dies wird dann stets so lange eintreten, bis die Oberflächen in beiden Gefäßen (absolut genommen) gleich hoch stehen. Das Gefäß G^ habe durchsichtige Wandungen, so daß sein Wasserstand von außen wahrgenommen werden kann; es sei in einer bestimmten Höhe fest angeordnet. Die Wandungen des zweiten Gefäßes seien undurchsichtig, und es sei überhaupt unmöglich, den Wasserstand in diesem Gefäße unmittelbar wahrzunehmen; dies Gefäß sei aber vertikal verstellbar angeordnet, und es seien die Mittel dazu vorhanden, das Gewicht des zweiten Gefäßes samt Inhalt in jeder Höhenlage zu bestimmen. Ein Beobachter bestimme nun bei 'jeder Einstellung von G^ jeweilen nach Ein- stellung des Gleichgewichtes, sowohl den Wasserstand h in (r^ in bezug auf die Wandungen dieses Gefäßes, als auch das zugehörige Gewicht g von Gg, wobei er sich auf solche Einstellungen von G^ beschränkt, bei welchen sich sowohl in Gl wie in G^ Wasser befindet. Dieser Beobachter wird, falls das Gefäß Gi zylin- drisch ist, die einfache Beziehung finden, daß •— bei passender Wahl des Zahlen- faktors a die Größe ah + g von der Höhe, in der G^ eingestellt ist, unabhängig sei. Falls der Beobachter die Gesetze der Hydrostatik kennt, und weiß, daß sich in den Gefäßen eine Flüssigkeit befindet, wird er solche Versuche nicht interessant finden. Unser Beobachter wisse aber nichts über den Inhalt der Gefäße; für ihn bildet der Befund an dem von ihm studierten physikalischen System eine wissenschaftliche Entdeckung. Er wird sagen: „Die Wasserstand- größe h von Gl und das Gewicht g von G, sind äquivalente Größen, da eine ge- wisse Änderung der Wasserstandsgröße h von Gi immer eine ganz bestimmte entgegengesetzte Änderung von g zur Folge hat; die Größe ab + g mißt eine dem System eigene unveränderliche Quantität.**

252

12. Albert Einstein: Theoretische Atomistik

Wiederholte Feststellungen analoger Art waren es, welche die Physiker zum Prinzip von der Erhaltung der Energie geführt haben. Auf dem Gebiete der reinen Mechanik (ohne Reibung) entdeckte man zunächst, daß es eine nur von der Lage der Massenpunkte allein abhängige Größe <t) (die „potenzielle Ener- gie**) und eine von den Geschwindigkeiten der Massenpunkte abhängige Größe L (die „kinetische Energie**) gebe, derart, daß die Summe 0 + -^ bei allen denjenigen Bewegungen mit der Zeit sich nicht ändert, bei welchen das mechanische System keine äußeren Einwirkungen erleidet. Man pflegt diese Summe als die „mechanische Energie** des Systems zu bezeichnen. Inhalt des Dicser Erhaltungssatz hat keine Gültigkeit mehr, sobald in dem abge-

*'^*^*"'*™***^*' schlossenen mechanischen System die Reibung eine Rolle spielt. Aber gegen die Mitte des ip. Jahrhunderts erkannten die Physiker, daß auch in diesem Falle ein Erhaltungssatz sich aufstellen läßt, wenn neben den mechanischen Größen auch noch die thermischen in den Kreis der Betrachtung einbezogen werden (Äquivalenz von mechanischer und thermischer Energie). Der Erhaltungssatz läßt sich auch in den Fällen aufrecht erhalten, in welchen das System nicht nur mechanische und thermische, sondern auch irgendwelche Zustandsänderungen anderer Art (z. B. elektrische oder chemische) erleidet; in diesem Falle hängt dann die bei isoliertem System unveränderliche, als „Energie** bezeichnete Größe auch noch von Bestimmungsstücken ab, welche den Zustand des Systems in thermischer, elektrischer, chemischer usw. Beziehung bestimmen. EinfloBdesEner- Das im vorigen skizzierte Bilanzgesetz der Energie hat nicht nur deshalb dS*the"eti^dieii ©ine unermeßliche Bedeutung für die Physik, weil es eine große Zahl von ein* ^e™d^^°^ zelnen Gesetzen liefert, und weil es dazu führt, die verschiedenartigsten Ände- jahrhanderts. Tungen von einem einheitlichen Gesichtspunkte zu betrachten, indem man überall die Systemzustände nach deren Energiewerten vergleicht. Der Energie- satz lieferte vielmehr noch eine wichtige Anregung, indem er es nahelegt, jeg- licher Energie stets dieselbe physikaUsche Natur zuzuschreiben, ganz unabhängig davon, wie im einzelnen Falle die Energie auch mit unmittelbar Beobachtbarem im Zusammenhang stehe.

Unser vorhin betrachteter unwissender Beobachter, der mit den beiden Gefäßen G^ und G^ experimentiert, kann im kleinen dasselbe erleben, wie die Physiker an dem Gegenstande ihrer Betrachtung. Von der Konstatierung aus- gehend, daß oA + g konstant bleibt, wird er zunächst dem Gefäße G^ eine ge- wisse Menge ää, dem Gefäße Gg ^^^^ gewisse Menge g zuschreiben, ohne jedoch anzunehmen, daß diese Mengen von gleicher Qualität seien; er genügt der Er- fahrung, wenn er sich vorstellt, daß sich bei einem gewissen Vorgang ein Teil des Inhaltes von G^ in einen entsprechend großen Zuwachs des Inhaltes von G^ verwandle. Er kann aber auch weiter gehen und die Hypothese aufstellen, daß der Inhalt von G^ und G^ der Qualität nach übereinstimme, daß also der beim Senken von Gg eintretende Vorgang nicht in einer Verwandlung, sondern nur in einer Ortsänderung der Gefäßinhalte bestehe. Es ist klar, daß er durch eine solche Auffassung zu weiteren Konsequenzen und Versuchen geführt wird, die ihm durch die erstgenannte Auffassung nicht nahe gelegt würden.

n

Energieprinzip, sein Einfluß auf die theoretischen Grundanschauungen 253

Ebenso erging es im großen den Physikern. Es lag für sie nahe, das Gesetz der Energiebilanz dahin zu interpretieren, daß es im Grunde nur eine Art von Energie gebe, wie verschieden die äußeren Erscheinungsformen der Energie auch sein mögen. Eine solche Auffassungsweise gestattet es nämlich, das Ge- setz von der Erhaltung der Energie zu begreifen, d. h. als Folgerung aus den allgemeinen Grundlagen der Theorie zu erbalten, was bei Annahme prinzipiell verschiedener Energiearten ausgeschlossen erscheint.

Auch die heutigen Physiker würden die Zurückführung aller Arten der Synergie auf eine einzige Art für einen höchst bedeutenden Fortschritt halten, aber sie denken nicht daran, dies Ziel in absehbarer Zeit erreichen zu können. Um die Mitte des vorigen Jahrhunderts aber war man zuversichtlicher. In der Entwicklung der Physik bis zu jener Zeit spielte die Mechanik eine derart be- vorzugte Rolle, daß für die damaligen Physiker die Annahme von der Einheit- lichkeit der Energie untrennbar verbunden war mit der Annahme, daß jene ein- heitliche Energie als mechanische Energie aufzufassen sei. Sie waren deshalb fest davon überzeugt, daß letzten Endes alle Vorgänge als mechanische Vorgänge aufzufassen seien. In der Einleitung zu seiner grundlegenden Abhandlung „Über die Erhaltung der Kraft'* (1847) hat H. Helmholtz diese Überzeugung mit folgenden Worten ausgesprochen: „E^ bestimmt sich also endlich die Auf- gabe der physikalischen Naturwissenschaften dahin, die Naturerscheinungen zurückzuführen auf unveränderliche, anziehende und abstoßende Kräfte, deren Intensität von der Entfernung abhängt. Die Lösbarkeit dieser Aufgabe ist zu- gleich die Bedingung der vollständigen Begreiflichkeit der Natur.**

Wir können heute wohl mit Sicherheit sagen, daß diese Überzeugung, welche vor wenigen Jahrzehnten noch die unbedingt herrschende war, sich nicht in ihrer ganzen Ausdehnung aufrecht erhalten läßt. Aber es läßt sich heute weniger als früher leugnen, daß ein großer Teil der physikalischen Erschei- nungen sich in höchst befriedigender Weise auf mechanische Vorgänge zurück- führen läßt. Jener Überzeugung von der fundamentalen Bedeutung der Me- chanik für die theoretische Physik verdanken wir in erster Linie die kine- tische Theorie der Wärme, deren Entwicklung im folgenden in ihren wichtigsten Zügen skizziert werden soll. Dabei will ich mich nicht durchweg an den histo- rischen Entwicklungsgang anschließen, der hier in hohem Maße durch die Reihenfolge bestimmt wurde, in der die Überwindung gewisser mathematischer Schwierigkeiten glückte.

Die kinetische Theorie der Materie entlehnte von Anfang an der Chemie Gnmdhypothe- und Kristallographie die Molekulartheorie. Nach dieser bestehen alle physi- J®J^^*^^' kaiischen Stoffe aus gewissen Teilchen endlicher Größe (Moleküle), die sich nur ^^^ Wärme, als Ganzes bewegen können und im wesentlichen als mit ähnlichen Eigenschaften begabt vorgestellt werden wie die festen Körper unserer Erfahrung. Jedes sol- che Molekül besteht aus Atomen, in der Regel aus wenigen Atomen. Der skep- tische Leser wird nun denken, die Molekulartheorie leiste wahrscheinlich nichts anderes, als daß sie jene Qualitäten, die wir an den Körpern unserer Erfahrungs- welt kennen gelernt haben, einfach in die Moleküle verlege. Zu zeigen, daß dies

254

12. Albert Einstein: Theoretische Atomistik

nicht der Fall ist, ist hier von großer Wichtigkeit. Eine Theorie bekommt offen- bar erst dadurch einen wissenschaftlichen Wert, daß die ihr zugrunde liegenden Annahmen einfacher, d. h. von geringerer Mannigfaltigkeit sind als deren mit der Erfahrung vergleichbare Folgerungen.

Außer der Molekularhypothese benutzt die Kinetik noch die Annahme, daß auf die Moleküle und Atome die Gesetze der Mechanik ungeändert angewendet werden dürfen, wobei die Atome als materielle Punkte behandelt werden. Letzteres bedeutet, daß die Lage eines Atoms als bestimmt gedacht wird durch die Angabe eines einzigen Punktes, daß man also von einer Orientierung bzw. Drehung eines Atoms nicht reden könne.

Bin aiigemeiiies Wir denken uns nun ein beliebiges isoliertes physikalisches System von

Tht)rie (Äqi- Körpcm, d. h. ein solches, das mit Körpern anderer Systeme in keinerlei "iSÜ^chtr Wechselwirkung stehe. Dies System besteht im Sinne der Theorie aus einer Energie), ungeheuer großen Zahl von Atomen, die gewisse, nur von ihrer Lage abhängige Kräfte aufeinander ausüben und sich nach den Gesetzen der Mechanik bewegen. Verfolgten wir ein Atom eine Zeitlang auf seinen Wegen, so würden wir wahr- nehmen, daß dessen Geschwindigkeit c im Laufe der Zeit infolge der Wechsel- wirkung mit anderen Atomen die verschiedensten Werte annimmt, ebenso also

die als kinetische Energie desselben bezeichnete Größe m— [m = Masse des

Atoms). Wenn wir aber das Atom lange genug verfolgen, werden wir aus allen Werten, welche die kinetische Energie im Laufe der Zeit annimmt, einen ge- wissen Mittelwert bilden können, den wir mit ,,L** bezeichnen. Die Analyse

ergibt nun ganz allgemein den Satz, daß jener zeitliche Mittel- st wert L der variabeln Größe m— für alle Atome des Systems den-

selben Wert hat. Ein Molekül hat man sich als aus mehreren Atomen be- stehend zu denken, die zwar relativ zueinander beweglich, aber mit solchen Kräften ausgestattet sind, daß die Abstände der das Molekül bildenden Atome nicht über gewisse Grenzen anwachsen können. Der Schwerpunkt eines Mole- küls hat in jedem Augenblick eine gewisse Geschwindigkeit C, die durch die Geschwindigkeiten seiner Atome bestimmt ist ; man nennt C passend die Geschwin- digkeit der fortschreitenden Bewegung des Moleküls. Ist M die Masse des Mole-

küls, so kann man M als die kinetische Energie der fortschreitenden Bewe- gung des Moleküls bezeichnen. Die Analyse lehrt nun, daß der zeitliche Mittel- wert dieser letzteren ebenfalls gleich L ist, d. h. gleich ist für alle Moleküle des Systems und gleich dem entsprechenden Mittelwert für das einzelne Atom.

Die Größe L ist also ein allgemeines Maß für die Heftigkeit der Molekular- bewegung in einem System. Haben zwei zunächst isolierte Systeme dasselbe L und vereinigt man sie dann zu einem einheitlichen Systeme, ohne den Systemen Arbeit oder Wärme zuzuführen (Berührung), so ist die charakteristische Größe L des Gesamtsystems dieselbe wie diejenige der beiden ursprünglichen Systeme; es findet bei der Berührung kein Energieaustausch statt. Besitzen aber die Einzelsysteme vor der Berührung verschiedene L- Werte, so muß bei der Beruh-

Äquipartition, ideale Gase, absolute Temperatur 255

rung ein Ausgleich ihrer L- Werte und damit ein Energieübergang von dem System des höheren L- Wertes nach dem System des niederen L- Wertes statt- finden. Die Größe L kann also nach dieser Eigenschaft unmittelbar als ein Maß für die Temperatur des Systems angesehen werden; wir werden in der Tat bald sehen, daß L bis auf einen 2^hlenf aktor der sog. absoluten Temperatur gleich ist.

Wir wenden uns im folgenden speziell der kinetischen Theorie der Gase zu. zostandsgiei- Im festen und flüssigen Zustande müssen benachbarte Moleküle der Substanz ^ ^"q^^^ eine beträchtliche Kraft aufeinander ausüben, da solche Körper erfahrungs- gemäß einer Veränderung ihres Volumens bedeutenden Widerstand entgegen- setzen. Im Gas- bzw. Dampfzustand aber sind auch benachbarte Moleküle erheblich weiter voneinander entfernt zu denken; für diesen Zustand liegt daher die Annahme nahe, daß die Moleküle im allgemeinen frei fliegen und nur dann Kräfte aufeinander ausüben, wenn zwei derselben sich besonders nahe kommen (Zusammenstoß). Diese frei beweglichen Moleküle werden auch mit der Wand des Gefäßes, in dem sich das Gas befindet, zusammenstoßen und dadurch auf diese einen Druck p ausüben, der sich leicht auf rein mechanischem Wege be- rechnen läßt, wenn das Volumen V des Gefäßes, die Heftigkeit L der moleku- laren Agitation und die Anzahl n der im Gefäß vorhandenen Gasmoleküle bekannt ist. Es ergibt sich: ^ ^i

Dieses Resultat enthält *zwei Aussagen, welche die Erfahrung bestätigt, nämlich

1. Der Druck des Gases ist dem Volumen umgekehrt proportional bei kon- stanter Temperatur (konst. L).

2. Der Gasdruck hängt nur ab von der Zahl, aber nicht von der Natur der das Gas bildenden Moleküle.

Der letztgenannte Satz kann insofern durch die Erfahrung geprüft werden, als das Verhältnis der Anzahlen n der in zwei verschiedenen Gasen vorhandenen Moleküle durch die Methoden der Chemie verglichen werden kann.

Endlich gibt uns unser Resultat auch Aufschluß über den Zusammenhang, MoieknUrtiieore- der zwischen der Größe L und der Temperatur besteht. In der Wärmelehre wird ^^^Jr^aTstrub^^ die absolute Temperatur T am einfachsten durch die Festsetzung definiert, daß Temperatur, T dem Drucke eines Gases proportional sei, dessen Volumen festgehalten wird. Unsere Gleichung zeigt, daß diese Definition auch für die Größe Lgilt; die letztere ist daher bis auf eine Konstante gleich der absoluten Temperatur. Diese Konstante hängt, wie wir sogleich zeigen wollen, mit der absoluten Größe des Moleküls zusammen.

Wir wenden nämlich unsere Gleichung auf so viel Gramm eines chemisch einfachen Gases an, als das Molekulargewicht angibt (z. B. auf zwei Gramm Wasserstoff gas) ; man nennt diese Substanzmenge ein Gramm-Mol. Die Anzahl N der Moleküle im Gramm-Mol ist offenbar für alle Substanzen gleich, eine uni- verselle Konstante, welche die absolute Größe der Moleküle bestimmt. Unsere Gleichung lautet für ein Gramm-Mol:

256 12- Albert Einstein: Theoretische Atomistik

Die Erfahrung liefert anderseits für das Gramm-Mol die Beziehung

^ RT P V

wobei R eine experimentell ermittelte Konstante ist (8,3 10''). Der Vergleich beider Gleichungen ergibt

2 A'

Damit ist der Zusammenhang zwischen den Größen L und T hergestellt.

Noch ein wichtiges Resultat läßt sich aus unserer Gleichung für den Gas« Spezifische druck ableiten. Nach der Definition von L ist diese Größe gleich der mittleren ei^l^ger kinetischeu Energie des Atoms, also auch gleich der kinetischen Energie des

"*' Moleküls, falls dieses nur aus einem Atom besteht. Die Größe NL oder— UT

2

ist also gleich der gesamten kinetischen Energie eines Mols eines einatomigen Gases, überhaupt gleich der gesamten Energie des Gases, insoweit diese von 7, d. h. von der Heftigkeit der molekularen Agitation abhängig ist. Die spezi- fische Wärme eines einatomigen Gases auf das Gramm-Mol

bezogen —muß also gleich —R sein. Diese Folgerung bestätigte sich für

alle Gase, deren Molekül aus chemischen Gründen als einatomig angesehen werden muß.

Bei den bisherigen Betrachtungen brauchte über die Natur der Moleküle keine Annahme gemacht zu werden. Die Übereinstimmung der Resultate müssen daher als wichtige Bestätigungen der allgemeinen Grundlagen der Theorie auf- gefaßt werden. Volle Befriedigung kann dagegen das bisher Vorgebrachte aus folgendem Grunde nicht gewähren. In die Grundlagen der Theorie haben wir die Voraussetzung aufgenommen, daß die Teilchen (Atome bzw. Moleküle), in deren Bewegung die Wärme bestehen soll, von zwar sehr geringer, aber ganz bestimmter endlicher Größe seien; anderseits aber erlauben es die bisher be- sprochenen, mit der Erfahrung vergleichbaren Resultate der Theorie nicht, die wahren Massen der Atome und Moleküle zu bestimmen. Dies gelang erst auf Grund der nun zu besprechenden Theorie von Clausius, durch welche drei dem Anscheine nach ganz wesensverschiedene Erscheinungen kinetisch erklärt wurden, nämlich die innere Reibung, die Wärmeleitung und die Diffusion. Innere Reibung Leitet man ein Gas (oder sonst eine Flüssigkeit) genügend langsam durch in einem Gase, ^jj^^ Röhre, SO ist die Geschwindigkeit der Strömung in der Achse der Röhre am größten und nimmt gegen die Röhrenwand hin ab, um unmittelbar an dieser ganz zu verschwinden. Die inneren Schichten gleiten also relativ zu den äußeren, und es zeigt die Erfahrung, daß ein beständiger Arbeitsaufwand er- forderlich ist, um diese mit beständigem Gleiten verbundene Bewegung auf- recht zu erhalten. Dieser Arbeitsaufwand ist bei gegebener Bewegung von der Natur der Substanz und von deren physikalischem Zustande abhängig; die Physiker haben deshalb eine vom physikalischen Zustande abhängige charak- teristische Konstante (Konstante der inneren Reibung) definiert, welche die Kräfte bestimmt, die aneinander vorbeigleitende Schichten des Gases aufein-

spezifische Wärme, Reibung und Wärmeleitung 257

ander ausüben. Dieser Reibungswiderstand erklärt sich nach der kinetischen Theorie in folgender Weise. Könnten wir die Bewegung der einzelnen Moleküle in der Röhre sehen, so würde diese Bewegung in jedem kleinen Volumteilchen etwa aussehen müssen wie die Bewegung der Mücken in einem Mückenschwarme. Neben der Bewegung der einzelnen Mücken des Schwarmes ließe sich ev. eine Bewegung des Mückenschwarmes als Ganzes wahrnehmen. Nur eine Bewegung letzterer Art kann sich für einen Beobachter, der die einzelne Mücke nicht wahrnimmt, bemerkbar machen. Ist der Schwärm als Ganzes bewegt, so be- sitzt zwar die einzelne Mücke eine Bewegung von beliebiger Größe und Rich- tung, aber faßt man gleichzeitig eine große Zahl von Mücken des Schwarms ins Auge, die zufällig ausgewählt sind, so bewegen sie sich durchschnitt- lich in der Richtung der Bewegung des Schwarmes.

Fassen wir nun die mittlere Partie der Röhre ins Auge, in welcher die „Schwarmbewegung*' in Richtung der Achse am größten istl Diese mittlere Partie wird mit den äußeren Partien infolge der Molekularbewegung ohne Unterlaß Moleküle austauschen. Weil aber die neu eintretenden Moleküle aus Partien geringerer Schwarmbewegung stammen, werden sie durchschnittlich eine geringere Bewegung in Richtung der Röhrenachse haben, als der „Schwarm- bewegung** der mittleren Partie entspricht. Die Geschwindigkeit der Schwarm- bewegung der mittleren Schicht würde also abnehmen, wenn nicht durch eine äußere Einwirkung, z. B. durch die an den Enden der Röhre wirkende Druck- differenz, dafür gesorgt würde, daß die Schwarmbewegung aufrecht erhalten, oder besser gesagt, immer neu erzeugt wird. Man versteht so, daß es eines be- ständigen Kraft- und Energieaufwandes bedarf, um die Bewegung aufrecht zu erhalten.

Bei der mathematischen Untersuchung des Vorganges spielt ein Begriff eine fundamentale Rolle, der bei den früheren Überlegungen nicht auftrat, nämlich derjenige der „mittleren freien Weglänge'*. Es zeigt sich nämlich, daß die zur Aufrechterhaltung einer gegebenen Strömung nötige Energie unter sonst gleichen Umständen desto größer ist, einen je größeren Weg ein Molekül zwi- schen zwei Zusammenstößen durchschnittlich zurücklegt (mittlere freie Weg- länge). Die Theorie erlaubt es, die mittlere freie Weglänge aus dem beobach- teten Betrag der inneren Reibung zu berechnen; für Luft von Atmosphären- druck ist sie etwa gleich dem zehntausendsten Teile eines Millimeters. Sie wächst mit dem reziproken Werte des Gasdruckes.

In Übereinstimmung mit der Erfahrung liefert die Theorie das verblüffende Resultat, daß bei gegebener Bewegung die zur Aufrechterhaltung derselben nötige sekundliche Arbeitsleistung vom Gasdrucke unabhängig ist (vgl. Art. 1 1 S. 233).

In einem Gase variiere die Temperatur, d. h. die Heftigkeit der thermi- wämeieitang sehen Agitation mit der Höhe. Oben sei die Temperatur am höchsten und nehme *" ****** ^'*' nach unten hin allmählich ab. Dann strömt, wie bekannt, thermische Energie vom oberen Teil des Gases in den unteren; man nennt diesen Vorgang „Wärme- leitung*'. Dieselbe erklärt sich vom Standpunkt der Molekulartheorie folgen- dermaßen. Durch eine in bestimmter Höhe im Gase gelegt gedachte Horizontal-

K.d.G.ULm,Bdi Fhjnilc ij

258 12. Albert Einstein: Theoretische Atomistik

ebene fliegen unausgesetzt Moleküle von oben nach unten und von unten nach oben. Die von oben kommenden Moleküle stammen aber aus Schichten größerer thermischer Agitation als die von unten kommenden. Deshalb tragen erstere durchschnittlich mehr thermische Energie mit sich durch die Fläche von oben nach unten als letztere von unten nach oben; die Differenz ist nichts anderes als die durch die Fläche geleitete Wärme. Diffusion Bringt man in den oberen Teil eines Gefäßes Wasserstoff, in den unteren

in einem ase. j^. j gtickstoff , SO tritt erfahrungsgemäß eine langsame Mischung (Diffusion) beider Gase ein, auch wenn Bewegungen der Gase sorgsam verhindert werden. Dieser Vorgang ist vom Standpunkt der Molekularkinetik ganz ähnlich auf- zufassen wie derjenige der Wärmeleitung. Es treten nämlich infolge der ther- mischen Agitation von jeder der beiden Molekülarten durch eine gegebene Ebene von beiden Seiten Moleküle hindurch; aber es wird der Molekülstrom von jener Seite her überwiegen, auf welcher die Dichte der ins Auge gefaßten Mole- külart größer ist.

Zwischen den Koeffizienten, welche den Betrag der inneren Reibung, der Wärmeleitung und der Diffusion bestimmen, ergibt die Theorie Beziehungen, welche die Erfahrung wenigstens annähernd bestätigt hat. Es bedeutet das einen bewundernswerten Erfolg der kinetischen Theorie der Wärme (vgl. Art. 11). Berechnung der Wie schon erwähnt, erhält man aus dem Koeffizienten der inneren Reibung ^*^^^r*^^*° (oder aus dem Wärmeleitungsvermögen oder aus dem Koeffizienten der Diffu- sion) die freie Weglänge der Moleküle. Auf letztere gründete Loschmidt die erste (angenäherte) Bestimmung der wahren Größe der Moleküle. Die Über- legung war folgende. Die freie Weglänge ist bestimmt durch die Anzahl n der Mo- leküle in der Volumeinheit und durch diejenige Länge d, welche der kleinsten Di- stanz der Mittelpunkte zweier Moleküle bei einem Zusammenstoß gleich ist. Eine einfache Überlegung ergibt das Produkt n ä^ aus der freien Weglänge. Ander- seits ist klar, daß die n in der Volumeinheit befindlichen Moleküle etwa den Raum n d^ einnehmen würden, wenn sie alle einander so nahe zusammengelegt würden, daß der Abstand benachbarter Moleküle gleich d wird. Nimmt man an, daß dies im flüssigen Zustand annähernd realisiert ist (die geringe Tempera- turabhängigkeit des Volumens der Flüssigkeiten spricht hierfür), so hat man nd^ annähernd gleich demjenigen Volumen der Substanz im verflüssigten Zu- stande zu setzen, welches im gasförmigen Zustande unter den Verhältnissen, für die die freie Weglänge bestimmt wurde, die Volumeneinheit einnimmt. Da man nun n d^ und nrf' kennt, erhält man n und d einzeln, ebenso die Zahl iV der Mole- küle im Gramm-Mol, die mit n in einfacher Weise zusammenhängt. Es ergab sich, daß der Durchmesser der kleineren Moleküle [ft) wenige Zehntel eines Milli- ontel eines Millimeters beträgt, und daß iV zwischen 10** und 10** liegt. Später ergaben weit exaktere Methoden für iV Zahlen, die von 6,8 lO** kaum mehr als 5 Prozent abweichen. ^lOTe^wogULTge ^®* ^^^ mcistcn Betrachtungen der kinetischen Gastheorie wird voraus-

nicht klein ist gesetzt, daß dic mittlere freie Weglänge klein sei gegenüber den Abmessungen messangen des der das Gas begrenzenden Körper. Es lassen sich aber sehr wohl Fälle realisieren

vom Gas erfüllten Kaames.

Diffusion, Loschmidtsche Zahl, Gleitung 259

und auch rechnerisch behandeln, bei welchen diese Voraussetzung nicht mehr zutrifft. Beträgt der Gasdruck ein Zehntausendstel Atmosphäre (etwa 0,1 mm Quecksilberdruck), so beträgt die freie Weglänge bereits i mm. In solchen Fäl- len werden die Gesetze, wie sie für gegen die Körperdimensionen verschwindend kleine Weglänge der Moleküle abgeleitet sind, ungültig. Es erfolgt z. B. das Strö- men von Gasen durch Röhren derart, wie wenn die der Röhrenwand unmittel- bar benachbarte Gasschicht relativ zur Röhrenwand gleiten würde, und zwar in einem Grade, der theoretisch vorausbestimmt werden konnte. Besonders einfach und interessant sind die Gesetze in dem Falle, daß die freie Weglänge der Moleküle groß ist gegenüber den maßgebenden Dimensionen der Gefäß- wandungen, z. B. gegenüber dem Durchmesser einer das Gas einschließenden Röhre. In diesem Falle gelten ganz andere Gesetze als in dem gewöhnlich vor- liegenden Falle, daß die Weglänge klein ist gegenüber den Gefäßdimensionen. So hat z.B. Knudsen folgendes theoretisch gefunden und experimentell be- stätigt. Ein Gasgefäß bestand aus zwei Hohlkugeln aus Glas, die durch eine Röhre von im Vergleiche zur Weglänge kleinem Durchmesser miteinander kommuni- zierten. Bringt man die beiden Hohlkugeln auf verschiedene Temperaturen, derart, daß der Temperaturabfall längs der Glasröhre stattfindet, so stellt sich in dem wärmeren Gefäß ein höherer Druck ein als in dem kälteren. In diesen Fällen gelten also die Gesetze der Hydrostatik nicht 1

Die Methoden und Resultate der kinetischen Gastheorie haben sich auch Anwendungen über das Gebiet der Gastheorie hinaus als fruchtbar erwiesen. Van derWaals Theorie, ergänzte die Theorie der Gase, indem er Rücksicht nahm auf die Raumver- drängung der Moleküle und auf die von diesen aufeinander ausgeübten An- ziehungskräfte; er schuf eine Theorie, welche wenigstens qualitativ auch den flüssigen Aggregatzustand mit umspannt. Riecke und Drude schufen eine Theorie, welche die angenäherte Konstanz des Verhältnisses der elektrischen . und thermischen Leitfähigkeit der Metalle erklärte, unter Zugrundelegung der Annahme, daß in den Metallen frei bewegliche elektrische Elementarteilchen an der thermischen Agitation teilnehmen (vgl. Artikel 20). Auch die Theorie des Magnetismus verdankt der kinetischen Theorie der Wärme einen ungeahnten Aufschwung. All diese Dinge sollen hier nur erwähnt werden. Dagegen müssen wir noch eingehen auf zwei Gegenstände von höchster Wichtigkeit, nämlich auf Boltzmanns allgemeine Erkenntnis vom Wesen der nicht umkehrbaren Vorgänge und auf die erst vor kurzem erlangte Einsicht, daß die Molekular- kinetik nur innerhalb bestimmter Grenzen der Erfahrung entspricht. Diese höchst wichtigen Fragen führen uns mitten in die Aufgaben hinein, die gegen- wärtig die theoretischen Physiker beschäftigen.

Nach der molekular-kinetischen Theorie der Wärme sind die Gesetze der Wärmelehre keine exakt gültigen Gesetze, sondern bloße Durchschnittsgesetze, von welchen beständig Abweichungen vorkommen müssen. So werden bei- Brownsche spielsweise die an der Flächeneinheit der Wandung eines Gases abprallenden ®^**^""^' Moleküle einen Druck von bestimmtem Durchschnittswerte erzeugen. Aber die momentan tatsächlich ausgeübte Druckkraft wird diesem Mittelwerte nicht

17*

200 12. Albert Einstein: Theoretische Atomistik

genau gleich sein, sondern die unregelmäßigsten Schwankungen erfahren, ge- mäß der Unregelmäßigkeit der molekularen Bewegungen, die den Druck hervor- bringen. Da erhebt sich die wichtige Frage: „Können wir derartige regellose Schwankungen, die ihren Grund in der Unordnung der Molekularbewegung haben, wirklich beobachten, oder entziehen sich dieselben wegen ihrer Kleinheit notwendig der Beobachtung?** Die verblüffende Antwort lautet, daß die Theo- rie mit unseren Mitteln beobachtbare Schwankungen dieser Art wirklich fordert, und daß solche Erscheinungen schon seit fast einem Jahrhundert beobachtet sind. Wir haben bereits gesehen, daß jedes Molekül sich nach der Theorie als Ganzes so rasch bewegt, daß die mittlere kinetische Energie L dieser Bewegung

gleich ~^r ist. Dieses Resultat ist aber seiner Ableitung gemäß nicht nur für

Moleküle gültig, sondern für beliebig große materielle Komplexe, die sich als Ganzes bewegen können. Aus der angegebenen Beziehung folgert man leicht, daß die Geschwindigkeiten jener Bewegung desto kleiner sind, je größer die Masse des betrachteten Gebildes ist. Teilchen von der Größe eines tausendstel Millimeters Durchmesser lassen sich nun leicht mikroskopisch beobachten. Ihre Masse ist von der Größenordnung io~^* Gramm. Für die mittlere Geschwindig- keit der molekularen Bewegung bei gewöhnlicher Temperatur liefert die soeben angegebene Beziehung den Betrag von ungefähr 0,2 mm pro Sekunde, also einen für die mikroskopische Beobachtung ungeheuren Betrag. Dieser tritt aber nicht direkt in die Erscheinung. Das Teilchen ist stets von einem Medium um- geben, etwa von einer Flüssigkeit. Hat es in einem Moment eine bestimmte Bewegung, so wird diese durch Reibung an der Flüssigkeit sehr rasch abge- bremst. Dafür erhält das Teilchen aber durch die Unregelmäßigkeit der Mole- kularbewegung des Mediums immer neue Impulse. Das Resultat dieser beiden Wirkungen ist eine Bewegung von höchster Unregelmäßigkeit, deren Geschwin- digkeit und Richtung äußerst rasch wechseln, desto rascher, je zäher das das Teilchen umgebende Medium ist. Es ist ein leichtes, die mittlere Größe der bei dieser Art der Bewegung von einem Teilchen zurückgelegten Wege zu berech- nen. Ein Teilchen von der oben ins Auge gefaßten Größe, das von Wasser um- geben ist, legt in einer Sekunde durchschnittlich einenWeg von etwa einem tau- sendstel Millimeter zurück. Kleine, in Flüssigkeiten schwebende Teilchen führen also unter dem Einfluß der unregelmäßigen Molekularbewegung mikroskopisch sichtbare unregelmäßige Bewegungen aus; diesesind schonvor beinahe loo Jahren tatsächlich aufgefunden worden (,,Brownsche Bewegung**, vgl. Art. iiS. 242). Diese Brownsche Bewegung ist einmal deshalb von großer Bedeutung, weil sie es gestattet, die Zahl iV, also auch die absolute Größe der Moleküle ganz exakt zu berechnen. Denn die Größe N bestimmt die mittlere kinetische Ener-

gie L = -jT^ der fortschreitenden Bewegung des Teilchens, und diese wiederum

die mittlere Größe des von einem Teilchen in einer Sekunde zurückgelegten Weges.

Die große prinzipielle Bedeutung der Brownschen Bewegung aber liegt,

wie schon bemerkt, darin, daß in ihr die ungeordneten elementaren Vorgänge

unmittelbar zur Wahrnehmung kommen, welche nach der kinetischen Theorie

Brownsche Bewegung, Irreversibilität thermischer Vorgänge 261

den Wärmeinhalt der Materie ausmachen. Man sieht gewissermaßen unter dem Mikroskop unmittelbar einen Teil der Wärmeenergie in Form von mechanischer Energie bewegter Teilchen.

Bei diesem Phänomen zeigt sich auch deutlich, daß die Gesetze der phäno* menologischen Wärmelehre nur angenäherte Gültigkeit besitzen. Nach letzterer Theorie müßte eines unserer Teilchen, wenn es anfänglich eine fortschreitende Bewegung besaß, durch Reibung an der Flüssigkeit rasch zur Ruhe kommen und dann in Ruhe bleiben. Indem man die Theorie der Bro wuschen Bewegung verallgemeinert, erhält man einen präzisen Aufschluß darüber, wie groß durch- schnittlich die durch die Unordnung der Elementarvorgänge verursachten Ab- weichungen der Zustände beliebiger physikalischer Systeme sind gegenüber den Zuständen, in welchen jene Systeme gemäß der phänomenologischen Theorie der Wärme müßten in Ruhe verharren können.

Durch diese Überlegung werden wir zu einer Frage geführt, die seit der Ein aiur, gegen Aufstellung der Molekulartheorie die Theoretiker beschäftigte, die aber erst in winnetheont den siebziger Jahren durch Boltzmann ihre prinzipielle Erledigung fand. Die "^„^S^*'^ mechanischen Vorgänge, auf die wir die thermischen durch die kinetische Theo- rie der Wärme zurückzuführen suchen, sind umkehrbar. Das heißt: es gibt zu jeder möglichen Bewegung eine zweite, in welcher genau dieselben Lagen der materiellen Punkte mit genau denselben Geschwindigkeiten, aber in umgekehr- ter Reihenfolge durchlaufen werden. Dagegen werden die Umkehrungen der thermischen Vorgänge niemals beobachtet. Bringe ich beispielsweise zwei ver- schieden temperierte Metallstücke in Berührung miteinander, so gleichen sie ihre Temperatur aus. Bringe ich aber gleich temperierte Metallstücke in Berührung miteinander, so nehmen sie niemals von selbst verschiedene Temperaturen an. Man könnte geneigt sein, hieraus zu folgern, daß es prinzipiell unmöglich sei, die thermischen Vorgänge auf mechanische Vorgänge zurückzuführen, weil es eben un- möglich erscheint, nicht umkehrbare Vorgänge auf umkehrbare zurückzuführen.

WieBoltzmann diesenscheinbarenWiderspruchlöste^), wollen wir an dem Beantwortung Spezialfall des vorhin betrachteten suspendierten Teilchens zu zeigen versuchen, ^^^^oi^ Wir denken uns ein so großes suspendiertes Teilchen, daß seine Brownsche mam». Bewegung bereits unmerklich schwach ist. Wie große Geschwindigkeiten kann ein solches Teilchen höchstens infolge der Unordnung der Molekularbewegung annehmen? Die Theorie gibt hierauf die Antwort: Trotzdem die Brownsche Bewegung im Mittel sehr klein ist, gibt es keine obere Grenze, unter welcher die Geschwindigkeit der Bro wuschen Bewegung bleiben müßte; im Gegenteil, es müssen sogar alle noch so großen Geschwindigkeiten vorkommen. Aber je größer die ins Auge gefaßte Geschwindigkeit ist, desto seltener kommt sie vor, und zwar sinkt die Häufigkeit des Auftretens einer Geschwindigkeit mit deren Größe sehr rasch ab. Wir nennen diese Häufigkeit des Auftretens einer Ge- schwindigkeit ihre „Wahrscheinlichkeit**.

Erteilen wir durch äußere Mittel dem Teilchen eine beträchtliche Geschwin-

i) Diese Überlegung ist ziemlich weitläufig und subtil. Aber die Wichtigkeit und Schönheit des Gegenstandes lohnt die Mühe des Denkens reichlich.

202 12. Albert Einstein: Theoretische Atomistik

digkeit t, so bringen wir es damit in einen Zustand sehr geringer Wahrschein- lichkeit. Wie wird sich diese Geschwindigkeit in der kurzen Zeit t ändern, wenn das Teilchen sich selbst überlassen wird ? Nach der kinetischen Theorie wird dies Experiment, das wir uns sehr oft ausgeführt denken, nicht immer gleich ausfallen. Bei einem Teil der Versuche wird die Geschwindigkeit des Teilchens nach dem Verlauf der Zeit t größer sein als die anfängliche Geschwindigkeit c (erster Fall) ; bei den übrigen Versuchen wird die Geschwindigkeit nach Ablauf von T kleiner sein als c (zweiter Fall). Es ist aber evident, daß der zweite Fall ungemein viel häufiger auftreten wird als der erste Fall; denn nach dem früher Gesagten treten bei dem sich selbst überlassenen Teilchen kleinere Geschwindig- keiten überhaupt viel häufiger (wahrscheinlicher) auf als größere. Wenn das Teilchen einigermaßen groß ist, so sind jene Häufigkeiten dermaßen verschieden, daß es praktisch ausgeschlossen ist, den ersten Fall jemals zu beobachten. Boltzmann löst also den besprochenen Widerspruch, indem er zeigt, daß nach der Kinetik der umgekehrte Prozeß zu einem nach der Thermodynamik nicht umkehrbaren thermischen Prozeß zwar an sich möglich ist, daß aber die Wahr- scheinlichkeit dafür, daß er wirklich eintritt, praktisch verschwindend klein ist. Die Durchschnittsgesetze der Erfahrung täuschen uns also nach Boltzmann die Nichtumkehrbarkeit der thermischen Prozesse vor.

Verallgemeinernd können wir den Satz aussprechen: Die Zustandsände- rungen eines isolierten Systems erfolgen derart, daß (im Durchschnitt) wahr- scheinlichere Zustände auf unwahrscheinlichere folgen. Man sieht, daß die Wahr- scheinlichkeit eines Zustandes eine fundamentale thermodynamische Bedeutung haben muß. Boltzmann konnte in der Tat zeigen, daß die thermodynamisch definierte Entropie S eines Zustandes mit der Wahrscheinlichkeit W desselben

fr-

direkt zusammenhängt nach der Gleichung

S~~lgW,

wobei R und iV die früher besprochenen Konstanten sind und lg PFden natürlichen Logarithmus der Wahrscheinlichkeit des Zustandes bedeutet (vgl. Artikel 32).

Diese Gleichung verknüpft die Thermodynamik mit der Molekulartheorie. Sie liefert sogar die statistischen Wahrscheinlichkeiten der Zustände solcher Systeme, für welche wir nicht imstande sind, ein molekulartheoretisches Modell zu konstru- ieren. Insofern istBoltzmanns großartiger Gedanke für die theoretische Physik nicht nur darumvonBedeutung, weil er einen scheinbaren Widerspruch derTheorie beseitigte, sondern vor allem darum, weil er ein heuristisches Prinzip lieferte, des- sen Tragweite über den Gültigkeitsbereich der Molekularmechanik hinausreicht.

Aus dem bisher Gesagten geht hervor, daß der kinetischen Theorie der Wärme ein bedeutender Wahrheitsgehalt zukommt. Seit einigen wenigen Jah- ren wissen wir aber, daß die Molekularmechanik bestimmte Gültigkeitsgrenzen hat; man muß sogar sagen, daß ihre allgenieinen Grundlagen, streng genommen, nie genau gelten, sondern nur mit gewisser Annäherung richtig sind. Dies soll im folgenden noch kurz ausgeführt werden.

Wir haben uns vom Standpunkt der kinetischen Wärmetheorie einen

Entropie und Wahrscheinlichkeit, Gültigkeitsgrenze der Molekularmechanik 263 festen, chemisch einfachen Körper als ein System von ungeheuer vielen Atomen Oüirigkeit«-

ji tj_* j i_*i_i_ 'ji •! 1 •• gromc der Mole-

ZU denken, die zwar relativ zueinander verschiebbar sind, aber jeder derartigen kuiÄrmechamk. Verschiebung eine bedeutende, mit der Größe der Verschiebung wachsende Kraft entgegensetzen. Wir denken uns eines dieser Atome dauernd ins Auge gefaßt, um den Charakter der von ihm ausgeführten Bewegung zu erfahren. Der Einfachheit halber denken wir uns alle Moleküle, mit Ausnahme der be- trachteten, in ihren Gleichgewichtslagen festgehalten. Sie werden sich dann einer Lagenänderung des betrachteten Atoms mit einer Kraft entgegensetzen, die desto größer ist, je mehr dasselbe aus seiner Gleichgewichtslage heraus- geschoben wird. Sich selbst überlassen, wird das Atom eine ähnliche Schwin- gungsbewegung um seine Gleichgewichtslage ausführen, wie ein Pendel. Die mechanische Energie eines so bewegten Körpers besteht nicht nur in kinetischer, sondern auch in potentieller Energie, und zwar ist bei einer eigentlichen Pendel- bewegung (bei welcher die Zeit einer Schwingung vom maximalen Ausschlag der Schwingung nicht abhängt) die potentielle Energie im Mittel gleich groß wie die kinetische. Die letztere soll aber nach den oben angegebenen allgemeinen

Sätzen gleich L oder gleich y sein, so. daß die gesamte mechanische Energie des

Atoms im Mittel gleich ^ ^ ist; für die Energie des Gramm-Mols ist also der Wert

3 72 r zu erwarten. Diese Überlegung leidet allerdings an der Ungenauigkeit, daß wir so argumentieren, wie wenn die Bewegungen der einzelnen Atome auf- einander keinen Einfluß hätten. Aber durch diese Annahme kann das Resultat nicht sehr wesentlich gefälscht werden. Wir schließen aus unserem Resultat, indem wir jene Energie 3 jRT gleich dem Wärmeinhalt des Mols setzen, daß die auf das Mol bezogene spezifische Wärme gleich 3 R sein soll, oder gleich 5,97 in Gramm- kaloiren gemessen. Dies entspricht in der Tat dem Erfahrungsgesetz von D u 1 o n g- Petit, das bei gewöhnlicher Temperatur mit ziemlicher Annäherung erfüllt ist. Bei tiefen Temperaturen aber sinkt im Gegensatz zu den Ergebnissen der Molekularmechanik die spezifische Wärme auf tiefere Werte herab. In der Nähe des absoluten Nullpunktes wird sie sogar verschwindend klein 1 Dies Ergebnis setzte die Theoretiker nicht in Erstaunen; denn sie wußten bereits, daß die Ge- setze der Strahlungsemission erhitzter Körper mit der Molekularmechanik nicht im Einklänge stehen, und daß zwischen dem Gesetze der Strahlungsemission heißer Körper und dem Gesetze der spezifischen Wärme fester Körper ein naher Zusammenhang existieren muß. Aber es beweist dies Ergebnis der neuesten Versuche, daß die kinetische Molekulartheorie für oszillierende Gebilde um so weniger genau erfüllt ist, je rascher diese oszillieren und je tiefer die Temperatur ist. Die heutigen Physiker nehmen ausnahmslos an, daß die Gesetze der Me- chanik für rasch oszillierende Bewegungen kleiner Massen nicht gelten. Trotz aller Anstrengungen ist es bis jetzt nicht gelungen, die Grundlagen der Mechanik so umzuändern, daß sie auch diesen Erfahrungen gerecht werden können. Die bisherigen theoretischen Versuche knüpfen an Plancks Strahlungstheorie an; sie haben wohl zu brauchbaren Formeln, nicht aber zum vollen theoretischen Verständnis geführt (vgl. Artikel 10).

ELEKTRIZITÄTSLEHRE

13-

ENTWICKLUNG DER ELEKTRIZITÄTSLEHRE BIS ZUM SIEGE DER FARAD AYSCHEN ANSCHAUUNGEN.

Von Franz Richarz,

z. Grundlegende Erkenntnisse bis zu Coulomb.

Die elementarsten Erscheinungen des Magnetismus und der Elektrizität Altertum waren bereits im Altertum bekannt. Man wußte, daß aus Magnesien stammende Eisenerze die Eigenschaft haben, kleine Eisenteilchen anzuziehen. In bezug auf den Magnetismus war dann die wichtigste weitere Erfindung die des Kom- passes, die in Europa spätestens etwa für das 12. Jahrhundert anzunehmen ist. Bei der Entdeckung von China wurde die Kenntnis des Kompasses dort schon vorgefunden, wo er anscheinend schon lange benutzt wurde.

Von den Erscheinungen der Elektrizität war im klassischen Altertum be- kannt, daß geriebener Bernstein, griechisch Elektron, leichte Teilchen anzieht. Im 16. Jahrhundert fand der Engländer Gilbert, daß auch Glas, Harze und Neuzeit, andere Substanzen gerieben dieselbe Eigenschaft haben wie geriebener Bern- stein. Auch Leuchterscheinungen beim Auftreten von Elektrizität hat er beobachtet. Otto von Guericke erkannte im 17. Jahrhundert, daß außer elektrischer Anziehung auch elektrische Abstoßung existiert, und fand im wesent- lichen den Unterschied von Leitern und Nichtleitern; auch konstruierte Otto von Guericke die erste Elektrisiermaschine. Stephen Gray unter- schied zu Anfang des 18. Jahrhunderts genauer zwischen Leitern und Nicht- leitern. Ungefähr um dieselbe Zeit stellte Dufay den Unterschied von Glas- und Harzelektrizität fest und begründete damit die dualistische Theorie, Um die Mitte des 18. Jahrhunderts fanden Wilke und Aepinus die grund- legenden Erscheinungen der Influenz. Letzterer und Johann Gottlieb Leh- mann fanden die Pyroelektrizität, John Walsh die tierische Elektrizität. Lichtenberg, bekannt durch die nach ihm benannten Figuren, führte die Bezeichnungen der positiven und negativen Elektrizität ein. Am 11. Oktober 1745 fand von Kleist, Domherr zu Kammin i. Pomm., die „elektrische Ver- stärkungsflasche*'; etwas später wurde sie auch von Muschenbroek und Cunäus zu Leiden entdeckt und trägt seitdem auch den Namen der Leidener Flasche. Ebenfalls in der Mitte des 18. Jahrhunderts gab Franklinder Kleist- schen oder Leidener Flasche die Form der nach ihm benannten Tafel und konstruierte damit prinzipiell den einfachen Kondensator. Ein weiteres Ver- dienst Franklins ist die Ableitung der atmosphärischen Elektrizität aus Wolken zur Erde und die Erfindung des Blitzableiters.

268 13- FkANZ RiCHARZ : Entwickl. d. Elektrizitätslehre b. z. Siege d. Faradayschen Anschauungen

2. Coulombs Gesetze und darauf Fußendes.

Coulombs Während alle bisher erwähnten Erkenntnisse sich nur auf allgemeine quali- Getetse. tative Beziehungen bezogen, war Coulomb der erste, der quantitative Gesetze über die elektrischen und magnetischen Kräfte aufstellte. Coulomb (1736 bis 1806) lebte teils auf seinem Landgute bei Blois, dem Geburtsorte Papins, teils später zu Paris. Das nach ihm genannte Gesetz für die Anziehungs- und Ab- stoßungskräfte zwischen Elektrizitätsmengen und Magnetismusmengen fand er experimentell mit Hilfe der von ihm konstruierten Dreh- oder Torsionswage. Das von ihm gefundene Gesetz würde in der seiner Erkenntnis entsprechenden Fassung lauten, daß die genannten Kräfte proportional sind den Mengen des anziehenden, des angezogenen Agens und umgekehrt proportional dem Quadrat ihres Abstandes. Der Einfluß des Zwischenmediums blieb ihm noch vollständig unbekannt; dagegen fand er bereits,' daß die Ladung bei Leitern nur auf der Oberfläche sitzt, und zwar mit verschiedener Dichtigkeit, je nach der Gestalt des betreffenden Leiters. Die einzige Andeutung einer quantitativen Beziehung für die Kräfte findet sich vor Coulomb bei Newton, der für die Wirkung eines ganzen Elementarmagneten die umgekehrte Proportionalität mit der dritten Potenz mehr vermutete als aussprach. Durch die Aufstellung seines Gesetzes wurde Coulomb der Begründer derjenigen Gebiete, die man heute Elektro- statik und Magnetostatik zu nennen pflegt. Potential- Die mathematische Formulierung des Coulombschen Gesetzes für Elek- theorie. ^fjjjjtj^^. uj^j Magnetismusmengen und die analoge des Newtonschen Gravi- tationsgesetzes führte zur Aufstellung der Potential theorie. Als diejenigen Mathematiker, welche die Potentialtheorie begründet und ausgebildet haben, sind zu erwähnen Laplace, Green, Ivory, Gauß, Dirichlet, Hamil- ton, Jacobi, Poisson, Franz Neumann. Da aber in Coulombs ur- sprünglicher Fassung des Gesetzes die Eigenschaften des Zwischenmediums keine Rolle spielen, ist diese erwähnte Potentialtheorie in der ursprünglichen Form nur als Vorläufer einer vollkommeneren Potentialtheorie zu betrachten. In einer solchen vollkommeneren Potentialtheorie tritt an Stelle der Laplace- schen oder Poisson sehen Differentialgleichung, welche keine für das Zwischen- medium charakteristische Größe enthält, eine andere Differentialgleichung. Letztere enthält dann für die Elektrizitätslehre die Dielektrizitätskonstante, für den Magnetismus die Permeabilität. Vgl. hierzu z. B. Lit.-Verz. am Schlüsse dieses Abschnittes, Nr. 14, Kapitel V: Erweiterte Potentialtheorie. Grundlage Die Aufstelluug der quantitativen Beziehung für die elektrostatischen und

mnhrftln**" ^^^^tostatischen Kräfte durch Coulomb bildet andererseits auch die Grund- lage für die spätere Aufstellung der absoluten elektrischen und magnetischen Maß- systeme. Werden nämlich die genannten Kräfte gleichgesetzt einem Propor- tionalitätsfaktor, multipliziert mit den beiden Mengen, dividiert durch das Quadrat des Abstandes, so führt die Verfügung über den Proportionalitäts- faktor zu der Aufstellung der absoluten Maßsysteme. Zunächst erhält offen- bar je nach der Festsetzung willkürlicher Einheiten für die Elektrizitäts- oder Magnetismusmengen der Proportionalitätsfaktor im Coulombschen Gesetz

Coulombs Gesetze und Anschließendes. Galvani. Volta 269

andere Werte. Setzt man aber den Proportionalitätsfaktor im elektrostati- schen Grundgesetz willkürlich gleich i, so hat man damit die Einheiten der Elek- trizitätsmenge im sog. elektrostatischen Maßsystem bestimmt. Dasselbe gilt entsprechend für die Einheiten des Magnetismus im magnetostatischen Cou- lomb sehen Grundgesetz. Letzteren Fall behandelt Gau ß in seiner berühmten Abhandlung: ,,Intensitas vis magneticae ad mensuram absolutam revocata.'^Gauß'mensora Während durch das Coulombsche Grundgesetz die Möglichkeit der Ein- * '^'***" führung absoluter Maßsysteme bereits vorhanden war, ist dies doch erst durch Gauß in der vorstehend erwähnten Abhandlung zum ersten Male ausgeführt worden. Wir können sagen, daß damit die Grundlage geschaffen war für die später in der Elektrotechnik so ungeheuer wichtig gewordenen praktischen absoluten Einheiten Ampere, Volt, Ohm usf.

3. Entdeckungen Voltas und ihre Weiterentwicklung bis auf Ohm.

Im Jahre 1786 (vgl. Lit.-Verz. i) fand Galvani die bekannten Frosch- Gaivani. Schenkelzuckungen. Damit hatte er bei richtiger Deutung folgende beiden Ent- deckungen gemacht. Erstens hatte er in bezug auf die Erregung der Elektri- zität diejenige durch zwei verschiedene Metalle und einen zwischengeschalteten flüssigen Leiter, in seinem Falle den mit animalischer Flüssigkeit durchtränkten Froschschenkel, gefunden. Tatsächlich, wenn auch nicht weiter verfolgt, lag eine derartige Entdeckung schon aus dem Jahre 1751 vor. In diesem Jahre fand Sulzer zu Berlin eine eigentümliche Geschmacksempfindung auf der Zunge, wenn er sie zwischen zwei Streifen aus Blei und Silber brachte, deren andere Enden sich berührten. Galvani hatte zweitens in seinem Versuch die elektrische Empfindlichkeit des Muskels entdeckt. Dagegen irrte er, indem er die Erklärung seiner Beobachtung ausschließlich in einer Elektrizitätserregung zwischen Nerv und Muskel suchte. Daß indessen auch diese bei seinem Versuch mitbeteiligt war, wurde durch die Beobachtung bewiesen, daß auch bei nur einem Metall die Froschschenkel zuckten, wie Galvani in Gemeinschaft mit seinem Neffen Aldini entdeckte.

Volta (1745— 1827) griff in der Erklärung der von Galvani entdeckten voita. Erscheinungen dem Sinne nach auf den Berliner Sulzer zurück und erklärte als Hauptbedingung das Zusammenwirken zweier verschiedener Metalle mit einem flüssigen Leiter. In der weiteren Verfolgung ging nun aber, wie wir nach dem heutigen Stande der Erkenntnis sagen müssen, Volta von der Haupterscheinung, die als elektrochemische aufzufassen ist, ab und kam auf andere Erscheinungen, nämlich die Kontaktelektrizität. Volta glaubte mit dem nach ihm benannten Fundamentalversuch mit Sicherheit nachgewiesen zu haben, daß bei dem Kontakt zweier verschiedener Metalle eine Elektri- zitätserregung stattfinde. Auch nach unserer jetzigen Erkenntnis ist dies der Fall, indes sind diese Kontaktspannungsdifferenzen außerordentlich klein gegenüber den elektrochemisch verursachten an den Berührungsstellen von einem Metall mit einer Flüssigkeit. Mit der vorstehenden Einschränkung ihrer Bedeutung haben aber Voltas Resultate auch jetzt noch ihre große Wichtig-

270 13* Franz Richarz : Entwickl. d. Elektrizitätsleh re b. z. Siege d. Faradayschen Anschauungen

keit. Als Resultat seiner Versuche stellte Volta die Leiter erster Klasse, wie er sie bezeichnete, Metalle und Kohle, zusammen in die nach ihm benannte ,, Spannungsreihe**. In dieser befinden sich an dem einen Ende die am stärksten elektropositiven Metalle, an dem anderen Ende die schwächsten. Erstere sind die Alkalimetalle, letztere die Edelmetalle. DieVoltasche Spannungsreihe hatte die Bedeutung, daß bei der Berührung eines der Metalle mit einem anderen das dem positiven Ende näher stehende positiv, das dem positiven Ende entfernter stehende negativ geladen wurde. Aus der Messung dieser Spannungsdiffe- renzen ergab sich, daß diejenige zwischen irgend zwei Gliedern der Reihe gleich war der Summe der Spannungsdifferenzen aller zwischenliegenden Glieder. Diese Beziehung lehrt dann, daß, wenn man eine Reihe von Metallen miteinander in Berührung bringt und deren letztes wiederum mit dem ersten berührt, so daß eine Ringschließung stattfindet, daß alsdann alle Metalle sich im Spannungs- gleichgewicht zueinander befinden und keine dauernde Bewegung der Elek- trizität eintritt. Außerdem gibt es noch nach Volta die zersetzbaren Leiter, EntstehuDgr die flüssigen Leiter zweiter Klasse. Diese lassen sich nicht in eine Spannungs- gaivaJiiciien reihe, weder zueinander, noch mit den Metallen einordnen. Daraus folgt dann Ströme, «^git^j.^ d^ß^ Wenn eine derartige Verbindung zweier Metalle mit einem Leiter zweiter Klasse ringförmig in sich geschlossen wird, alsdann kein Gleich- gewicht der Elektrizität auf allen drei Leitern vorhanden ist; eines der Metalle behält eine höhere positive Spannung; von ihm fließt durch die metallische Be- rührung jetzt ein konstanter Strom positiver Elektrizität zu dem anderen Me- tall. Die am einfachsten herzustellende wirksame Kombination Zink, feuchter Leiter, Kupfer ist bekannt unter dem Namen des Voltaschen Elementes, die mehrfache Kombination als Voltasche Batterie oder Voltasche Säule. Ganz allgemein wird irgendeine Kombination zweier Metalle mit einem Leiter zwei- ter Klasse ein galvanisches Element genannt, voitas Kontakt- Jeder Experimentator weiß, daß die Anstellung des Voltaschen Funda-

eiektrixität. nicntalversuches, durch welchen die Elektrizitätserregung bei der Berührung zweier Metalle nachgewiesen werden soll, ein äußerst diffiziler Versuch ist. Manchmal erhält man die Ladungen in dem von Voitas Theorie verlangten Sinne, manchmal erhält man keine Ladungen, manchmal erhält man Ladungen in entgegengesetztem Sinne. Es wirkt offenbar gleichzeitig noch eine andere Art der Elektrizitätserregung neben der Kontaktelektrizität mit, und das ist eine elektrochemische Wirkung, welche dadurch zustande kommt, daß zwischen den beiden Metallen entweder feuchte Verunreinigungen sich befinden oder aber, daß die umgebende feuchte Luft bei der Elektrizitätserregung eine Rolle spielt. Die elektrochemische Erregung von elektrischen Spannungsdiffe- renzen bei dem Berühren eines Metalls mit einem Leiter ,, zweiter Klasse*' ist nun, wie sich herausgestellt hat, bedeutend stärker als die bloßen Kontakt- spannungen bei Berührung zweier Metalle. Do la Rive. Derjenige, welcher zuerst die elektrochemische Theorie gegenüber der Theo-

che^Mhe ^^® ^^^ Kontaktelektrizität ausgesprochen hat, ist wohl De la Rive (1801 bis Theorie. 1 873) gewesen. Er stellte den Satz auf : Wenn ein Metall in eine Flüssigkeit hinein-

Galvanische Elemente. Elektrolyse. Thermoströme 271

taucht, welche das Metall chemisch angreift, dann wird das chemisch angegrif- fene Metall negativ, die angreifende Flüssigkeit positiv geladen. Im wesent- lichen ist dieser Satz auch heutzutage noch aufrecht zu erhalten. Diese Elek- trizitätserregung ist es auch, welche den wichtigsten Vorgang im galvanischen Element bildet. Das Zinkmetall, welches in eine verdünnte Säure oder Salz- lösung taucht, löst sich z. T. in dieser Flüssigkeit, wird dabei, während es posi- tive Ladung in die Flüssigkeit hinein entsendet, selbst negativ geladen. Für die weitere Entwicklung wären zu erwähnen Nicholson und Carlisle, welche die für eine vollkommen richtige Interpretation der Wirksamkeit gal- vanischer Elemente vorauszusetzende Entdeckung der Elektrolyse machten, oder vielmehr nochmals machten. Denn im Prinzip fand bereits um das Jahr 1800 Ritter zu Jena tatsächlich die Elektrolyse angesäuerten Wassers, wenn er auch die von ihm beobachtete Erscheinung noch nicht richtig interpretierte.

Im Zusammenhange mit der Elektrizitätserregung durch Kontakt und der Thormoströme. Elektrizitätserregung durch elektrochemische Prozesse, wie sie in den galvani- schen Elementen vorliegt, werde erwähnt die Entdeckung der Thermoströme durch Thomas Johann Seebeck. Eine außerordentlich wichtige Anwen- dung fanden Thermoströme in dem Thermomultiplikator von Nobili und Melloni für die Messung der strahlenden Wärme. Endlich werde hier noch erwähnt der von Peltier gefundene Effekt, die Umkehr der thermoelek- trischen Erregung von Strömen, insofern nämlich ein Strom, wenn er durch eine Lötstelle zweier Metalle fließt, eine Temperaturveränderung der Lötstelle her- vorbringt.

4. Das Ohmsche Gesetz und Anschließendes»

Damit die exakte Abhängigkeit der Stärke eines elektrischen Stromes von den verschiedenen maßgebenden Verhältnissen erkannt werden konnte, war Voraussetzung, daß man imstande war, die Stromintensität hinreichend sicher messen zu können. Dies war möglich, nachdem die Ablenkung der Magnet- nadel durch den Strom gefunden worden war. Wir wollen an dieser Stelle noch nicht auf diese Entdeckung des Elektromagnetismus eingehen, erwähnen aber schon, daß sie einer genauen Messung der Stromintensität vorhergehen mußte.

Georg Simon Ohm war es, der sich zuerst die bezeichnete Aufgabe Ohm, stellte. Den elektrischen Strom verglich er mit anderen Strömen, insbesondere iIitaigT^JidOT. auch mit der Strömung der Wärme. Zuerst erkannte er dann die Bedeutung "^^^J^^^^^^^**^ des Widerstandes eines metallischen Leiters: im Jahre 1825 veröffentlicht in «sehen Kraft. Pogg. Annalen. Sodann erkannte er quantitativ die Bedeutung der elektri- schen Spannungsdifferenz an den Berührungsstellen der verschiedenen Leiter für den erzeugten Strom und führte den Begriff der elektromotorischen Kraft eines galvanischen Elementes als die Summe der Spannungsdifferenzen an den verschiedenen Berührungsstellen ein. Seine Erkenntnisse über die Bedeutung der elektromotorischen Kraft von galvanischen Elementen veröffentlichte er in seiner „Theorie der elektroskopischen Erscheinungen der Säule** im Jahre 1826. Endlich erschien, die sämtlichen Resultate zusammenfassend, als besondere Schrift von ihm: „Die galvanische Kette, mathematisch behandelt**, 1827 zu Berlin.

272 13- Franz Richarz : Entwickl. d. Elektrizitätslehre z. Siege d. Faradayschen Anschauungen

stromintonsit&t. Das Ohmschc Gcsctz Sagt aus, daß die Intensität des elektrischen Stromes direkt proportional ist der elektromotorischen Kraft, welche den Strom erzeugt, und umgekehrt proportional ist dem gesamten Widerstände, welchen der Strom in der ganzen in sich zurücklaufenden Leitung findet. Das nach ihm benannte Gesetz wurde von Ohm selbst lediglich als experimentell gefunden aufgefaßt, wurde zwar nach allen Richtungen hin erläutert und anschaulich gemacht; eine theoretische Begründung aber konnte Ohm nicht für dasselbe geben. Theoretische Wenn man das Ohmsche Gesetz mit anderen allgemeinen Naturgesetzen

def o^^^chen Vergleicht, so drückt sich in ihm aus die Abhängigkeit der Größe des Resul- Getetzet. tates, nämlich der Intensität des elektrischen Stromes, von der wirkenden Ur- sache, nämlich der elektromotorischen Kraft.. Die Stromintensität würde ihrer- seits begrifflich und ihrer Definition nach als proportional der Geschwindigkeit und der Menge der Elektrizität in dem betreffenden Strome anzunehmen sein. Das Ohmsche Gesetz würde also (bei gleicher Menge) Proportionalität der Ge- schwindigkeit des Stromes der Elektrizität mit der wirkenden Ursache behaup- ten. Dies würde im allgemeinen ein Gegensatz sein zu den mechanischen Er- scheinungen, bei welchen nicht die erzeugte Geschwindigkeit, sondern die er- zeugte Beschleunigung (bei gleicher Masse) der wirkenden Kraft proportional zu setzen ist. Aber auch in der Mechanik gibt es Fälle, bei denen das Resultat der Bewegung schließlich ein anderes ist, nämlich Proportionalität der End- geschwindigkeit mit der Größe der Kraft. Das sind diejenigen Fälle, in welchen die Bewegung nur unter Überwindung einer starken Reibung vor sich geht. In solchen Fällen ergibt auch die Mechanik, daß die Endgeschwindigkeit direkt proportional ist der wirkenden Kraft und umgekehrt proportional der Größe des Reibungswiderstandes, welchen die Bewegung findet; vgl. z. B. Lit.-Verz. Nr. 14, § 28. Zur theoretischen Begründung des Ohmschen Gesetzes wird da- her ebenfalls anzunehmen sein, daß sich Elektrizität in den Leitern nur unter Überwindung eines sehr großen reibungsähnlichen Widerstandes bewegen kann. Unter dieser Voraussetzung ergeben auch in der Tat die heute geltenden Vor- stellungen der Maxwe 11 sehen Theorie, verknüpft mit der Elektronentheorie, als Konsequenz das Ohmsche Gesetz, jedoch mit der Einschränkung, daß es sich um stationäre Ströme handelt; solche aber wurden allein von Ohm in Be- tracht gezogen. Weiterer Aaibau Von Ohms Nachfolgcm, wclche das von ihm aufgestellte Gesetz im einzelnen weiter ausbauten, sind zu erwähnen Zamboni, Pouillet, Bec- querel, Daniell, Fechner, Wheatstone, Grove und Poggendorff, Besonders erwähnt werde die Untersuchung des Spannungsgefälles auf einem stromdurchflossenen Leiter durch Rudolf Kohlrausch; er führte diese Untersuchung aus anfänglich unter Benutzung des Dellmannschen Elektro- meters, später des von ihm selbst angegebenen Sinuselektrometers. Die all- gemeinsten Gesetze für die einzelnen Zweigstromintensitäten in ihrer Ab- hängigkeit von den Widerstandsstücken für eine beliebig verzweigte Leitung mit beliebig in ihr verteilten elektromotorischen Kräften sind in größter All- gemeinheit angegeben worden von Gustav Kirchhoff und bekannt unter

Obmsches Gesetz. Stromwärme. Elektromagnetismus 273

dem Namen der Kirch hoff sehen Regeln. Wie wichtig die Anwendung dieser xechnucha theoretischen Folgerungen in der Neuzeit geworden ist, erkennt man, wenn man "''*" "**'" daran denkt, daß ja in jedem städtischen Leitungsnetz, welches von einer elek- trischen Zentrale ausgeht, die Stromintensitäten, die in den einzelnen Zweigen herrschen müssen, von dem Stromverbrauch in den betreffenden Straßen und Gebäuden abhängen, nach dem Bedürfnis berechnet werden müssen, und die jedesmalige Dicke des Zuleitungskabels, d. h. also der Widerstand der Zuleitung, entsprechend zu wählen ist.

Mit dem Wesen des Widerstandes, den der elektrische Strom in einer Lei- warme- tung findet, hängt eng zusammen die Wärmeerzeugung durch den Strom ^u^J'^^^e. in der Leitung. Ebenso wie durch mechanische Reibung Wärme erzeugt wird, so geschieht dies auch durch den reibungsähnlichen Widerstand, den die Be- wegung der Elektrizität in Leitern findet. Die allgemeinen Erscheinungen der Wärmeerzeugung durch den elektrischen Strom waren zu Ohms Zeiten schon lange bekannt; im Zusammenhange mit ihnen stehen ja auch die Lichterschei- nungen durch den elektrischen Strom, und bereits Davy hatte den elektri- schen Kohlelichtbogen gefunden. Quantitativ wurden die Gesetze der Wärme- entwicklung durch die elektrische Entladung zuerst untersucht von Rieß in Berlin bei Leidener Flaschen mit Hilfe seines elektrischen Luftthermometers. In den Rieß sehen Gesetzen sind auch die für die Wärmeentwicklung durch elektrische Ströme enthalten. Dies hat man indessen erst später erkannt, und Joule hat durch unabhängige Versuche die Gesetze der Wärmeentwicklung durch den elektrischen Strom besonders untersucht. Im Jahre 1840 publizierte er das später nach ihm genannte Gesetz über die Wärmeentwicklung, nämlich daß diese in einem bestimmten Leiterstücke pro Sekunde proportional sei dem Quadrate der Stromintensität und proportional dem Widerstände (die theoretische Begründung vgl. Artikel 32). Im Jahre 1843 veröffentlichte Joule seine Abhandlung über die Wärmeentwicklung der magnetelektrischen Ströme und das mechanische Äquivalent der Wärme. Diese Abhandlung war grund- legend für die Messung der elektrischen Energie. Eine solche bewirken heut- zutage instrumenteil die Elektrizitätsmesser, nach deren Angaben der Kon- sument eine gewisse Menge von elektrischer Energie, ausgedrückt in Kilowatt- stunden, der elektrischen Zentrale bezahlt '(vgl. Artikel 32).

5. Grundlagen des Elektromagnetismus. Oersted, Ampfere und Nachfolger.

Die Erscheinungen des Elektromagnetismus wurden tatsächlich bereits vorgäager im Jahre 1808 entdeckt, und zwar von Schweigger; s.Lit.-Verz. Nr. 2. Wenn ^ '^' man bedenkt, was die Welt in dem folgenden Jahrzehnt bewegte, ist es nicht zu verwundern, daß Schweiggers Entdeckung zunächst vollständig wieder in Vergessenheit geriet. Dies war aber nicht der Fall alsOersted im Jahre 1820 zum zweiten Male entdeckte, daß der durch einen Draht geleitete elek- trische Strom eine Magnetnadel ablenkt. Zwar interpretierte er zunächst seine Beobachtungen so, als ob nur dann die Ablenkung einträte, wenn der strom- durchflossene Draht durch den Strom galvanisch glühend geworden sei.

K.d.G.nLiii,Bdi Physik jg

274 '3« Franz Richarz : Entwickl. d. Elektrizitätslehre b. z. Siege d. Faradayschen Anschauungen

Amp*re. Dufch Afago effuhf sogleich Ampere von Oersteds Entdeckung, be-

Gnmdrogeia. f^ßte sich sofoft sclbst mit dem Studium der Erscheinung und publizierte fast unmittelbar hinterher bereits die von ihm gefundenen Grundregeln. Zunächst ist als solche zu erwähnen die bekannte Amp Presche Schwimm- regel, welche für eine Magnetnadel den Drehungssinn angibt, in welchem sie durch einen Strom abgelenkt wird. Gleichzeitig mit Ampere begannen auch Biot und Savart die experimentelle Erforschung der elektromagnetischen Erscheinungen. Als wesentliche Ergänzung zu Amperes Schwimmregel, welche nur die Richtung der Wirkung angibt, stellten Biot und Savart das nach ihnen genannte Gesetz auf für die Größe der Wirkung eines Stromes auf einen Magnetpol. Elektro- Alsbald, noch in demselben Jahre, fand Ampere auch die bewegende

Kriifte. Wirkung zweier Ströme aufeinander, die speziell elektrodynamisch genannten Wirkungen und ihre wesensbegründeten Beziehungen zu den elektromagnetischen Kräften. Die Art und Weise, wie Ampere deren Grundgesetz ableitete, ist ge- radezu klassisch zu nennen. Er geht aus von einigen einfachen experimentellen Resultaten, betreffend die Wirkung zweier elektrischer Ströme aufeinander. Aus diesen leitet er dann sein hypothetisches Kraftgesetz ab, gemäß welchem zwei be- liebig gerichtete Stromelemente aufeinander ponderomotorisch d. h. bewegend wirken. Das so aufgestellte Gesetz wird allgemein das Amp Presche Gesetz ge- Abieitnng nanut. Es ist höchst bemerkenswert, daß auch die moderne Maxwellsche Theo- Ma^weiischen rie das Ampferesche Gesetz für die ponderomo torische Wirkung zweier Strom- Theorie, elemente aufeinander findet, allerdings unter der Hypothese, die aber auch bei Ampere Hypothese ist und bleibt, daß überhaupt zwei Stromelemente auf- einander wirken. Der Fall der Wirkung zweier Stromelemente läßt sich nie- mals realisieren, es kann also auch die Richtigkeit des für ihn hypothetisch ab- geleiteten Amp Preschen Grundgesetzes niemals geprüft werden. Aber die Konsequenzen des Amp Preschen Gesetzes, welche sich bei seiner Ausdehnung auf geschlossene Ströme ergeben, nämlich die Gleichwertigkeit der Wirkung jedes stromumflossenen Flächenelements mit der eines kleinen Magneten, stehen doch im Einklang mit der Erfahrung. Die vorstehend erwähnte Ab- leitung aus der Maxwellschen Theorie, wie sie dem jetzigen Stande der Wissenr Schaft entspricht, s. z. B. in Lit.-Vferz. Nr. 14 § 53. Wilhelm Weber. Die folgcudcn Physiker haben durch ihre Tätigkeit in Anknüpfung an die magoetudu) Grundcrscheinungcu des Elektromagnetismus und der elektrodynamischen Wir- Teiegraphie. kungcn dercu Gcsctze im einzelnen erforscht und auf Grund dieser Forschungen die elektromagnetischen und elektrodynamischen exakten Messungen ermög- licht. Dies sind zunächst Wilhelm Weber, Physiker in Göttingen, der 1833 mit seinem Freunde, dem Mathematiker Gauß, dort zuerst eine elektromagnetische Telegraphie zwischen physikalischem Institut und Sternwarte der Universität einrichtete. In den Bezeichnungen der wichtigen elektrischen und magneti- schen Einheiten sind die Namen der Physiker, welche sich um die Erforschung der grundlegenden Erscheinungen und Gesetze besonders verdient gemacht ha- ben, verewigt, so Ampere, Volt (statt Volta), Ohm usf. Fast ausgefallen ist

Elektromagnetismus: Ampere, Wilhelm Weber, Rudolf und Friedrich Kohlrausch 275

unter diesen Bezeichnungen der Name Wilh. Weber; indessen wird er doch noch, wenn auch wenig, gebraucht. Es ist nämlich die Einheit der Stromstärke ein Ampere gleich einem Zehntel der Einheit im Centimeter- Gramm- Sekunde- System. Die Einheit im C-G-S- System wurde früher allgemein ein Weber ge- nannt. Es wäre wohl angebracht, neben dem Namen von Ampere für den zehn- ten Teil dieser Einheit, einfach weiterhin für die Einheit im C-G-S- System den Namen Weber beizubehalten.

Mit Weber z.T. zusammen arbeitete sein Schüler und Freund Rudolf Kohlrausch, Professor der Physik in Marburg und kurze Zeit vor seinem frühen Tode noch in Erlangen. Wir werden später noch auf ihre gemeinsame hervorragende Leistung auf dem Gebiete der absoluten elektromagnetischen Messungen zurückkommen.

Das Werk der Obenstehenden wurde gekrönt durch die Tätigkeit des Soh- Friedrich nes von Rudolf Kohlrausch, Friedrich Kohlrausch. Die Ausbildung sorgfältiger elektrischer und magnetischer Meßmethoden ist eines der Haupt- verdienste dieses großen Physikers, der mit seinen Leistungen noch bis in die jetzige Zeit hineinragt. Man kann sagen, daß die Konstruktion fast aller jetzt gebräuchlicher elektrischer und magnetischer Meßapparate entweder in der Hauptsache oder irgendeiner Beziehung zurückgeht auf die grundlegenden mes- senden Arbeiten von Friedrich Kohlrausch. Seine letzte amtliche Tätig- keit war die eines Präsidenten der Physikalisch-Technischen Reichsanstalt, als welcher er Nachfolger von Helmhol tz wurde. Durch seine vorbezeichneten Arbeiten war er wie kein anderer für dieses Amt berufen. Nach Vollendung des Kreislaufes des Lebens, wie er sich selbst ausdrückte, kehrte er für die letzten fünf Jahre seines Lebens wieder nach Marburg zurück, wo er 1910 starb.

6. Die Definition der internationalen Einheiten: Ampere, Volt und Ohm.

Es möge an dieser Stelle in Kürze auseinandergesetzt werden, welches die grundlegenden Überlegungen sind, die zu der Definition der Einheiten: Ampere, Volt und Ohm führen. Ausgangspunkt sind die absoluten Einheiten der mechanischen Größen im Centimeter-, Gramm-, Sekunden-, demsogenann- ten C-G-S- System. In diesem ist die Krafteinheit eine Dyne, buva^i^, oderDyne. diejenige Kraft, welche auf eine Masse von einem Gramm wirkend dieser in einer Sekunde eine Beschleunigung, d. h. einen Geschwindigkeitszuwachs von I cm pro Sekunde erteilt. Zur Veranschaulichung diene der Hinweis, daß I Dyne ungefähr gleich ist der auf i Milligramm wirkenden Schwerkraft. Wie oben bereits erwähnt, war Gauß der erste, der, an das Coulomb sehe Gesetz anknüpfend, die magnetische Polstärke i im absoluten Maßsystem definierte ; sie ist in C-G-S-Einheiten folgendermaßen festgesetzt: Die Stärke i besitzt derjenige magnetische Pol, welcher auf einen ihm gleichen im Abstände von Bfagnetitmaa. I cm mit der Kraft von i Dyne wirkt. Für die Kraft eines ganzen Magneten, der aus einem Nord- und einem Süd-Pol besteht, ist maßgebend das magnetische Moment oder das Produkt aus der Stärke je eines der beiden Pole multipliziert mit ihrem Abstände voneinander.

276 13« FkANZ RiCHARZ : Enti^ckl. d. Elektrizitatslehre b.z. Siege d. Faradayschen Anschauungen

Konsequenterweise wird einem solchen Magneten das magnetische Mo- ment gleich I zugeschrieben, der die Polstärken i an dem einen Ende von Nordmagnetismus, an dem anderen von Stidmagnetismus besitzt, und bei welchem der Abstand der als Punkte gedachten beiden Pole l cm beträgt.

Im Elektromagnetismus ist die magnetische Wirkung eines kleinen, in sich zurücklaufenden Stromes gleich derjenigen eines Ersatzmagneten, der mitten im Inneren des Stromes mit der Längsrichtung senkrecht zu dessen Ebene zu denken ist. Die Stärke dieses Ersatzmagneten ist so zu wählen, daß sie gleich ist dem Produkte aus Stromintensität und stromumflossener Fläche. Daraus c-G-s-Einhoit ergibt sich als Einheit der Stromstärke im C-G-S- System, oder als ein „Weber**, stiomintontität diejenige Stromstärke, welche, um eine Fläche von i qcm Größe herumfließend, dieselben Wirkungen hervorruft wie ein Ersatzmagnet von der eben angegebe- nen Stellung und dem Momente gleich i. Der zehnte Teil dieser Stromstärke ist gleich I Ampere (A).

Eine derartige Festsetzung der Stromintensität hat unerläßlich wichtige Vorteile in der Technik. Denn es handelt sich bei den elektromagnetischen Mo- toren um solche magnetischen Kräfte, die von Strömen hervorgerufen werden, in der Praxis allerdings von Strömen mit Eisenkernen. Wenn von letzteren zu- nächst abgesehen wird, ist ersichtlich, daß bei einer Definition der Stromstärke in der zuvor angegebenen Weise sich aus der Angabe der Stromintensität direkt die mechanischen Kräfte in Dynen berechnen lassen. Die bei der wirklichen Ausführung noch hinzutretenden Kräfte der Eisenkerne lassen sich dann eben- falls leicht nach diesem Prinzipe hinzufügen. Durch ladaktion Zu der Definition des Wertes von l Volt (V) gelangt man in folgender Spunds- Weise: Die wichtigste Art der Erzeugung von elektrischen Strömen ist die- difforensen. jenige in den Dynamomaschinen. Die wirksamen Spannungen entstehen da- bei durch Bewegung von Leitern in einem Magnetfelde. Ein Magnetfeld hat dann die Stärke I, wenn in ihm auf einen Pol von der Stärke i die Kraft von einer Dyne wirkt. Wird in einem solchen Magnetfeld von der Stärke l ein auf den Kraftlinien senkrechtes Leiterstück von i cm Länge mit der Geschwindigkeit von I cm pro sec bewegt, und zwar in einer Richtung sowohl senkrecht zu den Kraftlinien als auch senkrecht zu seiner eigenen Längsrichtung, so wird durch Induktion an seinen Enden eine Spannung erzeugt, welche als die Einheit der Spannung im absoluten elektromagnetischen C-G-S- System festgesetzt ist. Als praktische Einheit ist ein Volt so gewählt, daß es eine für die meist vor- voit. kommenden Fälle passende Größe hat. Ein Volt ist das lOO-millionenfache von der Einheit der Spannung im C- G-S- System. Es ist auch hier wieder ersichtlich, wie die Berechnung einer durch Induktion erzeugten Spannung für einen be- stimmten Fall durch Einführung einer solchen Einheit erleichtert wird wegen deren einfachen Beziehungen zu den maßgebenden Größen: Stärke des Magnet- feldes, Drahtlänge, Geschwindigkeit, Größen, durch die im Prinzip auch die Stromerzeugung einer Dynamomaschine bedingt ist. Zur Veranschaulichung diene noch der Hinweis darauf, daß die elektromotorische Kraft eines V 0 1 1 aschen Zink- Kupfer- Elementes (s. oben S. 270) ungefähr gleich l Volt ist.

Definition der internationalen Einheiten: Ampere, Volt, Ohm 277

Endlich ist die Einheit des Leitungswiderstandes i Ohm {&) folgender- widantandi. maßen definiert. Auf einer stromdurchflossenen Leitung fällt die Spannung *"^"** ^^ von höheren Werten zu niederen Werten ab, und zwar ist der Spannungsabfall von einer Stelle zu einer anderen um so größer, je größer der zwischen beiden Stellen durchflossene Widerstand ist. Fließt durch eine Leitung ein Strom von I Ampere, so ermittelt man 2 Stellen auf der Leitung, zwischen denen der Spannungsabfall i Volt beträgt. Dann ist der Widerstand des zwischenliegen- den Leitungsstückes als dessen Einheit gleich i Ohm gegeben. Bei einem Queck- silberfaden, der in eine Röhre von i qmm Querschnitt eingefüllt ist, findet man, daß eine Länge von 1,06 m den Widerstand von i & hat. Der größte Vorteil der Einführung des Ohms als Einheit ist, daß im Ohmschen Gesetz in allen Fällen seiner Anwendung die Zahl der Ampere gleich wird der Zahl der Volt dividiert durch die Zahl der Ohm.

Näheres über diese Einheiten s. Lit-Verz. Nr. 6, Anhang, und Nr. Ii,

I. Vortrag.

7. Die Entdeckungen und Anschauungen Paradays.

Den größten Fortschritt, eine Umwälzung der grundlegenden Anschauun- gen über die elektrischen und magnetischen Kräfte, brachte die Tätigkeit des Mannes, den man als den größten Experimentator aller Zeiten bezeichnen kann, Michael Faraday (1791 1867). Bei der Besprechung seiner Lei- stungen wollen wir nicht etwa chronologische Reihenfolge befolgen; vielmehr sollen zunächst diejenigen Entdeckungen besprochen werden, welche nicht im Zusammenhange stehen mit dem völligen Umschwünge, den sein Lebenswerk verursacht hat, wohl aber auch eine eminente Bedeutung, bis in die Gegen- wart, besitzen, nämlich seine Entdeckungen auf dem Gebiete der Elektrolyse. Dann wollen wir weiterhin diejenige Seite seiner Tätigkeit besprechen, welche bahnbrechend für die neuere Zeit der Elektrizität und des Magnetismus ge- wesen ist, und an welche anknüpfend wir dann verfolgen, wie sich diese mo- dernen Anschauungen weitergebildet haben, bis Maxwell und andere, vor allem Hertz, sie zum Siege geführt haben.

a) Faradays Entdeckungen auf dem Gebiete der Elektrolyse.Beseidmmigen Die Erscheinungen der Elektrolyse ganz im allgemeinen wurden bereits in An- ^^^^ knüpfung an Volta erwähnt. Faraday war aber der erste, welcher die Ge- setze der Elektrolyse quantitativ näher untersuchte und aufklärte. Faraday führte zunächst Bezeichnungen ein, welche auch noch heutzutage in der Lehre von der Elektrolyse allgemein üblich sind. Die metallischen Zuführungen des Stromes in die zu elektrolysierende Flüssigkeit, den Elektrolyten, nannte er Elektroden und unterschied die mit dem positiven Pol der stromliefernden Batterie verbundene als Anode von der mit dem negativen Pol verbundenen, der Kathode. In jedem Elektrolyten nahm er zwei Elementarbestandteile an, welche infolge des Stromes wandern, der eine zum positiven, der andere zum negativen Pol. Einen solchen Elementarbestandteil nannte er Ion, da,s Wan- dernde. Zum positiven Pol wandert das „Anion**, zum negativen Pol das ,, Kat- ion". Daraus, daß das Anion von der positiven Anode angezogen wird, folgt.

278 13- Franz Richarz : En twickl. d. Elektrizitätslehre b . z . Siege d. Faradayschen Anschauungen

Wanderung daß CS sclbst Hcgativ geladen sein muß, und für das Kation folgt in derselben ' Weise, daß es positiv geladen ist. In wässeriger Lösung von Chlorwasserstoff z. B. ist Chlor das Anion und negativ geladen, Wasserstoff das Kation und positiv geladen. Die Leitung der Elektrizität in einem Elektrolyten besteht in einem Transport der Ladungen mitsamt den Ionen. Unter dem Einflüsse der elektrischen Anziehungskräfte nehmen die positiven Bestandteile ihre Bewe- gung nach der Kathode hin an, die negativen nach der Anode. Diese Wände- Hittorf, rung der Ionen ist dann weiterhin eingehender untersucht worden von Hittorf , welcher zeigte, wie diese aus der sog. Überführungszahl berechnet werden kann, in der Weise, daß man eine bestimmte verhältnismäßige Geschwindigkeit für die Anionen und die Kationen in jedem einzelnen Falle erhält. Weiter gelangte F. Kohixuosch. Friedrich Kohlrausch durch seine Untersuchungen zu einem außerordent- lich wichtigen Resultate, nämlich demjenigen der unabhängigen Wanderungs- geschwindigkeit der einzelnen Ionen. Er fand, daß z. B. einem Wasserstoffion eine bestimmte Wanderungsgeschwindigkeit zukommt, einerlei, mit welchem Anion dasselbe in verschiedenen Säuren verbunden ist.

Während also in diesen Vorstellungen ausgesprochen oder unausgesprochen die Annahme enthalten war, daß während des Vorganges der Leitung die An- ionen und die Kationen eine gewisse Unabhängigkeit voneinander hatten, nahm man stillschweigend oder ausgesprochen an,, daß vor Beginn des Vorganges der elektrischen Leitung die beiden Ionen, also z. B. das Chlorion und das Was- serstoffion im Chlorwasserstoff, miteinander verbunden seien. In diesem Punkte hat die Zeit nach Faraday noch eine wesentliche Vervollständigung der Vorstellungen über die Elektrolyse gebracht. Der erste Anfang hierzu ist Eiektroiytbcho vorhanden in einer Abhandlung des Bonner Physikers Clausius „Über die DisMsiAtion. ^j.^ j^j. Bewegung, welche wir Wärme nennen**, insbesondere in dem Abschnitt, der von den Flüssigkeiten handelt (1857). Dort spricht Clausius die Ansicht aus, daß z. B. im Chlorwasserstoff in wässeriger Lösung nicht etwa immer ein bestimmtes Chloratom mit einem bestimmten Wasserstoff atom verbunden sei; vielmehr nimmt Clausius an, daß die in einem gewissen Augenblick zuein- ander gehörigen Chlor- und Wasserstoffatome später mit einem anderen Paar gegeneinander ausgetauscht werden, und in dieser Weise also infolge der Wärme - bewegung von einem festen Verbundensein der Chloratome mit den Wasser- stoff atomen nicht die Rede sein kann. Jedenfalls gab es also bei den im Austausch begriffenen Paaren bereits nach Clausius vorübergehend freie Ionen. Aus che- mischen Gründen gelangte ungefähr zu derselben Zeit der Engländer William- son zu gleichen Anschauungen. Später (1887) sprachdannArrhenius die An- schauung aus, daß in verdünnten Lösungen eines Elektrolyten schon von vorn- herein Anionen und Kationen voneinander getrennt seien und ihre Wärmebe- wegung innerhalb des Elektrolyten ausführten. Dies ist die Theorie der sog. elek- troly tischen Dissoziation. Im Anfange nach ihrer Aufstellung durch Arrhe- nius hat sie vielfach Anlaß zu Mißverständnissen gegeben. Die Chloratome, welche als Ionen in verdünnter Chlorwasserstoff lösung existieren, sind alle nega- tiv geladen und unterscheiden sich wesentlich dadurch von freiem Chlorgas,

Faradays Entdetkungen. Elektrolyse. Ionen. Zersetzung^sprodukte 279

welches als Ganzes elektrisch ungeladen ist; dasselbe gilt sinnentsprechend für die Wasserstoffatome, die als Ionen im Elektrolyten positiv geladen sind, im freien Wasserstoff dagegen ist die Wasserstoff molekel als Ganzes jedenfalls, wahrscheinlich auch jedes Atom in der Molekel, elektrisch neutral.

Von dem Vorgang der Leitung innerhalb des Elektrolyten ist wohl zu un- zersotxangs- terscheiden der Vorgang der Abscheidung gewisser Zersetzungsprodukte an den ^" Elektroden. Wenn die elektrisch neutral an den Elektroden abgeschiedenen Zersetzungsprodukte in chemischer Beziehung mit dem Ion übereinstimmen, so spricht man von einem Primärprozeß der Abscheidung. Nur ausnahmsweise besteht aber die Abscheidung lediglich in einem solchen primären elektrischen Neutralisationsprozesse. In den allermeisten Fällen treten sekundäre Prozesse ein, so z. B. bei der sog. Wasserzersetzung, welche tatsächlich eine Zersetzung des Zusatzes an Säure usf. ist, welcher zu dem Wasser gemacht werden muß, um eine kräftige Leitung zu ermöglichen. Nur sekundär erscheint als Resultat der Zersetzung in gewissen allerdings meist vorliegenden Fällen unter ganz bestimmten Bedingungen das Resultat so, als ob das Wasser selbst zer- setzt worden sei.

An quantitativen Beziehungen fand Farad ay zunächst, daß die Menge der durch einen Strom ausgeschiedenen Zersetzungsprodukte proportional sei der Dauer des Stromschlusses und der Stromintensität.

Das nächste war nun, daß Faraday auf Grund der vorstehenden Bezie- Kuaiigas- usw. hungen ein Instrument zur Bestimmung von Stromintensitäten aus der Quan- tität der pro Sekunde oder pro Minute abgeschiedenen Zersetzungsprodukte an- gab. Solche Meßinstrumente nennt man Voltameter. Da indessen die Ver- wechselung mit dem Voltmeter, einem Spannungsmesser, sehr nahe liegt, ist es besser, bei den Voltametern, bei denen es sich immer um Zersetzung einer bestimmten Substanz handelt, die betreffende Substanz, die zersetzt wird, oder das Zersetzungsprodukt, das gemessen wird, dem Namen hinzuzufügen. Eis ist also zweckmäßig, stets zu sprechen entweder vom Knallgasvoltameter oder Silbervoltameter oder vom Kupfervoltameter usf., den Namen Volta- meter allein aber nicht zu gebrauchen.

Das dritte und wichtigste der Faradayschen Gesetze von den elektro- chomiicb© lytischen Wirkungen war folgendes. Wenn ein und derselbe Strom hinterein- der ^xwt^ng»- ander durch mehrere Zersetzungszellen mit verschiedenen Elektrolyten hin- »•»»«<*°- durchgeht, dann sind die in gleichen Zeiten abgeschiedenen Zersetzungsmengen chemisch äquivalent. Daraus folgt, daß chemisch äquivalente Mengen ver- schiedener Ionen, um an der Elektrode elektrisch neutralisiert und chemisch frei abgeschieden zu werden, gleiche Elektrizitätsmengen gebrauchen. Weiter folgt hieraus dann, daß chemisch äquivalente Ionen gleiche elektrische Ladun- gen besitzen.

Die elektrochemischen Resultate und Theorien Faradays bedeuten einen Elektro- außerordentlichen Fortschritt gegenüber der älteren elektrochemischen Theorie •nUJoric!' von Berzelius. Auch Berzelius hatte angenommen, daß die Atome der Me- talle und des Wasserstoffs elektropositiv geladen seien, die Salzbildner und

2 8o I3> FkANZ RiCHARZ : Entwickl. d. Elektrizitätslehre b. z. Siege d jParadayschen Anschaunngen

die Sauerstoffsäurereste elektronegativ. Der verschiedene Grad der chemischen Aktivität war aber nach Meinung von Berzelius darin begründet, daß z. B. die Atome der Alkalimetalle starke positive Ladungen, die Atome der weniger aktiven Metalle wie Platin und andere Edelmetalle dagegen nur eine kleinere positive Ladung besitzen sollten. Faraday dagegen erkannte, daß äquivalente Ionen ausnahmslos gleich große Ladung besitzen.

Hcimboh«' Die Schlußfolgerungen, welche anFaradays „Gesetze von den festen elek-

Eiemmtart trolytischcn Aktionen " anknüpfen, erfuhren zum ersten Male eine wichtige Er- qnanta. Weiterung durch Helmholtz in seiner Rede, die er am 5. April 1881 zu Fara- day s Gedächtnis vor der chemischen Gesellschaft zu London gehalten hat. Helmholtz führte in dieser Rede in den Schlußfolgerungen aus den Fara- day sehen Gesetzen Kekules Theorie der Valenzen an Stelle der alten Theorie der Äquivalente ein. In der Valenztheorie ausgesprochen, können die Fara- day sehen Gesetze die Fassung erhalten, daß durch den Durchgang gleicher Elektrizitätsmengen in einem Elektrolyten eine gleiche Anzahl von Valenzen elektrisch neutralisiert wird. Daraus folgt dann, daß vor der elektrischen Neu- tralisierung gleiche Anzahl von Valenzen gleiche elektrische Ladungen besessen haben. Statt dessen kann man auch so sagen: Jede Valenzstelle ist in den Ionen beladen mit derselben stets gleichen Quantität, sei es positiver, sei es negativer Elektrizität. Für diese Ladung je einer Valenzstelle führte Helm- holtz die Bezeichnung Elementar quantum ein. Helmholtz sagt ausdrück- lich, daß man gezwungen sei, gewissermaßen positive und negative Atome der Elektrizität anzunehmen. Diese Annahme von Helmholtz war die Begrün- Begründaag dung der modemcn Elektronentheorie. Es hat langer Zeit bedurft, seit Helm-

cbeorie. holtz Seine Rede zum Gedächtnis Faradays gehalten hat, bis die in ihr aus- gesprochenen Weiterungen und Umformungen der Faradayschen Schlußfol- gerungen allgemeineren Eingang gefunden haben. Der Verfasser war wohl der erste, der 1888 in seiner Antrittsvorlesung als Bonner Privatdozent die Hei m- holtzsche Weiterbildung der Faradayschen elektrochemischenAnschauungen aufgriff und seinerseits Schlußfolgerungen daraus zu ziehen begann, so, daß bei der Elektrolyse aller Sauerstoffsäuren die galvanische Polarisation nahezu den- selben Wert haben müsse (s.Lit.-Verz.Nr. 5). Auch in seinen weiteren Schluß- folgerungen aus der Faraday- Helmholtzschen elektrochemischen Theorie blieb der Verfasser lange allein, so mit der Zurückf ührung des Magnetismus auf rotierende Hei mholtzsche Elementar quanten, welche nun jetzt allgemein angenommen ist. Erst gegen das Ende des vorigen Jahrhunderts gewann die Elektronentheorie durch andere Anwendungen durchgreifende Anerkennung.

Theorie Im Zusammenhange mit den Erscheinungen der Elektrolyse steht die Frage

^'oe^to*"* nach der Erhaltung der Energie bei derselben. Da auch die Prozesse in den gal- vanischen Elementen wesentlich chemische Prozesse sind, hängt also auch die Frage nach der Entwicklung der galvanischen Stromenergie mit dieser Grund- frage zusammen; anderseits aber auch die Erscheinung der elektromotorischen Gegenkraft der sog. galvanischen Polarisation in den Zersetzungszellen. Auch für diese theoretischen Überlegungen über die Erhaltung der Energie bei den elek-

Helmholtz' elektrische Elementarquanten und Theorie der galvanischen Elemente 281

trochemischen Prozessen diente als Grundlage die tatsächliche Aufklärung von deren Gesetzen durch Faraday. Die Theorie der galvanischen Elemente und der galvanischen Polarisation wurde begründet von Sir William Thom- son und von Helmholtz; insbesondere sprach Helmholtz in seiner Rede zu Faradays Gedäjchtnis bereits folgendes aus (Lit.-Verz. Nr. 4, S. 286) : In den galvanischen Elementen nehmen von einem sich lösenden ur- sprünglich neutralen Metall die entweichenden Ionen positive Elektrizität in die Flüssigkeit mit hinein, während das Metallstück selbst negativ geladen zu- rückbleibt. Dies ist z.B. im Daniellschen Element der Vorgang am Zink, während am Kupfer positive Kupferionen aus der Lösung sich als galvanopla- stische Schicht niederschlagen und ihre Ladung an das Kupferstück abgeben. Da die Gesamtheit beider Vorgänge Energie liefert, nämlich die des erzeugten Stromes, ist der Übergang des Zinkatoms aus dem neutralen in den positiv ge- ladenen Zustand ein Prozeß, der größere Arbeit leistet, als andererseits auf- gewendet werden muß, um den Kupferionen ihre bevorzugte positive Ladung zu nehmen. In Übereinstimmung mit dem bleibend Richtigen von Voltas Kontaktelektrizität nimmt daher Helmholtz bei allen Metallatomen (und Wasserstoff) Anziehung für positive Elektrizität an, die aber für verschiedene Metallatome verschieden ist, für Zink z. B. größer als für Kupfer. Dagegen ist der Aufwand äußerer Energie bei der Elektrolyse, z. B. verdünnten Säuren, vor allem dadurch erforderlich, daß den geladenen Ionen ihre Ladung vom be- vorzugten Vorzeichen genommen und elektrisch neutralisiert werden muß. Mit diesen Vorstellungen berührt sich die Theorie der galvanischen Spannungs- differenzen von N ernst, die an anderer Stelle entwickelt wird.

Indem Faraday und unter seinen nächsten Nachfolgern Hittorf, F. Kohlrausch, Helmholtz in dieser Weise den Grund zur wissenschaft- lichen Erforschung der Elektrolyse und zur Elektronentheorie legten, sind sie auch diejenigen, auf deren Schultern die ganze weitere Entwicklung der Elektro- chemie und deren wichtige technische Anwendungen, Elektrometallurgie, Alu- miniumgewinnung, Akkumulatoren usw., beruhen.

b) Allgemeine Gesichtspunkte Faradays bei seinen Forschun- gen über das Wesen der elektrischen und magnetischen Kräfte. Faraday war in seinen Jugendjahren bekanntlich Buchbinderlehrling gewesen. Fanday Beim Einbinden technisch-naturwissenschaftlicher Werke las er gelegentlich in "*"" **^' ihnen, und dies war der Ausgangspunkt seiner physikalischen Forschungen. Dieser so handgreiflich praktische Ausgangspunkt ist vielleicht maßgebend ge- wesen für seine ganze Geistesrichtung. Die praktischen Tatsachen, experimen- tell gefunden, gingen ihm über alles, er stellte sich dadurch in bewußten Gegen- satz zu allen metaphysischen Spekulationen. Man würde Faraday aber ein großes Unrecht tun, wenn man ihm bloß den Ruhm zugestände, einer der größten Experimentalphysiker aller Zeiten gewesen zu sein, und ihm nicht auch das Verdienst zuerkennte, einer der größten Theoretiker gewesen zu sein. Dabei besaß er aber gar keine Kenntnisse der Mathematik, doch war er Theo- Faraday retiker durch seine Vorstellungen und durch seine eminente geometrische Ver- Theoretiker.

2$ 2 13- Franz Richarz : EntwickL d. EHektrizitätslehre b. z. Siege d. Faradayschen Anschauungen

anschaulichüngskraft für diese Vorstellungen. In diesem Sinne war Faraday vorbildlich für die Methode der theoretischen Physik, welche die Mathematik erst dann brauchen soll, wenn Vorstellungen und Anschauungen vollständig ausgebildet sind, so daß dieselben gewissermaßen nur der Übersetzui^ in die Begriffsschrift der Analysis bedürfen.

Wenn Faraday nach seiner ganzen Geistesrichtung daher auch ein ent- schiedener Gegner aller vagen Spekulationen war, so brauchte er doch die Hypo- these als heuristisches Prinzip beständig. Aber die Hypothese war ihm eben nur Arbeitshypothese und er war jederzeit geneigt, eine einmal gemachte Hypo- these aufzugeben zugunsten anderer besser begründeter und erfolgreicherer. Die Bezeichnung als theoretischer Physiker hat Faraday selbst gelegentlich abgelehnt, wohl im Bewußtsein seiner Unkenntnis der Mathematik; dagegen bezeichnete er mit Vorliebe seine Forschungsmethode dem englischen Sprach- gebrauch folgend als „natural philosophy", eine Bezeichnung, die wohl an- knüpft an Newtons Titel: Philosophiae naturalis principia mathematica.

Wir wollen nun zur Besprechung derjenigen einzelnen Gebiete übergehen, in welchen Faradays Tätigkeit umwälzend und neue Bahnen brechend wirkte.

c) Verhalten der Nichtleiter. Dielektrika. Das, was soeben über Faradays allgemeine Gesichtspunkte gesagt worden ist, erfährt gleich bei dem ersten zu besprechenden Forschungsgebiet eine außerordentlich helle Beleuch- tung. Die elektrostatischen Anziehungen und Abstoßungen zwischen Elektri- zitätsmengen, welche in dem Coulomb sehen Gesetze ihre quantitative For- mulierung finden, waren in dem letzten Jahrhundert vor Faraday wohl ohne CbertcafDng, nähere Überlegung als Fernwirkungen angesehen worden. Die analoge Kraft Ferawirknng. der Gravitation zweier Massen aufeinander hat Newton selbst niemals als Fernwirkung aufgefaßt, das beweist eine Stelle von ihm in seinem dritten Brief an Bentley, an welcher er sich ausdrücklich gegen eine derartige Unterschie- bung verwahrt. Vielmehr sagt er, daß die von ihm aufgestellte allgemeine Gra- vitation, wie er glaube, durch irgendein Medium von Masse zu Masse übertragen werden muß, und nennt dieses hypothetische Medium auch bereits Äther. Die rein mathematischen, formalen Erfolge der Potentialtheorie waren es aber wohl, die in der Folgezeit das Nachdenken über das physikalische Wesen der Gravi- tation verhinderten.

Indem man zwischen zwei ponderablen Massen, zwischen zwei Magnetis- mus- oder Elektrizitätsmengen, die Anziehungen oder Abstoßungen als Fem- wirkungen annahm, glaubte man, daß die bloße gleichzeitige räumliche Neben- einanderexistenz der beiden Agentien genüge, um eine Wirkung in der Ferne aufeinander hervorzurufen. Man übersah dabei, daß es nicht vorstellbar ist, daß von diesen Agentien physikalische Wirkungen aufeinander ausgeübt werden, ohne daß auch eine physikalische Beziehung zwischen ihnen exi- stiert. Die bloße räumliche Beziehung zueinander bei gleichzeitiger Existenz ist aber keine physikalische Beziehung. Schon der Jesuitenpater Bosko- vich (171 1 1787) hatte seinem Widerstreben Ausdruck verliehen, die Gravi- tation als Fernwirkung zwischen zwei Massen anzunehmen, bei denen dann

Faraday als Theoretiker. Obertragung, nicht Femwirkung 283

also das Wesentliche des ganzen Vorganges nur die Massen waren. Er suppo- nierte statt ihrer Kraftzentren; die Kraft selbst war für Boskovich das wesent- lich Existierende; wie er sich dies vorstellte, darüber spricht er sich nicht näher aus. Faraday nahm zunächst in bezug auf die elektrostatische Kraftwirkung Elektrostatische zweier Elektrizitätsmengen aufeinander an, daß dieselbe nichts weniger als eine Fernwirkung sei, daß vielmehr eine Übertragung durch das zwischenliegende Medium stattfinden müsse. Das zwischenliegende Medium war nach den Vor- stellungen vor Faraday im wesentlichen nur der Isolator, welcher die beiden Ladungen verhinderte, die Konduktoren zu verlassen; für Faraday war es aber dasjenige Medium, durch welches hindurch die elektrischen Kräfte über- tr^en wurden, daher die Bezeichnung als Dielektrikum. Zunächst nahm Fara- day in den ponderablen Dielektrizis, wie z. B. Paraffin, Schwefel, einen ver- änderten Zustand an, der die elektrischen Kräfte von der einen Stelle zur ande- ren übertrage, den Zustand der dielektrischen Polarisation. Man kann ihn kür- zer Dielektrisierung nennen und hätte dann eine Bezeichnung, die dem Worte Dielektrische Magnetisierung ähnlich wird; und in der Tat ist die dielektrische Polarisation der Magnetisierung weichen Eisens vollkommen analog vorzustellen. Faraday stellte eine Reihe von Versuchen an, welche bewiesen, daß seinen Vorstellungen entsprechend in dem Medium, welches sich z. B. zwischen den beiden entgegen- gesetzt geladenen Platten eines Kondensators befindet, eine Zustandsänderung vor sich geht. Diese Zustandsänderung macht sich am einfachsten erkennbar geltend durch eine Kapazitätsveränderung des Kondensators bei Verände- rung der Zwischensubstanz, Luft, Schwefel, Paraffin usw.

Zunächst ist in der folgenden Zeit die Beweiskraft einzelner dieser Fara- day sehen Versuche vielfach angezweifelt worden, z. B. wurden sie von man- chen noch lange durch ein geringes Leitungsvermögen in dem Dielektrikum erklärt. Anderseits aber konnten die Versuche mit ponderablen Nichtleitern in der Tat auch noch anders erklärt werden, wenn man überhaupt an den Fern- wirkungen festhalten wollte. Man konnte sich nämlich denken, daß zu den Fernkräften, welche ein positiv geladener Konduktor auf einen negativ gelade- nen ausübte, die Kräfte der dielektrischen Polarisation des Zwischenmediums noch hinzukämen; letztere wurden dann auch wieder als Fernkräfte angesehen.

Dagegen war eine Einordnung in die alten Vorstellungen gänzlich ausge- Dielektrische schlössen für die Annahme Faradays, daß auch da, wo kein ponderables Di- im freien ÄthI^r. elektrikum vorhanden war, also wo wir sagen würden, daß der freie Äther vor- handen sei, daß auch in diesem freien Äther ein Zustand der dielektrischen Po- larisation durch die elektrischen Kräfte erzeugt werde, oder vielmehr dasjenige sei, was die elektrischen Kräfte von Ort zu Ort überträgt. Ganz allgemein be- seitigte Faraday die haltlose Vorstellung der Fernwirkung und setzte an ihre Stelle: Übertragung auch im freien Äther von einer Stelle zu benach- barten und von dieser weiter von Schicht zu Schicht vermittels einer gewissen Zustandsänderung.

Nach dem jetzigen Stande der Erkenntnis kann man sich konkretere Vor- stellungen von der dielektrischen Polarisation, wenigstens in den ponderablen

284 '3* Franz Richarz : Entwickl. d. Elektrizitätslehre b. z.Siege d. Faradayschen Anschauungen

Ponderabie Diclektrizis ixiachen, als dies Faraday möglich war. Nach unseren jetzigen * * " ** Vorstellungen sind in den Dielektrizis gewisse elektrische Elementarquanta (s. oben S. 280), die elektrische Verschiebungsquanten enthalten, deren jedes zwar in ein und derselben Molekel bleiben muß, und deren jedem auch inner- halb dieser Molekel eine bestimmte Lage stabilen Gleichgewichtes zukommt; sie können aber innerhalb der Molekel den Ort unter dem Einfluß elektrischer Kräfte etwas verändern, kehren aber, quasi vollkommen elastisch, nach dem Aufhören der elektrischen Kräfte wieder an ihre frühere Stelle zurück. Auch ist eine Drehung der Molekel als Ganzes zusammen mit den dielektrischen Verschiebungsquanten denkbar. In jeder Molekel ist eine gleichgroße Anzahl positiver und negativer Verschiebungsquanten vorhanden, so daß die Molekel als Ganzes elektrisch neutral ist. Es ist ersichtlich, daß eine Molekel eines Dielektrikums hiernach prinzipiell ganz analog ist einem Elementarmagneten im weichen Eisen nach Wilhelm Webers Vorstellung vom molekularen Magne- tismus (vgl. Artikel 16 u. 17). Ebenso wie in unmagnetischem weichen Eisen würden in einem Dielektrikum bei Abwesenheit äußerer elektrischer Kräfte die Verschiebungsquanten in den verschiedenen Molekeln regellos nach den ver- schiedenen Richtungen hin verteilt sein, so daß keine Seite in bezug auf die posi- tiven oder negativen einen Vorzug hat. Unter dem Einflüsse einer elektrischen Kraft aber würden die positiven Verschiebungsquanten innerhalb der Molekel oder mit dieser nach einer bestimmten Seite hingezogen, die negativen nach der entgegengesetzten, und es tritt nun eine Richtung ein, ähnlich der Richtung der magnetischen Molekeln bei Wilhelm Weber unter dem Einfluß einer magnetisierendcn Kraft. Von der dielektrischen Verschiebung des freien Äthers dagegen kann man sich nach dem jetzigen Stande der Wissenschaft ebensowenig eine bestimmte Vorstellung machen wie zuzeiten Faraday s (vgl. Artikel 15). Benicksicbtigiing Von der größten Wichtigkeit war nun weiter die Erkenntnis, daß auch im dieieMtchen Coulombschen Gesetz für die Wirkung zweier Elektrizitätsmengen aufein- Poiaritttion ander eine Korrektur angebracht werden müsse wegen des Einflusses des Gesete. zwischenliegenden Mediums. Im elektrostatischen absoluten Maße würde sich jetzt die Kraft zwischen zwei Elektrizitätsmengen ergeben gleich dem Produkte der beiden Elektrizitätsmengen, dividiert durch das Quadrat ihres Abstandes, aber im Nenner noch als Faktor hinzutretend die Dielektrizitätskonstante. Für den freien Äther wird die Dielektrizitätskonstante gleich Eins gesetzt als Defi- nition. In jedem anderen Medium hat die Dielektrizitätskonstante einen grö- ßeren Wert. Es wird also durch die dielektrische Polarisation in ponderablen Dielektrizis der Wert der Coulombschen Kraft herabgesetzt. Man kann sich dies anschaulich daraus vorstellen, daß um einen z. B. positiv geladenen Kon- duktor herum in einem ponderablen Dielektrikum die durch die dielektrische Polarisation herangezogenen negativen Elektrizitäten sich der Oberfläche des Konduktors anlagern und einen Teil der positiven Ladung binden. Der ge- bundene Teil kommt für die Kraftwirkung nach dem Coulombschen Gesetz nicht mehr frei in Betracht. Die rechnerische Durchführung dieser Vorstellungen s. z. B. Lit.-Verz. Nr. 14 § 23.

Dielektrisierung. Para- und Diamac^etismus. Permeabilität 285

d) Faradays Entdeckungen bezüglich Paramagnetismus und Übertragung Diamagnetismus. Entsprechend den im vorigen Abschnitt entwickelten „»gnetilchen Anschauungen Faradays über die Übertragung der elektrischen Kräfte durch Kraft©. die Dielektrika nahm er natürlich auch eine Übertragung der magnetischen Kräfte an durch das Zwischenmedium zwischen zwei Magnetpolen. Für ihn mußte es also eine Magnetisierung nicht bloß von weichem Eisen, Nickel und Kobalt geben, sondern auch von allen anderen Substanzen. Diese suchte er experimentell und fand sie.

Diejenigen Substanzen, welche sich in bezug auf ihre Magnetisierbarkeit Para- und qualitativ so verhalten wie Eisen, wenn auch quantitativ außerordentlich viel '*"*«^®***"'" schwächer, nannte Farad ay paramagnetisch. Farad ay fand aber auch, daß es Substanzen gibt, welche sich in bezug auf Magnetisierbarkeit qualitativ um- gekehrt verhalten wie Eisen. Das magnetische Verhalten dieser Substanzen nannte Faraday Diamagnetismus. Die Bezeichnung ,, diamagnetisch*' ist von Faraday nicht glücklich gewählt; wenn man nämlich bedenkt, daß in „dielek- trisch" die griechische Präposition bid in einer ganz anderen Bedeutung ge- braucht ist, nämlich in der Bedeutung von hindurch, wäre es besser gewesen, die gegensätzliche Bedeutung zum Paramagnetismus durch eine andere Präpo- sition* auszudrücken und etwa die Bezeichnung „Antimagnetismus** statt Dia- magnetismus zu gebrauchen. Es wird aber wohl sehr schwer sein, eine Ände- rung in dieser Bezeichnung herbeizuführen. Am ausgeprägtesten zeigt Dia- magnetismus das Wismut, aber auch dieses quantitativ nur schwach, der Größe nach nur wie Paramagnetismus, aber wie gesagt umgekehrt.

Um die Vorstellung der Fernwirkung auch für den Magnetismus zu beseiti- Permeabuitiit gen, nahm Faraday eine magnetische Polarisierbarkeit aller Substanzen, auch des freien Äthers an. Die Größe, welche für die Magnetisierbarkeit im Farad ay- schen Sinne maßgebend ist, ist später von Maxwell präziser definiert worden und Permeabilität genannt worden. Sie ist vollkommen analog der Dielektrizi- tätskonstante. Im Faraday-Maxwel Ischen Sinne ist die Permeabilität des freien Äthers gleich Eins zu setzen, die Permeabilität der paramagnetischen Substanzen etwas größer als Eins^ die Permeabilität von Eisen, Kobalt und Nickel bedeutend größer als Eins. Die Permeabilität der diamagnetischen Sub- stanzen wäre dann kleiner als Eins.

Zur Erklärung der Erscheinungen des Diamagnetismus nahm Faraday Erklärung an, daß der Wert der Permeabilität relativ zum Äther kleiner als Eins so auf zu- i>iaom^ti, fassen sei, wie der Auftrieb z. B. eines leichteren Gases in der schwereren Luft. Dem Sinne nach sei tatsächlich auch in den diamagnetischen Substanzen die Magnetisierung dieselbe wie im freien Äther; die magnetische Polarisation der- selben jedoch wirke wegen ihrer quantitativen Schwäche in Beziehung auf den freien Äther so, daß die Substanzen abgestoßen würden, so wie ein Luftballon in der Luft in die Höhe steigt, obwohl die Anziehung der Erde die Ursache dieser Erscheinung ist, die aber stärker wirkt auf die umgebende Luft.

Mit dieser Auffassung hat sich Faraday jedoch geirrt, vielmehr ist die Auffassung vom Diamagnetismus, welche Wilhelm Weber gab, in modifi-

mus.

^ *f jj ^^t« •"'*"

286 13- Franz Richarz : Entwickl. d. Elektrizitätslehre b. z. Siege d. Faraday sehen Anschauungen

zierter Form die richtigere. Wilhelm Weber nahm an, daß die induzierten Ströme, welche bei Hineinbringen irgendeines Metalles in ein magnetisches Feld entstehen und eine Abstoßung ergeben, zwar in den meisten Substanzen schnell verschwinden, dagegen in den diamagnetischen andauern und infolgedessen eine dauernde Abstoßung zur Folge haben. Übertragen auf intramolekulare rotierende Elektronen wird dieses die richtige Erklärung sein. Hensiers In bezug auf das qualitative Verhalten aller Substanzen zu den magneti-

maj^^scfae schen Kräften ist seit den Entdeckungen Faradays, welche im einzelnen noch Legierungen. (}m-Q)i diejenigen von Plücker und anderen zu ergänzen waren, der Haupt- sache nach aber keine Erweiterung eingetreten bis zu einer höchst bedeutenden Entdeckung von F. Heus 1er, daß nämlich eine Reihe von unmagnetischen oder schwach paramagnetischen Substanzen miteinander legiert, wobei sich chemische Verbindungen bilden, starken Magnetismus ergeben. Für den starken Magnetismus, der Größenordnung nach gleich dem des Eisens, wie er von Kobalt und Nickel schon lange bekannt war, hat H. du Bois die Bezeichnung Ferro- magnetismus eingeführt. Nach der Entdeckung von F. Heusler sind ferro- magnetisch eine Reihe von Manganlegierungen, am stärksten Mangan- Alumi- nium-Kupfer. Die Eigenschaften dieser Heuslerschen magnetischen Legie- rungen sind im einzelnen von Heusler selbst und unter Leitung des Verfassers im Marburger Physikalischen Institut untersucht worden, insbesondere von E. Take. Auch ist die Erklärung der magnetischen Verbindungen schwach magnetischer Metalle teils von Heusler selbst, teils vom Verfasser auf Grund von dessen bereits erwähnter Erklärung des Atommagnetismus durch rotierende Helmholtzsche Elementarquanten und von E.Take (Marburger Habil.- Schrift 191 1) gegeben worden. Von anderen, welche sich selbständig, erfolg- reich und unter Auffindung neuer Tatsachen mit dem Studium der Heusler- schen Legierungen beschäftigt haben, seien insbesondere erwähnt Gumlich, Guthe und Austin; s. die Zusammenstellung Lit.-Verz. Nr. 6, S. 522. Permeabilität Durch die magnetische Polarisation des umgebenden Mediums ist im Co u- *°Ge8ete?^' lombschcn Gesetz, ebenso wie oben S. 284, bei den elektrostatischen Kräften, erwähnt wurde, so auch bei den magnetostatischen eine Verallgemeinerung an- zubringen, indem die Permeabilität als Faktor zum Nenner im Coulomb- schen Gesetz hinzutritt. Magnetische Eine andere außerordentlich wichtige Entdeckung Faradays auf dem Ge- de? LidrtL. biete des Magnetismus war die der magnetischen Drehung der Polarisations- ebene des Lichtes. Mit dieser Entdeckung hatte er die erste tatsächliche Be- ziehung zwischen Elektrizität und Licht gefunden. Indessen war das Zustande- kommen dieser Erscheinung keineswegs so einfach zu erklären; infolgedessen hat auch Faradays Entdeckung der magnetischen Drehung der Polarisations- ebene des Lichtes noch nicht zu einer Aufklärung der Beziehungen zwischen Licht und Elektrizität Anlaß gegeben (vgl. Artikel 30).

e) Faradays Vorstellungen von den elektrischen und magne- tischen Kraftlinien. Faraday bildete sich, entsprechend seinen Grund- vorstellungen, folgende Anschauung im einzelnen aus. Von ihren Ursprungs-

Heuslers magnetische Legierungen. Elektrische und magnetische Kraftlinien 287

stellen ausgehend, übertragen sich die elektrischen und magnetischen Kräfte im Raum fortschreitend von Stelle zu Stelle und folgen dabei bestimmten Li- nien, den Kraftlinien. Für den Magnetismus war eine Veranschaulichung dieser Kraftlinien schon lange bekannt durch Eisenfeilspäne, welche sich unter dem Einflüsse der magnetischen Kräfte aneinander hängen und in die Richtung der Kraftlinien einstellen. Man darf nicht verwechseln: Diese Linien von Eisen- feilspänen sind nur eine Darstellung der Kraftlinien, die Kraftlinien selbst sind gedachte Linien | in dem Räume. Faraday schrieb ihnen aber auch eine hervorragende physikalische Bedeutung zu, und zwar hielt er sie für das Kraftlinien Wesentliche der elektrischen und magnetischen Kräfte. Die Ausgangsstellen ^^"^Si« und die Endstellen der Kraftlinien waren für ihn nicht wie in den älteren Vor- ü^c*»« ^^r

Encfaeinongen

Stellungen als Sitz der elektrischen bzw. der magnetischen Mengen durch dar. letztere der Ursprung der Erscheinungen; sondern für ihn waren die Kraft- linien die Ursache der Erscheinungen und die an ihren Endstellen gedach- ten Quanten nur Fiktionen. Diese Faraday sehen Vorstellungen lassen sich, wie Maxwell gezeigt hat, vollkommen präzise mathematisch fassen, und es finden sich dann, ausgedrückt durch die Kräfte als Funktionen des Raumes, bestimmte Ausdrücke, die man die Divergenz nennt, .und welche proportional zu setzen sind den in den Divergenzstellen zu denkenden Quanten. Dabei ist negative Divergenz gleich Konvergenz. Nach Faradays Vorstellungen sind also die einfachsten Gesetze der elektrischen und magnetischen Erscheinungen so zu fassen, daß die Divergenzstellen und die Konvergenzstellen der Kraft- linien Kräfte aufeinander auszuüben scheinen. Das wirklich Existierende sind aber die in den Kraftlinien selbst vorhandenen physikalischen Veränderungen. Die in den Kraftlinien vorhandenen Veränderungen stellte sich Faraday fol- gendermaßen vor. Längs jeder Kraftlinie mußte nach ihm eine Spannung exi- Spannungen stieren, und zwar folgte diese daraus, daß der Äther oder das betreffende Di- i|*^^tl elektrikum bzw. „Diamagnetikum** vorzustellen war als schichtweise in dem Zu- stande einer Polarisation mit abwechselndem Vorzeichen, so daß längs einer Kraftlinie sich diese aufeinanderfolgenden entgegengesetzten Polarisationen einander anzogen, und infolgedessen längs einer Kraftlinie eine Spannung, das Bestreben, sich zu verkürzen, auftrat. In welcher Weise diese Vorstellungen, im einzelnen durchgeführt, in der Tat den Ersatz der Anziehungen ungleichnami- ger und der Abstoßung gleichnamiger Quantitäten ergeben, s. z. B. Lit.-Verz. Nr. II, vierter Vortrag.

Während die materielle Veranschaulichung der magnetischen Kraftlinien ver- durch Eisenfeilspäne schon lange bekannt war, ist eine Veranschaulichung der ^'^J^tliTn. elektrischen Kraftlinien erst sehr viel später ausgearbeitet worden, und zwar geschah dies zuerst von Holtz in Greifswald, dem Erfinder einer der beiden Arten von Influenzmaschinen, dann später in vollkommenerer Weise von Max Seddig in seiner Marburger Inaug.-Diss. vom Jahre 1902.

Eine gewisse Schwierigkeit in den Faraday sehen Vorstellungen bildet nun, was man sich an den Konvergenzstellen und Divergenzstellen der Kraft- linien physikalisch denken soll. Die Elektrizitätsmengen sind nicht vollst an-

288 13* FjRanz Richarz : Entwickl. d. Elektrizitätslehre b. z. Siege d. Faradayschen Anschauungen

Besiehang dig Fiktionen; sie müssen Stellen im Äther entsprechen, an denen eine ge- Eiektrisieits. wlsse Modifikation desselben vorhanden Ist, die Ihnen genau diejenigen Elgen- meng«n. gchaftcn gibt, wclchc die Tatsachen beobachten lassen, und welche eine quanti- tative Messung, wie durch eine gewisse Menge einer Substanz, erlauben. Worin die Modifikation der betreffenden Stellen im Äther besteht, bleibt vorläufig vollkommen ungewiß.

Als spätere Erkenntnis nach den Faraday-Maxwellschen Vorstellungen und unabhängig von ihnen ist die Erkenntnis, die wir bei Helmholtz' Fara- day-Rede erwähnten, hinzugetreten, daß die Elektrizität gewissermaßen In Atome geteilt Ist, kleinste Quanta besitzt, die Elektronen. Die Elektronen- theorie Ist durchaus kein Widerspruch gegen die Faraday-Maxwellschen Vorstellungen, was mißverständlich manchmal geäußert "worden ist. In meinen „Anfangsgründen der Max well sehen Theorie, verknüpft mit der Elektronen- theorie" habe Ich gezeigt, wie eine vollständige Durchdringung dieser beiden Theorien sogar zur völligen Klärung der Anschauungen führt.

f) Faradays Vorstellungen über das elektromagnetische Feld. Farad ays Vorstellungen über die Nahewirkung führten ihn zu folgendem weiteren Ausbau seiner Theorien. Bei ihm sind alle elektrischen und ebenso alle magnetischen Erscheinungen für einen bestimmten Augenblick an einer Stelle des Raumes gegeben durch den an ihr herrschenden Zustand. Dieser Zustand wiederum ist charakterisiert durch die elektrische und durch die magnetische Feldstärke. Sind diese beiden gegeben, so sind dadurch alle Äußerungen der elektrischen und alle der magnetischen Kraft einheitlich festgelegt. Dies ist Faradays Vorstellung von dem elektromagnetischen Feld. Wenn das Feld an einer Stelle gegeben ist, so ist es vollkommen gleichgültig, auf welche Weise das derartige Feld zustande kommt; es kann durch die verschiedenartigsten Verteilungen von Elektrizitäten und Magnetismen und deren Bewegung außer- halb der betreffenden Stelle in irgendeiner Welse zustande kommen. Wenn die elektromagnetische Feldstärke an der betreffenden Stelle dieselbe ist, ist für sie in keinerlei Weise ein Unterschied vorhanden, in welcher Art auch immer durch die äußeren Bedingungen es zustande gekommen ist.

Aus diesen Vorstellungen heraus fand Farad ay alsbald neue Einzel- erscheinungen im Elektromagnetismus. Einheit Aus Faradays Vorstellung über das elektromagnetische Feld folgt, wenn

*"®'^^^^^*° auch noch von Faraday nicht ausdrücklich ausgesprochen, das Prinzip der Einheit aller elektrischen Erscheinungen und ebenso der Einheit aller magne- tischen Erscheinungen. Die alten Theorien der Elektrizität mußten für jede Art der elektrischen Erscheinungen eine besondere Kraft als Ursache anneh- men, so die elektrostatischen Kräfte, die elektrodynamischen Kräfte, die elek- tromotorischen Kräfte usf. Jedesmal, wenn eine andere Art elektrischer Kräfte in die Erscheinung trat, mußte auch eine besondere Wesensverschiedenheit ihres Zustandekommens angenommen werden. Die alten Theorien mußten dement- sprechend für jeden Kreis der elektrischen und der magnetischen Spezialphäno- mene ein besonderes Elementargesetz zugrunde legen. Eine solche Unterschei-

Elektromagnetisches Feld. Einheit aller elektrischen und aller magnetischen Kräfte 289

düng ist den Vorstellungen Faradays über das Wesen der elektrischen Kräfte völlig fremd. Alle Arten der Äußerung der elektrischen Kraft an einer bestimm- ten Stelle sind nur verschiedene Äußerungen ein und derselben Zustandsände- rung entsprechend der elektrischen Feldstärke, und genau dasselbe gilt für die verschiedenen Arten der Äußerung der m^netischen Kraft, Dieses Prinzip der Einheit aller elektrischen Kräfte und ebenso der Einheit aller magnetischen Kräfte ist in seinen Konsequenzen von außerordentlicher Wichtigkeit ge- worden; vgl. hierüber z. B. Lit.-Verz. Nr. 15.

Auch die Übertragung der elektromagnetischen Kräfte zwischen Strömen Einh«t »ucr und Ms^neten und der speziell elektrodynamischen Kräfte zwischen zwei "*K^2te.*" Strömen geschieht durch die Vermittlung des hypothetischen Äthers und ist wie die magnetostatischen Kräfte abhängig von dessen Permeabilität für magnetische Kräfte. Indessen ergibt sich für die elektromagnetischen Kräfte, daß die Permeabilität in solcher Weise in Wirkung tritt, daß sie insgesamt aus der elektromagnetischen Kraftwirkung herausfällt. Einerseits würde näm- lich bei der magnetischen Ersatzfläche, die nach Ampere an Stelle des Stromes gedacht werden kann, deren Stärke proportional der Permeabilität des be- treffenden Mediums sein müssen; anderseits aber ihre Kraftwirkung auf die Magnetpole nach dem Coulomb sehen Gesetz umgekehrt proportional der Permeabilität, so daß insgesamt die Permeabilität auf die elektromagnetischen Kräfte keinen Einfluß ausübt. Die speziell elektrodynamischen Kräfte zweier Ströme aufeinander dagegen ergeben sich der Permeabilität direkt proportional. Dies folgt anschaulich daraus, daß die elektrodynamischen Kräfte zweier Ströme aufeinander proportional sind der Zahl der von den Strömen umschlungenen magnetischen Kraftlinien, und diese wiederum ist der Permeabilität propor- tional; s. hierüber Lit.-Verz. Nr. 14, § 54.

Was materiell der Träger derjenigen Veränderungen an einer Stelle des Exütenx Raumes ist, welche die Ursachen des elektromagnetischen Feldes sind, darüber ** *"' spricht sich Farad ay nicht näher aus. Es geht aber aus verschiedenen Andeu- tungen hervor, daß er in der Tat eine hypothetische Substanz, den Äther, an- genommen hat. Maxwell und Hertz, die hervorragendsten derjenigen Phy- siker, deren Leistungen an diejenigen Faradays anknüpfen, und ebenso Helm- holtz, haben sehr viel Gebrauch gemacht von der Annahme der Existenz des Äthers und von dessen Eigenschaften. In neuester Zeit ist durch das sog. Rela- tivitätsprinzip in seinen Konsequenzen die Annahme des Äthers von manchen mathematischen Physikern als nicht nur unnötig, sondern sogar als unerlaubt bezeichnet worden (vgl. über diese Streitfrage Artikel i, 26 u. 34). Indessen liegt doch die Sache wohl folgendermaßen. Einsteins Relativitätsprinzip sagt mit Recht, daß absolute Raumveränderung nicht nur in der Mechanik, son- dern auch in der Elektrodynamik unerkennbar sein muß. Es ist aber nicht notwendig, bei Annahme des Äthers zugleich die Möglichkeit des Erkennens einer absoluten Bewegung anzunehmen; vielmehr handelt es sich bei genauer Betrachtung der betreffenden Fälle nur um relative Bewegungen zum Äther, worüber sich die Leugner des Äthers nicht klar geworden zu sein scheinen. Ob

K. d.G.m. in, Bdx Physik 19

290 xj.FranzRicharz: £ntwickl.d.£iektrizitätslehreb.z. Siege d.Faradayschen Anschauungen

nun der Äther selbst in Bewegung ist, und in welcher, oder ob nicht, das bleibt vollständig unentschieden. Insofern setzen die Bewegungen relativ zum Äther keineswegs irgendeine Kenntnis der absoluten Bewegung voraus. Wenn daher vielleicht auch rein theoretisch, abstrakt mathematisch die Annahme des Äthers vollständig wegbleiben kann, so ist doch anderseits aus erkenntnistheoretischen Gründen zur Erklärung der Übertragung der Kräfte die Annahme einer hypo- thetischen Substanz, des Äthers, nach wie vor unumgänglich nötig; vgl. hierzu die Rektoratsrede von Walter König in Gießen 191 1. In diesem Sinne ist die Relativitätstheorie in derjenigen Form und Erklärung, welche ihr von H. A. Loren tz, Leiden, gegeben worden ist, dem Physiker nicht nur durch- aus im Sinne von Faradays ,, natural philosophy** annehmbar, sondern be- friedigend und überzeugend. Der Äther Eine Schwierigkeit, die für die Vorstellbarkeit des elektromagnetischen

'''i^derung" Feldcs im Äther noch bestehen bleibt, ist diejenige, daß der Äther gleichzeitig

**^K- zweier Zustandsänderungen fähig sein muß : der einen, welche die Ursache der elektrischen Erscheinungen ist; der anderen, welche die Ursache der magneti- schen Erscheinungen bildet. Um dies sich vorzustellen, kann man die Analogie des Äthers mit einem elastischen Medium zu Hilfe nehmen; auch in einem elasti- schen Medium sind gleichzeitig an jeder Stelle zwei Zustandsänderungen mög- lich; die eine ist die elastische Deformation, die andere ist die Geschwindigkeit, welche an der betreffenden Stelle für die Bewegungen, für die Schwingungen unter dem Einfluß der elastischen Kräfte herrscht. Nur um die Möglichkeit an- schaulicher Vorstellung darzulegen, pflegt man vielfach bereits seit langem folgenden Vergleich anzugeben. Die Zustandsänderungen längs der elektrischen Kraftlinien können vorgestellt werden etwa wie Spannungen in einem gedehnten Kautschukfaden. Von den magnetischen Kraftlinien könnte man sich vorstellen, daß um sie herum als Achse der Äther in wirbelnder Bewegung begriffen ist, so daß die magnetischen Kraftlinien selbst einen sog. Wirbelfaden vorstellen. Auch hierbei wird dann das Bestreben eines solchen Wirbelfadens, sich zu verkürzen, oder die beiden Enden, in welchen die hypothetischen Pole anzunehmen sind, einander zu nähern, sich geltend machen. Dazu muß aber stets hervorgehoben werden, daß man nur nicht glauben möge, dies solle man für die wirklich zu- treffende Anschauung halten; sie will nur ein Beispiel dafür geben, wie man sich die elektrischen und magnetischen Zustände im Äther vielleicht denken könnte, nicht aber, wie man sie sich denken muß.

g) Faradays Entdeckung der Induktionsströme. Zum Schlüsse kommen wir zu Faradays größter experimenteller Entdeckung, der Auffindung der Induktionsströme, die in der Medizin auch heutzutage noch vielfach den Namen faradischer Ströme im Gegensatz zu den konstanten, den galvanischen

Schneiden Strömen tragen. Nach Faradays Auffassung ist die Erscheinung des Auf-

°5J^^^' tretens von Induktionsströmen folgendermaßen zu deuten. Wenn ein Leiter

sich in einem magnetischen Felde so bewegt, daß er magnetische Kraftlinien

schneidet, so entsteht an seinen Enden eine induzierte Spannungsdifferenz. Ganz

besonders die Elektrotechnik braucht auch heutzutage noch die Ableitung der

Existenz des Äthers. Faradays Entdeckung der Induktionsströme 291

induzierten Ströme aus den geschnittenen magnetischen Kraftlinien. Es ist aber darauf aufmerksam zu machen, daß hierbei mit großer Vorsicht zu ver- fahren ist; man kann nämlich eine in sich zurücklaufende Leitung senkrecht zu den Kraftlinien so bewegen, daß in der Tat magnetische Kraftlinien fortwäh- rend geschnitten werden, und auch Spannungsdifferenzen induziert werden, ohne daß aber insgesamt in der geschlossenen Leitung ein Strom entsteht. Dies tritt dann ein, wenn an der einen Seite die Kraftlinien beim Schneiden in das Innere der Leitung eintreten, an der anderen Seite aber aus dem Inneren heraustreten. Dieser Irrtum wird vermieden, wenn man nicht von dem Schneiden von Kraft- linien spricht, sondern wenn man sagt, ein induzierter Strom entsteht in einer geschlossenen Leitung dann, wenn die Zahl der von ihr umschlossenen magne- tischen Kraftlinien bei der Bewegung sich ändert.

Von dem Schneiden magnetischer Kraftlinien bei der Bewegung eines Lei- Eiementar^u ters zu sprechen, ist allerdings unvermeidlich, wenn es sich nur um die Be- *' ° °°* wegung eines Leiters tu ckes handelt. Auf diesen Fall bezieht sich das Elemen- targesetz der Induktion in einem Leiterstücke bei dessen Bewegung im magne- tischen Kraftfeld, wie es Farad ay ausgesprochen hat. Am nächsten verwirklicht würde dieser Fall des Faraday sehen Elementargesetzes der Induktion er- scheinen inPlückers unipolarer Induktion und in ähnlichen Fällen. Im Gegen- satze zu Faradays übrigen Entdeckungen war diejenige der Induktionsströme zunächst eine Zufallsentdeckung. Für die Erklärung hing ihm das Zustande- kommen der Induktionsströme durch Schneiden der magnetischen Kraftlinien innerlich zusammen mit seinen Anschauungen von einem elektrotonischen Zustande, der sich um einen Strom herum bilde, dessen Entstehen und Ver- schwinden dann Anlaß zu den induzierten Strömen geben sollte. Daß durch Bewegen eines Leiters in einem Magnetfelde Induktionsströme entstehen müs- sen, läßt sich als Notwendigkeit nachweisen durch die Vorstellungen der Elek- tronentheorie; indessen kann hierauf nicht näher eingegangen werden, es möge auf die Ableitung verwiesen werden, welche Verfasser gegeben hat; s. Lit.-Verz. Nr. 14, § 63.

Faraday fand zwar, wie eben erwähnt, den ersten Fall von Induktions- Allgemeinheit strömen durch einen Zufall. Aber in Anknüpfung an diesen fand er in systema- ^*' Induktion, tischer Forschung auch alle anderen wichtigen Fälle der Induktion, von der Induktion eines Stromes auf eine andere Leitung ausgehend die Induktion eines Stromes auf sich selbst, den Extrastrom, und endlich auch die Magneto- induktion. Auch bereits nach den Anschauungen von Faraday selbst sind richtig betrachtet alle Einzelfälle solche von Magnetoinduktion.

Die ungeheure Tragweite der Entdeckung der Induktionsströme läßt sich in kurzem nicht wiedergeben; es möge nur hingewiesen werden auf das Induk- torium und seine wichtigen medizinischen und technischen Anwendungen, auf das Telephon als Fernsprecher, und vor allem auf die Dynamomaschinen, deren Erfindung durch Werner Siemens die Grundlage zu der kulturgeschichtlichen Bedeutung der Elektrotechnik überhaupt legte.

19*

292 13- Franz Richarz : Entwickl. d. Elektrizitätslehre b. z. Siege d Faradayschen Anschauungen

8. Grundlegende Weiterentwicklung von Faradays und Maxwells Anschauungen bis zu ihrem Siege.

Induktion Wenn wir uns die Grundlagen der weiteren Entwicklung von Faradays

Ter ^^^.^ Anschauungen vergegenwärtigen wollen, so wollen wir an dessen zuletzt er- wähnte Entdeckung anknüpfen, nämlich an die der Induktionsströme. Von diesen wurde schon zu Faradays Zeiten nachgewiesen, in welcher Beziehung sie stehen zu dem Satze von der Erhaltung der Energie. Das Prinzip der Ener- gie wird gewahrt gemäß der für die Induktionsströme geltenden Lenzschen Regel, daß die zwischen den erzeugten Induktionsströmen und den erzeugen- den Strömen oder Magneten wirksamen elektromagnetischen bzw. speziell elek- trodynamischen Kräfte stets der erzeugenden Bewegung (oder Veränderung) entgegenwirken. Weiterhin faßten mathematisch die Erhaltung der Energie bei den Induktionsströmen Franz Neumann und Helmholt z. Das Potential- gesetz von Franz Neu mann für die induzierten Ströme berücksichtigt nicht die dielektrischen Verschiebungsströme, die ebenfalls, indem sie auftreten bzw. verschwinden, eine induzierende Wirkung ausüben müssen. Infolgedessen ge- raten die Schlußfolgerungen aus Franz Neumanns Potentialgesetz bei of- fenen Strömen mit den Faradayschen Vorstellungen in Widerspruch. MiAiingen von' Man versuchtc auch noch nach Farad ay, die sämtlichen elektrostatischen gWg«JSS!und elektrodynamischen Erscheinungen aus gewissen Fernwirkungsgrundge- setzen abzuleiten. Indessen diese Versuche mißlangen, so derjenige von Wil heim Weber, der von Riemann und der von Clausius. (Lit.-Verz. Nr. 8.) Der erstere stand in Widerspruch mit dem Satze von der Energie, die beiden ande- ren mit dem Prinzip der Gleichheit von Aktion und Reaktion. Clausius in- dessen wies schon darauf hin, daß dieser Widerspruch beseitigt wäre, sobald man ein raumerfüllendes Medium annähme, durch welches die Wirkungen übertragen würden. Damit kehrte Clausius von den Grundgesetzen der Fernwirkung wieder zu Faradays Vorstellungen zurück. Als erste experimentelle Versuche, durch welche die induzierende Wirkung auch der dielektrischen Verschiebungsströme nachgewiesen werden sollte, sind solche von Helmholtz zu erwähnen; s. Lit.- Verz. Nr. 7, Bd. i, S. 774, Induktion im offenen Kreise, 1875. Maxweiiflche Wir habcu bei der Würdigung von Faradays Verdiensten bereits wieder-

^^^lÜSlyf ^^^^ hervorgehoben, daß es dem genialen englischen Mathematiker Maxwell vonteUnngen. gelang, die Faradayschcu Vorstellungen in präzise mathematische Formulie- rung zu bringen. Es würde aber nicht richtig sein, nur diese mathematische Formulierung und ihren Aufbau als die allein von Maxwell gegebene, heute allgemein angenommene Theorie zu bezeichnen; vielmehr muß man die Fara- dayschen Grundvorstellungen als den wesentlichen Teil dieser Theorie be- zeichnen, wenn auch Faraday selbst eine mathematische Formulierung dieser Vorstellungen zu geben nicht imstande war.

Maxwell selbst nahm als Ausgangspunkt für die Ableitungen seinerGrund- gleichungen der Elektrodynamik im allgemeinen Sinne gewisse Überlegungen über die Konstitution des Äthers, welche zu solchen Schlußfolgerungen führten, wie sie mit den elektrischen und magnetischen Tatsachen übereinstimmen. Es

Scheitern der Femwirkungsgrundgesetze. Maxwellsche Theorie 293

sind die Vorstellungen des „rotationell elastischen'* oder „quasi rigiden** Äthers, wie sie später von Sir William Thomson genannt worden sind. Max- well ging sogar noch weiter, indem er Bilder der Ätherkonstitution bis ins ein- zelne mit Zahnrädern, Friktionsrollen usf. erdachte, um die Möglichkeit eines derartig konstruierten Mediums darzulegen. Es würde überaus verfehlt sein, die Vorstellung auszubilden, als ob die Maxwellsche Theorie mit diesen Bil- dern, welche man ihr zugrunde legen kann, wenn man will, stehe und falle.

Die Richtigkeit dieser Behauptung wird vor allem auch dadurch bewiesen, Heimhoitz' daß Heimhoitz auf ganz anderem Wege zu einer mathematischen Formulie- ^**™°"**"*"«f- rung der Theorie kam, die im wesentlichen mit der Maxwe 11 sehen inhaltlich übereinstimmte. Heimhoitz ging von den alten elektrodynamischen Glei- chungen aus und fügte hinzu die elektrodynamischen Wirkungen der dielek- trischen Verschiebungsströme, und die Erzeugung von dielektrischen Verschie- bungen nicht nur durch die elektrostatischen, sondern auch durch die elektro- dynamischen Kräfte. Die Gleichungen, zu welchen Heimhoitz in dieser Weise gelangte, zeigen einen recht komplizierten Bau; Boltzmann nennt sie von der Art ihrer Herleitung die Helmholtzschen Fernwirkungsgieichungen, ob- wohl sie im Resultat die Fernwirkung durch Nahewirkung ersetzen. Es ist fer- ner in den Helmholtzschen Gleichungen noch eine willkürliche Konstante ent- halten, welche die elektrodynamischen Wirkungen der dielektrischen Verschie- bungsströme quantitativ in Beziehung setzt zu den elektrodynamischen Wir- kungen der Leitungsströme. Bei einem gewissen Wert dieser Konstante wer- den die Helmholtzschen Gleichungen im Resultat identisch mit den Max- we 11 sehen und stellen die letzteren nur in einer anderen Form dar.

Kne der Helmholtzschen im wesentlichen gleiche Weiterbildung der al- KirchhoflFs ten elektrodynamischen Theorien im Sinne der Faraday sehen Anschauungen ***™^^' hat Gustav Kirchhoff gegeben. Seine Entwicklungen zeichnen sich auch in diesem Punkte durch die mathematische Eleganz und Klarheit aus, die sie stets darbieten; sie sind zu finden unter anderem in seinen Vorlesungen, s. Lit. - Verz. Nr. 12, 17. Vorlesung, §7, S. 222. Es wird dort gezeigt, wie durch die Berücksichtigung der dielektrischen Polarisation aus den Gleichungen der alten Theorie neue erweiterte Gleichungen hervorgehen, die in ihren Schluß- folgerungen sich sogleich als mit den Faraday-Maxwellschen Grundanschau- ungen übereinstimmend erweisen. Daß auch der Ausdruck der Helmholtz- schen oder Kirchhoff sehen Gleichungen durch Umformung mit derjenigen der Maxwe 11 sehen Gleichungen übereinstimmend gestaltet werden kann, hat insbesondere Boltzmann (s. Lit. -Verz. Nr. 13) gezeigt.

Sehr bemerkenswert ist noch eine theoretische Arbeit von Hertz aus den H©rt«' Abieitimg ersten Jahren seiner wissenschaftlichen Tätigkeit: „Über die Beziehungen zwi- Maxweu«ch©n sehen den Maxwe 11 sehen elektrodynamischen Grundgleichungen und den ^i«*<=*»"««°- Grundgleichungen der gegnerischen Elektrodynamik.** Hertz betrachtet die elektrodynamischen Kräfte eines Solenoids, welches nicht wie die gewöhnlich betrachteten eine geradlinige Achse hat, sondern eine ringförmige, in sich zurück- laufende. Er zeigt, daß die elektrodynamischen Kräfte von einem solchen ge-

294 '3* Franz Richarz : Entwicki. d. Elektrizitätsiehre b. z. Siege d. Faradayschen Anschauungen

schlossenen, in sich zurücklaufenden Solenoid nicht erschöpfend dargestellt werden durch die früheren Formeln der Elektrodynamik. Er berechnet, welche Zusatzglieder hinzutreten müssen. Es ergibt sich eine unendliche Reihe von Zusatzgliedern, deren Summation neue Gleichungen ergibt, die in Wesen und Form mit den Maxwellschen Gleichungen übereinstimmen (s. Lit.-Vcrz. Nr. ig). Später stellte sich Hertz auf den Standpunkt, einfach die Maxwell- schen Gleichungen ohne jede Ableitung als Hypothese zu betrachten.

Alle bisher erwähnten Experimente und theoretischen Überlegungen, welche zu den Faraday-Maxwellschen Anschauungen immer wieder hinführ- ten, konnten doch noch nicht genügen, denselben zum Siege zu verhelfen. Bedehangen Nicht einmal die Beziehungen der elektromagnetischen Erscheinungen zu

gesch^ndigkeit ^cm Lichte, wclchc wir nunmehr näher ins Auge fassen wollen, konnten diesen Umschwung herbeiführen. Als Rudolf Kohlrausch, Friedrich Kohl- rauschs Vater, zusammen mit seinem Lehrer und Freund Wilhelm Weber in Marburg im Physikalischen Institut die Aufgabe löste, diejenige Elektri- zitätsmenge zu bestimmen, welche elektrostatisch gemessen, durch ein Galva- nometer hindurchgeleitet, eine gewisse elektromagnetische Wirkung hervor- rief, fanden sie für diese Zahlenbeziehung ein überaus merkwürdiges Resultat; sie fanden nämlich eine einfache Beziehung zu der Lichtgeschwindigkeit. Auch in den Fernwirkungstheorien 2. B. Wilhelm Webers kam eine gewisse Ge- schwindigkeit in den Beziehungen zwischen den elektrostatischen und den elek- tromagnetischen oder elektrodynamischen Kräften vor, die kritische Geschwin- digkeit. Daß diese Geschwindigkeit aber eine einfache Beziehung zu der Licht- geschwindigkeit hatte, das war ein überraschendes und zunächst unerklärbares Resultat. Erst Maxwells elektromagnetische Theorie des Lichtes brachte die Aufklärung. Unhaitbarkeit Daß die Vorstellung der Lichtwellen als elastischer Wellen im hypotheti-

^Li<Atthcorie ° sehen Äther unhaltbar geworden war, erkannte man gegen die Mitte des vorigen Jahrhunderts mehr und mehr; sollte doch einerseits der Äther ein so feines Medium sein, daß er der Bewegung der Planeten nur einen unmerklichen Wider- stand entgegensetzte; anderseits aber bewies die Existenz der Lichtwellen als Transversalwellen in ihm seine Natur als eines festen Körpers. Das war ein unlösbarer Widerspruch. An Stelle dessen setzte Maxwell die Annahme, daß es sich bei Lichtwellen um Transversalwellen der dielektrischen und der magnetischen Polarisation im Äther handle. Maxwells exakte Fassung der Faradayschen Grundvorstellungen in seiner Theorie zeigte mathematisch, daß sich die Fortpflanzungsgeschwindigkeit von Wellen transversaler dielektrischer und magnetischer Polarisationen im Äther gleich dem Verhältnis der elektro- magnetischen zu der elektrostatischen Mengeneinheit der Elektrizität ist, wie sie zuerst experimentell von Rudolf Kohlrausch und Wilhelm Weber be- stimmt worden war. Damit war jene merkwürdige Beziehung erklärt, und dies ist die einzige Erklärung, die es gibt. Zugleich war durch die Maxwellsche elektromagnetische Theorie des Lichtes die Annahme verschiedener hypotheti- scher Medien für die Ausbreitung der elektrischen und der magnetischen Kräfte

Beziehungen zur Lichtgeschwindigkeit Elektromagnetische Wellen 295

und der Lichtwellen überflüssig geworden, vielmehr war für alles nur ein und das- Mmxweii» selbe hypothetische Medium heranzuziehen. Im einzelnen werde noch erwähnt, „^^^^^^j^ daß Maxwell aus seiner Theorie eine Beziehung zwischen Brechungsverhält- i-icbtt^»«»"«- nis des Lichtes für lange Wellen und der Dielektrizitätskonstante ableitete, welche sich in der Tat bestätigt hat. Endlich ist aber noch von der größten Wich- tigkeit, daß ein alter Streit durch die Maxwel Ische elektromagnetische Licht- theorie seine Lösung fand; das ist der Streit um die Lage der Schwingungsrich- tung des Lichtes. Eine gewisse Ebene, die Polarisationsebene, wird bei den Lichtwellen rein geometrisch definiert; es frug sich aber physikalisch in der al- ten Theorie: liegen die Schwingungen der Ätherteilchen senkrecht zu der Pola- risationsebene oder in der Polarisationsebene? Beide Annahmen wurden ge- macht und konsequent durchgeführt, die erstere von Fresnel, die letztere von FranzNeumann. Obwohl vieles in der Fresnel sehen Theorie sich einfacher ge- staltet als in der Neu mann sehen, war doch eine definitive Entscheidung un- möglich. Maxwells elektromagnetische Lichttheorie zeigte, daß die Richtung der Schwingungen der dielektrischen Polarisation mit Fresnels Annahme über- einstinimte, diejenige der stets gleichzeitig vorhandenen magnetischen Polari- sation mit Neumanns Annahme. Da aber die dielektrischen Schwingungen weitaus mehr in die Erscheinung treten als die magnetischen, ist hieraus das Übergewicht der Fr es n eischen Annahme erklärbar; im übrigen aber ist dieser alte Streit von einer Alternative herabgesunken zu der Lösung durch ein gleich- zeitiges Existieren zweier Arten von Schwingungen, jede in einer der beiden Richtungen. Näheres über diese Frage s. Lit.-Verz. Nr. 11, 3.Vortr2^, 6. „Die Schwingungsrichtung polarisierten Lichtes.**

Diese Erfolge der elektromagnetischen Theorie des Lichtes von Maxwell Hertöche gewannen nun den Farad ay sehen Vorstellungen und ihrer Weiterbildung *"°^ **' durch Maxwell in der Tat eine außerordentlich große Anzahl von Anhängern; aber keineswegs waren alle Gegner derselben verstummt, im Gegenteil fanden sich solche noch unter den ersten Physikern aller Länder. Den definitiven Sieg führten erst die Versuche von Heinrich Hertz herbei, welche im folgenden Artikel 14 geschildert werden. Sie mußten durch ihre unwiderlegliche Beweis- kraft den Faraday-Maxwellschen Anschauungen endgültig allgemeine An- erkennung verschaffen und haben ihnen in der Tat zum dauernden Siege verholten.

Literatur.

1. Galvani, 1786: S. Du Bois-Reymonds Reden, 2. Folge. Vorwort und S. 504. Leipzig 1887.

2. SCHWBIGGER, x8o8: Ober die Benutzung der magnetischen Kraft bei der Messung der elek- trischen. Gehlers Joumal für Chemie und Physik. Bd. VII.

3. Farad AY und seine Entdeckungen, von Tyndall, Braunschweig 1870.

4. Rede zu Faradays Gedächtnis. Helmholtz, Vorträge und Reden. IV. Aufl. I. Bd. Braun- schweig 1896. S. 251.

5. Die elektrochemische Theorie. Nach Helmholtz' Rede zu Faradays Gedächtnis, von F. RiCHARZ. Antrittsvorlesung, Bonn 1888. Wieder abgedruckt: Naturwissenschaftliche Rundschau, Jahrgang 6, Nr. 49 und 50. Auch Beibl. Ann. Phys.

296 13* Franz Richar2 : EntwickL d.Elektrizitätslehre b . z. Siege d. Faraday sehen Anschauungen

6. Friedrich Kohlrausch, 1910: Lehrbuch der praktischen Physik, XT: Aufl. B.G.Teubner, Leipzig.

7. Hblmholtz, 1882: Wissenschaftliche Abhandlungen. Leipzig.

8. ClaüSIUS, 1879: Die mechanische Behandlung der Elektrizität. Braunschweig.

9. H. Hbrtz, 1892 : Ausbreitung der elektrischen Kraft. Siehe insbesondere die einleitende Obersicht. Leipzig.

10. H.Hertz, 1884: Beziehungen zwischen den Maxweibchen elektrodynamischen Grund- gleichungen und den Grundgleichungen der gegnerischen Elektrodynamik. Wiedemanns Annalen, Bd. 23. S. 84.

u. F. RiCHARZ, 1902: Neuere Fortschritte auf dem Gebiete der Elektrizität, IL Aufl. HL Aufl. in Vorbereitung. Leipzig.

12. G. Kirchhoff, 1891: Vorlesungen über Elektrizität und Magnetismus, herausgegeben von Max Planck. Leipzig.

13. BOLTZMANN, 1891: Vorlesungen über Maxwells Theorie der Elektrizität und des Lichtes; insbesondere der I. Band. Leipzig.

14. F. RiCHARZ, 1909: Anfangsgründe der Maxwellschen Theorie, verknüpft mit der Elektronen- theorie. B. G. Teubner, Leipzig.

15. F. RiCHARZ, 191 3: Maxwells Prinzip der Einheit aller elektrischen Erscheinungen und da- mit zusammenhängende, von mir veranlaßte neuere Versuche. Berlin. Zeitschrift: „Die Naturwissenschaft". I.Jahrgang, Heft i, S. 4.

Vgl. die Artikel Elektrochemie (M. Ls Blanc), Physikalische Chemie (R. Litthsr und W. NSRNST) usw. des von £. von Meyer herausgegebenen Bandes „Chemie" der „Kultur der <^genwart".

14. DIE ENTDECKUNGEN VON MAXWELL UND HERTZ.

Von Ernst Lecher.

James Clerk Maxwell (1831 1879).

Problemstellung. Schon M. Faraday beschäftigte sich am Ende seines wissenschaftlich überreich gesegneten Wirkens mit jenen Problemen, deren glückliche Lösung dieser Abschnitt schildern soll. 1857 schrieb er in seinem Laboratoriumsbuche unter dem Schlagworte „2^it**: „Es würde ganz hoff- nungslos scheinen, die Zeit einer magnetischen Wirkung zu finden, wenn sie die Zeit des Lichtes oder der Elektrizität in einem Kupferdrahte erreichte.** Solche Überlegungen zeigen, wie den greisen Forscher die Frage beschäftigt, ob die Fortpflanzungsgeschwindigkeit einer magnetischen Wirkung denn das meint Fortpflansangs Faraday mit dem skizzenhaften Ausdrucke „time in magnetic action** *^etektoSidfer' gleich der des Lichtes sei. Erst den rechnerischen Überlegungen von Maxwell, Wirkungen seit 1865, gelang es, diese Problemstellung theoretisch zu packen. Maxwell bannte mit dem Spürsinn des Genies die Hauptideen Faradays in mathema- tische Zauberformeln, deren Auswertung ihn seine elektromagnetische Licht- theorie gewinnen ließ. Die Darstellung dieser Idee soll der nächste Artikel aus- führlicher bringen, hier sei nur der Kern dieser Anschauung in elementarer Dar- stellung, sowie ihre experimentelle Bestätigung durch H. Hertz vorwegge- nommen.

Ein dauernd elektrisierter Körper wirkt dauernd und unverändert auf seine Umgebung; wenn sich so zeitlich nichts ändert wir sprechen dann von einem stationären Zustande ist irgendeine Konstatierung einer Fortpflan- zungsgeschwindigkeit einer elektrischen Wirkung unmöglich. Wir müssen die Sache darum etwa so anpacken, daß wir den zunächst unelektrischen Körper plötzlich elektrisch machen und nachsehen, wieviel Zeit vergeht, bis irgendwo an einem fernen Raumpunkte eine Wirkung eintritt. Genau das analoge müßte zur Erforschung der Fortpflanzungsgeschwindigkeit von magnetischen Wir- kungen geschehen.

Noch leichter werden solche Versuche werden, wenn wir den die Kraft aussendenden Körper abwechselnd elektrisieren (oder abwechselnd magneti- sieren), denn dann müssen sich die Wirkungen dieser abwechselnden Elektri- sierungen (oder Magnetisierungen) periodisch in den umgebenden Raum hinaus verbreiten und aus der Verspätung dieser Perioden in irgendeinem fernen Raumpunkte ließen sich die Fortpflanzungsgeschwindigkeiten errechnen.

Nach diesen Überlegungen werden wir also als Ausgangssystem irgendein

F'

298 14* Ernst Lecher: Die Entdeckungen von Maxwell und Hertz

System wählen, in dem die Elektrisierung oder Magnetisierung abwech- selnd stärker und schwächer wird.

Solche periodische Elektrisierungen und Magnetisierungen liefern die elek- trischen Schwingungen. Unsere erste Aufgabe muß es also sein, diese des näheren zu betrachten. Tiiomtoii. Elektrische Schwingungen. Schon 1847 wies Helmholtz auf die Möglichkeit solcher Schwingungen hin. 1855 zeigten W.Thomson und 1857 G. Kirchhoff, beide nur theoretisch, wie bei passenden Anordnungen eine

0 elektrische Oszillation eintreten müsse. Derartige rechnerische /"^X Überlegungen ergaben, daß unter gewissen Bedingungen in einem \^^ Leitungsdrahte die Elektrizität ganz ähnlich hin- und herpendeln muß, wie etwa die Luft in einer tönenden Pfeife. Eine elektrische Welle läuft bis zum Ende des Drahtes, wird da reflektiert und läuft, eventuell eine oder mehrere stehende Schwingungen bil- dend (vgl. Artikel 2), längs des Drahtes hin und her.

Um das WesentHche der Kirch hoff sehen Rechnungen in allgemeinverständlicher Weise zu exemplifizieren, sei in Fig. i a die Kugel A elektrisch positiv und die Kugel B elektrisch negativ

©geladen. Verbinden wir diese beiden geladenen Kugeln plötzlich •'*N durch einen dicken Draht der ev. in der Mitte F durch eine \) Fig.ia. kleine Funkenstrecke unterbrochen sein kann so strömt die Fig.xb. Elektrizität zunächst von A durch F nach B, Wenn aber dieser Strom zu fließen beginnt, erzeugt er in der eigenen Strombahn einen entgegengesetzt ge- richteten Extrastrom Schließungsextrastrom; er fließt darum zuerst schwach und erreicht erst nach einiger Zeit seine volle Stärke, die aber, weil A immer mehr und mehr entladen wird, wieder absinkt. Dieses Absinken der Strom- stärke in AF B gleicht aber einem allmählichen öffnen des Stromes, erzeugt daher einen Extrastrom öff nungsextrastrom in derselben Richtung AFB. Dieser Strom wird nun B positiv aufladen, wobei A natürlich negativ wird. Bei Verbindung der positiv geladenen Kugel A mit der negativ geladenen Kugel B durch einen dicken Draht entsteht also nicht nur ein einfacher Strom, der die Spannungsdifferenz ausgleicht, dieser Strom schießt gleichsam über sein Ziel hinaus, ladet die Kugel B positiv auf und dann setzt dasselbe Spiel in entgegen- gesetzter Richtung ein usw. Es pendelt also die Elektrizität zwischen A und B hin und her, es entsteht eine elektrische Schwingung. Schwingung». Diesc eben gegebenen theoretischen Vorstellungen der alten Elektrodyna- mik lieferten aber auch gleichzeitig folgendes quantitative Resultat: Die Schwin- gungsdauer in einem solchen „Oszillator" AB ist um so größer, je größer A und 5, oder genauer, je größer die „Kapazität", d. h. die Fassungskraft für Elektrizität, von A und B ist, weil es dann länger dauert, bis die ganze Ladung von A abgeflossen ist. Ferner wird die Schwingungsdauer um so größer, je stärker der im Leiter AFB erzeugte Extrastrom ist, und dies hängt wieder ab von der Länge, Wicklungsanordnung und anderen Umständen, deren Gesamt- wirkung in dem theoretischen Begriff der „Selbstinduktion** der Drahtstrecke

daner.

Elektrische Schwingungen 299

AFB vereint erscheint. Die Dauer T einer ganzen Schwingung ist nach dieser Theorie gleich 2 tt }/ Kapazität mal Selbstinduktion. Sie läßt sich in allen einfachen Fällen aus den Dimensionen des Schwingungssystems A FB berechnen.

Wie ein Pendel ohne Reibung ewig fortpendelte, so würde auch eine elektro- Schwingnngs- magnetische Schwingung ununterbrochen weiterschwingen, wenn nicht ein Teil *"** ^' der Strömung den durchströmenden Draht mittels Joulescher Wärme erwärmte und wenn nicht auch die Wirkungen auf die Umgebung, deren Besprechung den wichtigsten Inhalt des Folgenden bilden soll, dauernde Energieabgaben dar- stellten. Nach etwa 5 bis 100 Schwingungen tritt vollständiger Ausgleich der elektrischen Spannungsdifferenzen und damit Ruhe ein.

Da jeder Strom auch magnetische Wirkung ausübt, so muß der zwischen A und B hin und her pendelnde Strom auch periodisch wechselnde magnetische Wirkungen ausüben. Man nennt darum solche Schwingungen auch elektro- magnetische.

1859 gelang es W. Feddersen, diese zunächst nur errechneten Oszilla- Feddenen. tionen experimentell zu verifizieren. An Stelle von A und B in Fig. i traten die zwei Belegungen einer Leidnerflasche. Diese beiden Belegungen wurden zuerst geladen und dann durch einen kleinen Funken entladen, dessen Spiegelbild in einem rasch rotierenden Spiegel photographiert werden konnte. (Im ruhenden Spiegel würden die einzelnen Funkenbilder sich ja übereinander lagern.) Hatte die Entladungsbahn eine^ großen Widerstand, so ergaben sich da eine Reihe von gleichgerichteten Entladungsfunken, hatte die Entladungsbahn aber einen kleinen Widerstand, so bestand der Funke aus einer Reihe von Partialfunken, deren Richtung sich abwechselnd änderte. 1867 bespricht Kirchhoff diese Versuche: „Der Entladungsstrom einer Leidnerflasche besteht also unter ge- wissen Umständen aus aufeinander folgenden Strömen von abwechselnder Rich- tung/* Auch quantitativ stimmte diese nachträgliche Kirchhoffsche Aus- wertung der Feddersenschen Resultate nach Ausschaltung einiger Miß- verständnisse -— mit den theoretischen Ergebnissen gut überein.

Wirkung einer Schwingung auf eine benachbarte. Fragen wir nun weiter: Wie wirkt eine solche elektromagnetische Schwingung auf einen benachbarten Leiter?

Geht zwischen ^5, dem Primärleiter, ein elektrischer Strom hin und her, so muß in einem benachbarten und parallel gestellten Leiter A'B' in Fig. ib ein entgegengesetzter Strom als Sekundärstrom induziert werden. Diese Tatsache war ja durch Faradays Entdeckung der Induktion und durch die Arbeiten seiner Nachfolger vollständig gesichert. Die periodische Schwingung im Primär- leiter muß natürlich eine periodische Schwingung im Sekundärleiter veran- lassen, ganz so wie die Stromänderung (Stromschluß oder Stromöffnung) in dem Primärkreis eines Induktoriums (Ruhmkorff) einen Stromstoß im Sekundär- kreis induziert. Das folgte schon aus den Anschauungen der alten Elektro- dynamik. Diese alte Elektrodynamik war aber der Frage noch nicht näherge- treten, ob diese Wirkung in A' B' später einsetzt als die Ursache in AB. Ihr war die erfolgte Induktion in AB' eine Fernwirkung von AB; um die Bedeu-

300 14- £RNST Lecher: Die Entdeckungen von Maxwell und Hertz

tung des zwischen AB und A' ff liegenden nichtleitenden Zwischenmediums kümmerte sie sich nicht viel. Indem Maxwell ganz im Geiste Faradays auf die wichtige Rolle hinwies, welche diesem Zwischenmedium zukommt, gelangte er zu ganz neuen, für seine Zeit revolutionären Vorstellungen.

Für die alte Elektrodynamik war der Strom in AB ein „ungeschlossener'' Strom, weil die Elektrizität nicht wie z. B. bei einem gewöhnlichen Batterie- strome aus der Batterie heraus und dann wieder in diese hinein, abo gleichsam vertchiebung». in sich sclbst zurückfUcßt. Nach Maxwell gibt es aber keine ungeschlossenen Ströme ; er nimmt nämlich auch elektrische Ströme in Nichtleitern an, in den sog. Dielektrizis : kurzdauernde „Verschiebungsströme'*, z. B. zwischen den Platten eines Kondensators, wenn dessen Ladung sich ändert. So ein Verschiebungs- strom ist kein eigentlicher Strom im gewöhnlichen Sinne, sondern nur ein kleines Verrücken der Elektrizität von ihrer ursprünglichen Stelle im Isolator, zu welcher hin sie nach Aufhören der elektrischen Spannung immer wieder zu- rückkehren muß, etwa so, wie in einem größeren elastischen Kautschukblock irgendeine kleinere Partie zwar etwas, aber nicht viel gegen die elastischen Kräfte verschoben werden kann. Maxwell hat es bald aufgegeben, eine end- gültige mechanische Vorstellung dieser dielektrischen Ströme zu bilden. Er be- schränkte sich darauf, die Möglichkeit solcher Bilder zu zeigen.

Fließt Elektrizität im Leiter AFB Fig. la von oben nach unten, so ent- steht nach Maxwell der ergänzende Verschiebungsstrom rund im umgebenden Medium, z. B. in der Luft, von unten nach oben. Schwingt die Elektrizität zwischen A und B auf und ab, so schwingt rund herum der Verschiebungsstrom im sonst ungeladenen Dielektrikum ab und auf.

Maxwells Lichttheorie. Wenn eine Stimmgabel durch ihre Schwin- gungen die Luft in Mitschwingungen bringt, so bilden sich nach allen Seiten fortlaufende Schallwellen in der Luft au3, welche ev. an entfernten Stellen eine andere gleichgestimmte Stimmgabel zum Mittönen bringen können. Gan? analog übernimmt die elektrische Schwingung in AFB die Rolle der Stimm- gabel und das Dielektrikum vielleicht der Äther im Dielektrikum mit sei- nen periodischen Verschiebungsströmen die Rolle der Luft. Auch hier bildet sich ein Wellenzug, natürlich ein elektrischer, heraus. Diese elektrischen Ver- schiebungsströme, parallel zur erregenden Schwingung stehen somit senk- recht zur Fortpflanzungsrichtung, es sind Transversalwellen. (Senkrecht da- zu, aber gleichfalls transversal, pendelt dann eine magnetische Schwingung hin und her, da nach den Max wel Ischen Gleichungen jede Änderung einer elektri- schen Kraft von magnetischen Änderungen begleitet sein muß.)

Wie nun im nächsten Artikel 15 ausführlicher gezeigt werden wird, berech- nete Maxwell die Fortpflanzungsgeschwindigkeit einer solchen Welle, wobei im Resultate sowohl eine elektrische als auch eine magnetische Charakterisierung des Mediums: die Dielektrisierungs- und die Magnetisierungszahl erscheint. Das Quadrat der Fortpflanzungsgeschwindigkeit ergibt sich als gleich dem rezi- proken Produkte dieser zwei Größen. Da alle elektrischen und alle magneti- schen Größen im physikalischen Zusammenhange stehen, kann man diese

Maxwell und seine ersten Anhänger 301

Größen entweder in elektrostatischem oder aber in magnetischem Maße messen. Bei Auswertung des Maxwellschen Resultates ergibt sich nun die Notwen- digkeit, die Dielektrisierungs- und die Magnetisierungszahl in ein und dem- selben Maßsystem auszudrücken, entweder beide Größen in elektrostatischem oder aber beide in elektromagnetischem Maße. Dieser hier in die Rechnung eingehende Umwandlungsfaktor c ist nun gleich der Lichtgeschwindigkeit im Vakuum = 3,10'° cm/sek. Daß dieser Umwandlungsfaktor c (oder manch- mal gewisse einfache Potenzen dieses c) in verschiedenen Gebieten der Elek- trizitätslehre als Ergebnis der stets vorkommenden Wechselbeziehungen von elektrischen und magnetischen Kräften immer auftritt, ist seit R. Kohlrausch und W. Weber (1856) zu wiederholten Malen gemessen worden. Historisch interessant ist, daß Maxwell, als er seine Ideen auf dem Lande ausarbei- tete, in die Resultate Webers noch keine Einsicht genommen hatte.

Maxwell gelangte so zu dem theoretischen Schlüsse, daß elektromagne- tische Wellen sich in Isolatoren und in leerem Räume mit derselben Ge- schwindigkeit fortpflanzen müssen wie Licht. Aber nicht nur die Geschwindig- keit, auch die sonstigen geometrisch-physikalischen Eigenschaften solcher Strah- len sollen nach Maxwell genau die der Lichtstrahlen sein. Es wäre somit ein Lichtstrahl eine elektrische Welle. , We can scarcely avoid the inference that light consists in the transverse undulations of the same medium which is the cause of electric and magnetic phenomena.*'

Die Fremdartigkeit dieser Maxwellschen Vorstellungen, besonders die seiner Verschiebungsströme displacement currents , wonach es nur ge- schlossene Ströme geben solle, erschwerten die Anerkennung unter seinen Zeit- genossen, am wenigsten noch in England, dem Vaterlande des Autors.

Zur Zeit von Maxwells Tod 1879 war seine Theorie den Physikern im allgemeinen noch wenig bekannt.

Die Maxwellsche Theorie bis Hertz. Die erste experimentelle Un- Boiömann. tersuchung, die durch die Maxwellschen Rechnungen angeregt wurde, war die von L. Boltzmann (1874) in Wien über die Dielektrizitätskonstanten. Von diesen hängt nach Maxwells Überlegungen die Fortpflanzungsgeschwindig- keit elektrischer Störungen in den betreffenden Isolatoren ab, während für die Fortpflanzungsgeschwindigkeit des Lichtes in ebendenselben Isolatoren die be- treffenden Brechungsexponenten maßgebend sind, und zwar so, daß das Quadrat des Brechungsexponenten irgendeiner Substanz genau gleich sein soll seiner Dielektrizitätskonstante. Boltzmann konnte dies für Gase ex- perimentell bestätigen. Eine weitere Ausführung dieses Gebietes bringt der nächste Abschnitt, S. 320.

Im Jahre 1876 zeigte der Amerikaner H. A. Rowland im Helmholtz-RowUnd. sehen Laboratorium in Berlin, daß die Bewegung eines elektrisch geladenen Körpers magnetische Wirkungen ausübe, was später trotz zahlreicher Ein- wendungen als richtig erkannt wurde. Mit einschlägigen theoretischen Fragen beschäftigten sich damals J. J.Thomson (1881) und Fitz- Gerald in Du- FitxGenad. blin. Letzterer publizierte 1881 eine Arbeit:,, Über die Möglichkeit, wellenartige

302 14- BRNST Lecher: Die Entdeckungen von Maxwell und Hertz

Störungen im Äther mit Hilfe elektrischer Kräfte hervorzurufen.** H. Hertz referierte darüber in den „Fortschritten der Physik** und berichtete, wie Fitz- Gerald Gründe beibringt, welche solche Störungen unmeßbar machten. 1883 ersinnt Fitz-Gerald dann einen elektrischen Oszillator, der in manchen Be- ziehungen dem sogleich zu schildernden „Erreger** von H. Hertz ähnelt.

Heinrich Hertz (1857 1894).

Erst dieser lieferte 1888 eine direkte experimentelle Bestätigung der Maxwell sehen Lichttheorie. Helmholte- Hcrtz War ein Schüler von H. v. Helmhol tz. Das Grundprinzip der Helmholtzschen Elektrodynamik bildet das Gesetz der Erhaltung der Ener- gie, und sie vermochte elektrische Induktion, ponderomotorische Wirkungen von Strömen u. dgl. in übersichtlichen Zusammenhang zu bringen. Ein be- sonderer Grenzfall der Helmholtzschen Theorie führt zwar auch zu den Maxwellschen Vorstellungen; sowie es sich aber um experimentelle Be- stätigung handelt, „verflüchtigt sich leider** nach H. Hertz „die Grundlage der Helmholtzschen Theorie, wie sich dieselbe allgemein verflüchtigt, wenn man von Fernkräften absehen will**.

Beim Beginn seiner epochemachenden Arbeiten ging Hertz aber noch ganz vom Helmholtzschen Ideenkreise aus. Im Jahre 1879 hatte die Berliner Akademie die Preisaufgabe gestellt: „Irgendeine Beziehung zwischen elektro- dynamischen Kräften und der dielektrischen Polarisation der Isolatoren ex- perimentell nachzuweisen, sei es nun eine elektrodynamische Kraft, welche durch Vorgänge im Nichtleiter erregt würde, sei es eine Polarisation der Nicht- leiter durch die Kräfte der elektrodynamischen Induktion.** Eine richtige Lö- sung dieser Aufgabe muß zu den Maxwellschen Vorstellungen führen, denn nach diesen hätte die vorliegende Aufgabe gelautet: Nachweis eines Ver- schiebungsstromes im ungeladenen Isolator, wenn in einem eingebetteten Stromleiter die Stromstärke sich ändert. Riduurx-H©nricii. Es ist vielleicht historisch interessant, daß eine direkte Lösung dieser Preisfrage erst 19 10 von F. Richarz K. Henrich erfolgte. Zur Zeit der Ausschreibung waren die experimentellen Hilfsmittel noch nicht so weit aus- gebildet.

Als damals Hertz von Helmholtz auf diese Preisstellung aufmerksam gemacht wurde, schien ihm eine glückliche Lösung unmöglich und er ver- zichtete darum auf die Bearbeitung. Gleichwohl blieb das Problem in seinem Geiste haften und als er 1886 „Über sehr schnelle elektrische Schwin- gungen" arbeitete, erlangte er jene experimentellen Erfahrungen, welche ihn in rascher Reihenfolge in wenigen Jahren seine für alle Zeiten grundlegen- den Untersuchungen ausführen ließen, die weit über den Rahmen des Preis- frageproblems hinausgingen und die Namen Hertz und Maxwell für ewig vereinten.

Wir wollen diese Hertzschen Resultate der Übersichtlichkeit wegen zu- nächst in vier Abschnitte trennen.

Hertzscbe Oszillatoren und Resonatoren

303

1. Erregung der Schwingung,

2. Resonanz,

3. Fortpflanzung elektrischer Schwingungen in Drähten,

4. Fortpflanzung elektrischer Schwingungen in Isolatoren.

Um möglichst übersichtlich zu bleiben, wird die folgende Darstellung im- mer nur die einfachsten und wichtigsten Resultate bringen. Erkenntnistheo- retisch interessante Neben- oder Irrwege, ebenso die neuesten Entwicklungen können nur angedeutet werden.

Schwingungserregung. Eis sei/? in Fig. 2 irgendeine Elektrisier- /""^ maschine, meist ein Induktionsapparat, welcher die Kugel A positiv, Vs,^ B hingegen negativ auflädt. Diese Ladung wächst rasch an, bis die Span- nung in der kleinen Funkenstrecke F zu groß wird und hier ein Funke überklatscht. Diese Funkenstrecke hauptsächlich aus glühendem Me-

ö

talldampf bestehend -— hat einen sehr kleinen Widerstand und es (nsnrm setzt daher die früher geschilderte elektromagnetische Schwingung ^Attüf zwischen A und B ein; für diese Schwingung kommt nur das System AFB in Betracht; in die spiralig gezeichneten Zuleitungsdrähte nach R hin geht von dieser Schwingung nichts. Hertz sagt hier, „daß es mit Hilfe einer bloßen Theorie nicht möglich gewesen wäre, zu den Erschei- nungen vorzudringen. Denn das wirkliche Eintreten derselben in unse- ren Versuchen hängt außer von ihrer theoretischen Möglichkeit noch ab ^**^' *• von einer besonderen und überraschenden Eigenschaft des elektrischen Funkens, welche durch keine Theorie vorher zu sehen war." Diese einfache Anordnung einer durch eine Funkenstrecke unterbrochenen Aufladung und die dann bei Ein- setzung des Funkens erfolgenden elektrischen Schwingungen sind die Wünschel- ruten, mit denen Hertz seine Schätze hob. Selbst die mächtigen modernen elek- trischen Schwingungen in der drahtlosen Telegraphie beruhen alle mit we- nigen Ausnahmen auf dem gleichen Vorgange. Die Beschaffenheit dieses Funkens ist von größter Wichtigkeit; notwendig sind möglichst kleiner Wider- stand während der Schwingung und dann rasches Auslöschen, weil sonst bei andauernder leitender Verbindung von A und B nach Ablauf der einen Schwingung ein zur Einleitung der nächsten Schwingung notwendiges Auf- laden von A und B selbst bei Anwendung größter Elektrizitätsquellen un- möglich wäre.

Resonanzprinzip. Will man nun eine solche elektrische Schwingung in irgendeiner Weise auf irgendein anderes Leitersystem einwirken lassen, so muß dieses Leitersystem genau die gleiche elektrische Schwingungsdauer ermög- lichen. Wie eine schwingende Stimmgabel eine zweite, weiter entfernte nur dann in Bewegung setzt, wenn die Schwingungszahl beider Gabeln gleich ist, so ist auch bei elektromagnetischen Schwingungen eine solche „Resonanz** von allergrößter Bedeutung. Nur weil Hertz dies rasch erkannte, konnte er bald nach seinen ersten Versuchen zu einer klaren Erkenntnis dieses Gebietes vor- dringen. Er sagt (1887): ,, Ein regelmäßig oszillierender Strom muß nach dem Prinzip der Resonanz unter übrigens ähnlichen Umständen eine viel größere

304 '4- Ernst Lecher: Die Entdeckungen von Maxwell und Hertz

Induktionswirkung ausüben auf einen Stromkreis von gleicher Schwingungs- dauer, als auf einen solchen von nur wenig abweichender Periode." EineVor- obeibeck. arbeit lieferte hier schon zwei Jahre vorher Oberbeck: „Über eine der Re- sonanz ähnliche Erscheinung bei elektrischen Schwingungen."

Elektrische Schwingung in Drähten. Legt man an die Kugel yl in Fig. 2 einen langen, im übrigen isolierten Draht senkrecht zu A B, also in der Zeich- nung horizontal, so wird das linke Ende dieses langen Drahtes immer gleich- zeitig mit A positiv aufgeladen, diese Ladung oder Elektrizitätsverdichtung läuft im horizontal gespannten Drahte gegen rechts bis ans Ende, wird da reflektiert, genau so wie die Luftverdichtung in einer akustischen Pfeife. Wird also A aJLi' periodisch positiv und negativ geladen, so müssen die gegen rechts

11 ] gesendeten und am Drahtende zurückreflektierten Wellen interferie- ren und sich genau so wie die Schallwellen in einer Pfeife zu einer stehenden

Hf

t:

(natürlich elektrischen) Schwingung ausbilden. Es tritt dann am R j.7. äußersten rechts gelegenen isolierten Ende dieses horizontalen Drah-

tes abwechselnd Verdichtung und Verdünnung der Elektrizität auf; wir haben abo dort um in einer akustischen Analogie zu sprechen immer einen Schwin- gungsknoten. Die erregende Schwingung hat eine bestimmte Periode und es muß daher auch der Draht eine bestimmte Länge haben, auf daß ein scharfer Knoten am Ende sich ausbilden kann. Bei passender Länge tritt dann eine so vollständige Resonanz ein, daß an diesem Ende ev. sogar kräftige Büschelent- ladungen gegen die Umgebung die Schwingung verraten. Solche Anordnungen sind in der modernen drahtlosen Telegraphie vielfach konstruiert worden. (Ich habe, um die Analogie mit Luftschwingungen pädagogisch möglichst verständ- lich zu machen, die am Drahtende auftretenden Verdichtungen und Verdün- nungen der Elektrizität Knoten genannt. Weil aber an diesem Ende die Span- nungen hin- und herschwingen, nennt die drahtlose Telegraphie vgl. Artikel i8 diese Stelle Schwingungsbauch, üe. der elektrischen Spannung. Man kann also die Ausdrücke Bauch und Knoten vertauschen, je nachdem man von der ,, Strömung" oder der „Spannung" ausgeht.)

Eine von Hertz nicht im Prinzip, sondern nur in einer Kleinigkeit ab- weichende, aber sehr übersichtliche und für wissenschaftliche Untersuchungen viel gebrauchte Anordnung zur Erzeugung solcher elektromagnetischer Lon- Lechorsdie gitudinalwellen in Drähten zeigt Fig. 3 (Lecher, 1890). A, B und F haben Drahte, jjgg^ijjg Bcdcutung wie in Fig. 2, Hier ist aber A und B je eine Metallplatte, denen die Platten A' und B' gegenüberstehen. AA' und BB' stellt also je einen Plattenkondensator vor. An A' und B' liegen zwei horizontalgespannte Drähte as und et von einigen Metern Länge in einer gegenseitigen Entfernung von 10 bis 30 cm. Diese Drähte sind im übrigen außer der Berührung in A' und ff voll- kommen isoliert. Auf ihnen liegt ein Metallstab fr, die Brücke, welche eine metallische Verbindung zwischen ihnen herstellt. Wenn in F ein kurzer klat- schender Funke überspringt, wird wie in Fig. 2 eine Schwingung zwischen A

Hertysche Dtabtwellen 305

und B einsetzen; da at>ef bei dieser abwechselnden Ladung und Entladung von ^ und B auch die Platten A',und Bf immer durch Influenz geladen werden, schwingt auch ÄahclS sq mit, daß, wen;^ links die Schwingung in der Richtung AFB hinuntergeht, die ergänzende Schwingung rechts in der Richtung BfhÄ^ hinauf stattfindet. Dieße beiden Schwingungen bilden zusammen einen einzigen SchwinguQgskreis AA<ibcBf B^ welchen zum Teil aus metallischen Leitern besteht (wozu auch die Fujikenstrecke gehört), zum Teil aber .aus dem isolierenden Me- dium zwischen AA\ und BB'; der in diesem Teile auftretende Verschiebungs- Strom macht also nach Maxwell d^n ganzen Schwingungskreis zu. einem ge- schlossenen. .

Der in der Brücke b bin* und hergehende Ström verzweigt sich aber auch nach bs und bt, auch hier entsteht eine Schwingung.: Fließt der Strömt gegen 5, so wird s positiv aufgeladen und t negativ. Der einfachste Fall wäre nun, daß ^uf die Strecke ^5 sowohl als auch auf die Strecke btjo eine viertel Wellenlänge zu. liegen kommt; dann muß, wenn in ^ Verdichtung der Elektrizität eintritt, gleichzeitig in t Verdünnung sein und umgekehrt. Legt man übet st eine aus- gepumpte Glasröhre g, so wird diese .durch, die abwechselnden Spannungen in s und t zum Leuchten gebracht.. Dieses Leuchten tritt aber nur ein, wenn zwischen der erregenden Schwingung -^Fßß'fc^'^ und der induzierten Schwingung gsfr^g scharfe Resonanz herrscht. , Nun läßt sich die Schwingungsdauer der Primär- Schwingung links durch Verschiebung der Brücke b nach linksi hin verkleinern, wobei gleichzeitig die Schwiogungsdauer für den rechten Kreis vergrößert wird und umgekehrt. Durch ein solches Verschieben der Brücke kann man also leicht Resonanz erreichen, was sich durch scharfes Aufleuchten der Röhre g an- zeigt. Da aus den Dimensionen des Primärschwingungskreises sich dessen Schwin- gungsdauer berechnen läßt und da eine Abmessung der Länge bs eine viertel Wellenlänge liefert, so ergibt sich (vgl. akustische Analogie Artikel 2) aus dem Verhältnis: (Wellenlänge) /(Schwingungsdauer) unmittelbar die Fortpflanzungs- geschwindigkeit der elektrischen Schwingung im Drahte, welche, wenn as und V/ in Luft, gespannt sind, genau gleich der Lichtgeschwindigkeit in Luft ist. Daß dies sein müsse, errechnete Kirchhoff schon 1857 mit der alten, Elektro- dynamik. Sind as und et in einem anderen Isolator, so ist die Fortpflanzung der elektrischen Schwingung gleich schnell wie die des Lichtes in diesem Isolator.

Seither hat sich das experimentelle und theoretische Studium dec Draht- wellen ungemein vertieft. Während Hertz in seinen einschlägigen theoreti- schen Betrachtungen den Drahtdurchmesser unendlich dünn annahm und, um auf die Lichtgeschwindigkeit zu kommen, die weitere in diesem Grenzfalle sogar unrichtige Annahme machte, daß die Richtung der elektrischen Kraft außen auf dem Draht senkrecht stehe, berücksichtigt Poincarä (1892) zwar die Poincar6. Drahtdicke, hält aber an letzterer Prämisse fest, d. h. er nimmt gleichfalls von vornherein Lichtgeschwindigkeit an. Nun durchfließt zwar ein konstanter Strom den ganzen Drahtquerschnitt gleichmäßig, Wechselströme aber bevor- zugen um so mehr die äußeren Schichten, je rascher sie oszillieren. Hertzsche Schwingungen gleichen hier fast statischen Ladungen, die ja ganz auf der Ober«

K.d.G.m.iil,Bd X Physik 20

3o6 14- Ernst Lbcher: Die Entdeckungen von Maxwell und Hertz

fläche bleiben. Hertz brachte diesbezüglich qualitative Versuche, und durch V. Bjerkne«. Anwendung einer sehr geistreichen Methode gelang es V. Bjerknes (1893), so- gar die Tiefe, bis zu welcher solche rasche Wechselströme in den Draht ein- dringen, experimentell zu zeigen, j. j. Thomson. Eine exakte Theorie der Drahtwellen versuchte J. J. Thomson(i 893) und Sommerfeld. andere, besonders Sommerfeld (1899— 1909). Letzterer berechnet den Ver- lauf der elektrischen Kraft längs eines geraden beiderseits ins Unendliche ge- henden Drahtes; es sind dann die Schwingungszahl, der Drahtdurchmesser und dessen Leitfähigkeit von großem Einflüsse. Die Drahtwellen werden kürzer und es kann in Ausnahmefällen die Geschwindigkeit im Drahte bis zu 25 Prozent kleiner werden. Diese Probleme spielen bei der Frage nach dem Messen der Fortpflanzung der Signale in der drahtlosen Telegraphie eine große Rolle und wurden in neuerer Zeit vielfach untersucht.

Eis sei hier noch eine für das Verständnis des Ganzen zwar nebensächlichci aber historisch sehr interessante Tatsache erwähnt. Als Hertz die Fortpflan- zungsgeschwindigkeit elektrischer Wellen in Drähten etwas abweichend von der oben dargestellten Methode maß, fand er diese statt zu 300000 nur zu 200000 km pro Sekunde. Es ist dies das einzige Mal, daß der große Forscher irrte, und da ist folgendes bezeichnend für den Experimentator: die Versuchs- zahlen waren ihm trotz des unerwarteten Resultates und trotz aller theore- tischen Zweifel heilig. „Bei allem Glücke*', so sagt er später selbst, „hatte ich gerade in dieser Untersuchung entschiedenes Unglück.** Poincar6 zeigte (i 890), daß der von Hertz gemachte Irrtum in der Kapazitätsberechnung stecke und daß die Hertzsche Schwingungsdauer hätte mit y" 2 multipliziert werden müssen, um alles in Ordnung zu bringen. Experimentell wurde die Sache SÄTMin. später durch die Versuche von E. Sarasin und De La Rive (1893) end- ''*' gültig richtiggestellt.

Nachträglich stellte sich heraus, daß schon lange vor Hertz im Jahre 1870 Beaoid. W. V. Bezold unter dem Titel: „Untersuchungen über die elektrischen Ent- ladungen, vorläufige Mitteilung** stehende Drahtwellen dargestellt hatte. Er zeigte die Reflexion elektrischer Wellen am Drahtende und Entstehung von Interferenzen, allerdings durch viel weniger direkte Methoden als es jene waren, die Hertz verwendete. Als Hertz diese Versuche kennen gelernt hatte, frs^te er mit Erstaunen, ,,wie es möglich war, daß so wichtige und so bestimmt aus- gesprochene Ergebnisse keinen größern Einfluß auf den Gang der Wissenschaft ausgeübt hatten. Vielleicht hat hierzu der Umstand beigetragen, daß Herr V. Bezold seine Mitteilung als eine vorläufige bezeichnet hatte?** Lodge. Fast gleichzeitig mit Hertz arbeitete Oliver Lodgein Liverpool über die Theorie des Blitzableiters und stellte dabei eine Reihe von Versuchen über die Entladung sehr kleiner Kondensatoren an, welche ihn auf die Beobachtung von Schwingungen und Wellen in Drähten führten. Hertz meint: ,,Da Lodge voll- ständig auf dem Boden der Maxwellschen Anschauung stand und eifrig be- strebt war, diese Anschauung zu erweisen, so ist kaum zu zweifeln, daß, wenn ich ihm nicht zuvorgekommen wäre, er auch zur Beobachtung der Wellen in der

Hertzsche Wellen im Dielektrikum

307

Luft und damit zum Nachweis der zeitlichen Ausbreitung der elektrischen Kraft gelangt wäre/*

Schwingungen im Dielektrikum» Der nun folgende Teil bringt das- Hertssche jenige, was man gemeiniglich unter dem Schlagwort Hertzsche Versuche ver- ^*^^^^" steht.

Eines der interessantesten historischen Kapitel unserer Wissenschaft liefern hier die Vorarbeiten, über welche hinweg Hertz zu seinen Schlußresultaten ge- langte. Es geschah dieses Vordringen auch mit einer fast beispiellosen Schnellig- keit. 1887 erschien die erste Arbeit vonH. Hertz, damals Prof essor in Karls- ruhe, „Über sehr schnelle elektrische Schwingungen** und nach einer Reihe von einschlägigen Publikationen konnte er schon am 13« Dezember 1888 in den Sitzungsberichten der Berliner Akademie der Wissenschaften seine aufsehen- erregenden experimentellen Ergebnisse „Über Strahlen elektrischer Kraft** ver- öffentlichen.

Das Instrumentarium war höchst einfach. Als Schwingungs-,, Erreger** diente eine Anordnung nach Fig. 2, durch welche ein zweites, oft ganz analog gebautes Drahtsystem, das Hertz „Resonator** nannte, induziert wurde, wie z. B. AB in Fig. i. Dieser Resonator war in der Mitte durch eine minimale Funkenstrecke unterbrochen und wenn im Erreger ^ß, S. 298, ein kräftig über- klatschender Funke eine Primärschwingung erzeugt, verrät sich die Induktion im Resonator AB' durch ein kleines Fünkchen in F . Statt der Form AV ge- brauchte Hertz als Resonator auch oft einen einfachen Drahtring, der an passender Stelle die kleine Funkenstrecke zur Konstatierung einer in diesem Ringe induzierten Schwingung enthielt. Ein solches kleines Fünkchen zeigte dem geübten Experimentator noch in 10 m Entfernung von der Ursprungsstelle die Existenz elektrischer Wellen an. „Es erscheint unmöglich, fast widersinnig, daß diese Fünkchen sollten sichtbar sein, aber in völlig dunklem Zimmer für das geschonte Auge sind sie sichtbar.'*

Mit Rührung erfüllt uns der naive Jubel dieser Worte, sie sind der beschei- dene Taufspruch eines gewaltiger Zukunft entgegenstrebenden Keimes. Heute senden wir mit einer im Prinzip identischen Methode die Zeichen der drahtlosen Telegraphie über den atlantischen Ozean.

Während H e r t z die Wirkung seiner primären Schwingung in größeren Ent- ReflenoiL fernungen untersuchte, war ihm deutlich eine Art von Schattenbildung hinter leitenden Massen entgegengetreten, und diese war ihm nicht sehr auffällig er- schienen. Etwas später glaubte er aber auch eine eigentümliche Verstärkung der Wirkung vor solchen schattengebenden Massen und vor den Wänden des Raumes zu bemerken. Er fährt fort: „Als mir zuerst der Gedanke kam, daß diese Verstärkung von einer Art Reflexion der elektrischen Kraft von den lei- tenden Massen herrühre, schien mir derselbe fast unzulässig, so sehr wich er immerhin von der uns damals geläufigen Vorstellung einer elektrischen Kraft ab, unbeschadet aller Bekanntschaft mit dem Vorstellungskreise der Maxwell- schen Theorie.**

Die Erkenntnis der Tatsache einer solchen Reflexion führte dann zu der in HoUspiegei-

vertache. 20*

3o8

14. Ernst Lecher: Die Entdeckungen yon Maxwell und Hertz

c d

Wg.4.

I.

Brechong.

FortpflAnzangB- geschwindigkeii.

Fig- 4 gegebenen Anordnung. Zwei in derselben Vertikalen stehende, etw^ je 10 cm lange Metallzylinder a und h mit Kugeln zur Funkenstreck^ F an den ;eu- gewendeten Enden bilden den Primärerreger, cd sind die energiezuleitenden Drähte vom Elektrizitätserzeuger (Ruhmkorff) her (vgl. Fig. 2). Dieser Er- reger steht in der Brennlinie eines großen, 2 m hohen, parabolisch gekrümmten Hohlspiegels aus Blech. Die elektrische Schwingung in aFh pflanzt sich zu- nächst nach allen Seiten fort, wird aber durch den Hohlspiegel wie das Licht in einem Scheinwerfer so reflektiert, daß sie als paralleles Strahlenbündel gegen

rechts hin austritt. Wir haben also im Dielektri- kum vertikal auf- und abpendelnde elektrische Schwingungen bestehend aus Max well - sehen Verschiebungsströmen die als verti- kale Transversalwellen gegen rechts ziehen, ^/ genau wie etwa ein linear polarisierter Licht- I . strahl, in dem die Ätherteilchen nach der alten Fresnelschen Theorie vertikal auf- und ab- oszillieren. Der zweite Hohlspiegel rechts in Fig. 4 sammelt diese „elektrischen Strahlen*' in seiner Brennlinie, wo der Resonator d 3^ steht, dessen mittlerer Teil isoliert durch den Blechspiegel nach rückwärts durch- gehend zu einer ganz kleinen Funkenstrecke /führt. Eventuelle Fünkchen in / zeigen das richtige Ankommen des Strahls.

Hertz stellte nun zwischen die Spiegel in den Gang dieses Strahles ver- schiedene Körper; durch Holz, Mauerwerk z. B. geht die Wirkung ungehindert durch, nicht aber durch Metall, wo eine Absorption eintritt. Ein Prisma aus Schuaterpech, Paraffin u. dgl. lenkt den Strahl, wie ein Glasprisma einen Licht- strahl, ab: Brechung des elektrischen Strahles. So konnte Hertz fast alle Ei- genschaften gewöhnlicher Lichtstrahlen mit diesen seinen elektrischen Strahlen nachmachen.

Sein allerwichtigster Versuch war nun hier die Bestimmung der Fortpflan- zungsgeschwindigkeit dieses elektrischen Strahls. Da Hertz die Schwingungs- dauer seines Erregers aus dessen Dimension zu 22/10000000000 Sekunden be- rechnete, brauchte er nur mehr die Wellenlänge experimentell zu bestimmen. Wieder diente hier derselbe Erreger wie in Fig. 4 links. Der Parallelstrahl geht aber bei diesen Versuchen nicht in einen zweiten Parabolspiegel, sondern gegen eine ebene vertikale Metallwand, welche den Strahl in sich selbst zurü^kreflek- tiert. Der direkt nach rechts ziehende muß mit dem ihm entgegenkommenden reflektierten Strahle interferieren, es entsteht bei passender Anordnung eine stehende elektrische Welle im umgebenden Isolator, also in unserem Falle in der Luft; an den Khotenstellen müssen die dielektrischen Verschiebungsströme fehlen. Bringt man nun einen kreisförmigen Resonator an diese Stellen, so treten hier keine Fünkchen auf, wohl aber an jenen Orten, wo ein Schwingungs- bauch ist. Die Entfernung zweier Knoten ist natürlich gleich WellenlängCi So bestimmte Hertz seine Wellenlänge zu 66 cm und erhielt daraus die Fort-

Hcirtzsche Versuche zur elektromagnetischen Lichttheorie ' 309

Pflanzungsgeschwindigkeit seiher elektrischen Strahlen mit 300000 km pro Sekunde, also genau so groß wie die Lichtgeschwindigkeit. Daraus und aus den Brechungsversuchen ergab sich also als wichtigstes Resultat: Elektromagne- tische Induktion, elektrische und magnetische Störungen pflanzen sich durch Luft oder durch andere Isolatoren nicht momentan, sondern mit derselben Geschwindigkeit fort, mit der in den- selben Isolatoren sich das Licht fortpflanzt.

Diese Versuche erregten allüberall besonders aber in England, deiri Vater- lande der elektromagnetischen Lichttheofie freudigste Bewunderung, Die genialen Träume eines Maxwell-Färaday waren zur experimentellen Gö'wiß- heit geworden. Hertz, der leider jung, mit 37 Jahren, einer tückischen Krank- heit zum Opfec fiel, genoß aber noch voll diesen Triumph begeisterter Aner- kennung. Trotzdem aber, könnte er heute wieder unter uns treten, wäre er sicher überwältigt von dem, was aus seiner Arbeit geworden, wissenschaftlich und technisch!

Statt des kleinen Fünkchens, durch dessen Auftreten Hertz die Schwin- i>«««ktoreD. gungenim Resonator erkannte, verwendet man heute mannigfache feinere Ein- richtungen, „Detektoren** genannt. Diese werden im Kapitel „Drahtlose Tele- graphie*' (vgl. Artikel 18) des näheren beschrieben werden. Dank der unglaub- lichen Empfindlichkeit dieser Apparate können wir mit den Dimensionen der Erreger ganz bedeutend herabgehen. Je kleiner diese Dimensionen, desto kleiner sind die Wellen, desto rascher die Schwingungen.

An die genau studierten kurzen Ätherschwingungen der Wärmestrahlen, weiienUBgen. welche uns besonders in ihrem optisch wirksamen Bezirk durch den natürlichen Detektor unseres Organismus, durch das Auge, allvertraut sind, reihen sich nun seit Hertz die langsamen Schwingungen der viel längeren elektrischen Wellen. Noch gähnt der Größenordnung nach zwischen den langen elektrischen Schwin- gungswellen und den kleineren (Äther) Wellen der Wärmestrahlung eine ge- waltige Lücke. Denn die kleinsten elektrischen Wellen, die man bisher dar- stellen konnte, betragen immer noch etwa 3 mm. Dagegen sind selbst die läng- sten Wellen der Wärmestrahlen sehr klein: 0,3 mm (Rubens und v. Bayer, Rubeni-Bayer. 1911» vgl. Artikel 9). Die natürlichen elektrischen Wellenerreger, wie sie die Molekel und Molekelgruppen darstellen, sind ja winzig und können künstlich wohl kaum nachgemacht werden.

Die Erzeugung und Wahrnehmung kleiner elektrischer Wellen ermöglichte Right opük es aber, fast alle optischen Phänomene in analogen Versuchen mit elektrischen schwinguiigen" Wellen nachzuahmen. Dieses Gebiet taufte Righi, der es systematisch und mit größtem Erfolg bearbeitet, mit einem, wenn auch philologisch nicht ein- wandfreien, so doch ungemein bezeichnenden Namen „Optik der elektrischen Os- zillationen**. Man konnte für die elektrischen Strahlen zeigen: Totalreflexion, Nachahmung der wichtigsten optischen Interferenzphänomene, Beugung, Dop- pelbrechung usw. Speziell die durch Reflexion erzeugten Polarisationserschei- nungen ergaben in Verbindung mit der Maxwel Ischen Theorie und mit den Photographien stehender Lichtwellen von O.Wiener (1889, siehe Art. 26), daß

3IO 14- CRNST Lbchbr: Die Entdeckungen von Maxwell und Hertz

die optisch wirksamen Schwingungen, wenn sie wirklich gleich sind elektrischen Verschiebungsströmen, senkrecht zur Polarisationsebene stehen.

Gewisse Unterschiede zwischen optischen Erscheinungen und deren elek- trischen Analogien erwiesen sich als notwendige Folge der Größenunterschiede zwischen optischen und Hertzschen Wellen. Man kann dann eine optisch- elektrische Analogie oft in der Weise erzwingen, daß man den zu großen elek- trischen Wellen größere, d. h. künstliche Moleküle entgegenstellt. Eigentlich ist ja jeder Resonator, der die elektrischen Wellen absorbiert, schon ein Teil eines. Molekülmodells. So fand Garb asso (1893) Reflexion an Metallstreifen nur, wenn deren Schwingungsperiode mit der des Erregers übereinstimmte. Von sonstigen Versuchen mit künstlicher Nachahmung molekularer Eigenschaften sind wohl besonders nennenswert die über Polarisationserscheinungen. Auch hier ist Hertz der erste gewesen, der die Polarisationserscheinungen, wie sie im Turmaline am Lichte sich zeigen, durch ein Absorptionsgitter (als eine Art von elektrisch künstlichem Turmaline) nachmachte. Robens-Diiboif Fast interessanter erscheint aber die Auswertung dieser Ergebnisse Hertz- OpJdTe**^.!©- scher Wellen durch rein optische Versuche. Du Bois und Rubens (1893) ver- *'*v^'a^*' wendeten z. B. Hertzsche Drahtgitter in Miniaturform zur Polarisation langer Wärmestrahlen und später zeigten dann Rubens und Nichols (1905) Reso- nanzerscheinungen ihrer langen Wärmewellen an künstlichen sehr kleinen Re- sonatoren.

Noch unmittelbarer in die Kultur der Gegenwart eingreifend ist jene tech- nische Fortsetzung der Hertzschen Entdeckungen, welche als drahtlose Tele- graphie Hertzsche Wellen tausende Kilometer weit über Land und Meer sen- det. Dieser gewaltige kulturelle Fortschritt soll später eingehend besprochen werden (vgl. Artikel 18).

Literatur.

Das Hauptwerk Maxwells s. nächsten Abschnitt.

Populäre Darstellung z. B. v. GEmJER, Elektromagnetische Schwingungen und Wellen.

Viewcg 1905. RiCHARZ, Anfangsgründe der MaxweUschen Theorie. B. G. Teubner. 1909. Dann HERTZ: Untersuchungen über die Ausbreitung der elektrischen Kraft. Barth. 1892.

15-

DIE MAXWELLSCHE THEORIE UND DIE ELEKTRONENTHEORIE.

Von

H. A. LORENTZ.

L Die Maxwellsche Theorie.

Mit der modernen Elektrizitätstheorie ist der Name des großen engli- Einleitung, sehen Physikers Clerk Maxwell (183 1 1879) verbunden, den man mit Recht unter die ersten Forscher aller Zeiten und aller Länder zählt. Vor ihm hatte bereits sein Landsmann Faraday einen von dem seiner Zeitgenossen weit verschiedenen Standpunkt eingenommen. Während man allgemein die elektrischen und magnetischen Wirkungen als die Äußerungen unvermittelter, oder jedenfalls nicht weiter zu analysierender, in die Ferne wirkender Kräfte betrachtete, verteidigte Faraday die Meinung, es spiele der Zwischenstoff zwischen den Körpern eine wesentliche und der wissenschaftlichen Erkenntnis nicht unzugängliche Rolle. Durch eine kontinuierlich von Funkt zu Punkt fort« schreitende Veränderung werde das Medium jedesmal in einen eigentümlichen, von dem natürlichen verschiedenen Zustand versetzt, und infolgedessen könne es seinerseits Kräfte auf elektrisch geladene Körper oder Magnete ausüben und Veränderungen in deren Zustand hervorrufen. In der Fülle von wichtigen Ent- deckungen, mit denen Faraday die Physik bereicherte, gab es manches, das wohl geeignet war, ihn in seiner Überzeugung zu bestärken. Er fand, daß bei den elektrischen Erscheinungen die Natur der nichtleitenden Körper keines- wegs ohne Einfluß ist, und die Tatsache, daß alle Körper ohne Ausnahme in der Nähe eines Magnetpols eine Zustandsänderung erleiden, legte den Gedanken nahe, daß es auch bei den magnetischen Wirkungen auf das Medium ankomme.

Faraday hat sich bei seinen Betrachtungen mit großem Erfolg gewisser geometrischer Versinnlichungen bedient, die auch jetzt noch von hohem Wert sind. Ein Mathematiker im gewöhnlichen Sinne des Wortes war er aber nicht. Seine ,,Experimental Researches*' enthalten kaum eine einzige algebraische Formel und konnten deshalb nicht die Vollendung und Abrundung der Form erreichen, die man bei den hervorragenden Vertretern der Fernwirkungstheorie, wie Ampere und Wilh. Weber, bewundert.

Diesem Mangel abzuhelfen, war die Aufgabe, die Maxwell sich stellte, und die er in seinem ,,Treatise on Electricity and Magnetism** in glänzender Weise gelöst hat. Trotzdem kann man aus dem Buche das, was man jetzt die Maxwellsche Theorie nennt, nicht leicht kennen lernen. Es liegt das daran, daß Maxwell den Leser nicht auf leichtem Pfade zu dem schließlich von ihm

312 IS' H. A.LORENTZ: Die Maxwellsche Theorie und die Elektronentheorie

erreichten Standpunkt hinaufführt, sondern ihn den mühsamen, verschlungenen Weg gehen läßt, den er selbst zurückgelegt hatte. Das verleiht zwar dem Werke einen besonderen Reiz für jeden, der sich für die Entstehung und Entwicklung wissenschaftlicher Anschauungen interessiert, läßt aber die innere Harmonie der Theorie einigermaßen verschleiert. Erst späteren Forschern, unter denen in erster Linie Heinr. Hertz und Oliver Heaviside zu nennen sind, ist es gelungen, ihre volle Schönheit hervortreten zu lassen.

Selbstverständlich kann in der folgenden gedrängten Darstellung nicht die Rede davon sein, das von Maxwell und seinen Nachfolgern errichtete Ge- bäude in Einzelheiten zu schildern. Mancher wichtige Baustein, mancher zier- liche Schmuck, der den Gesamteindruck wesentlich erhöht, wird unerwähnt bleiben müssen.

Es möge indes versucht werden, dem Leser den allgemeinen Plan und die Gliederung der Hauptteile in großen Zügen Vor Augen zu führen, und zwar soll dabei zunächst einiges gesagt werden von der Darstellung der elektrischen Er- scheinungeti, sodann von den magnetischen Wirkungen, und schließlich von den eigentlichen Schlußsteinen.der Theorie, von den Hauptsätzen, die eine Ver- bindung zwischen den beiden Erscheinungsgebieten herstellen. BUdHch« ^3 Ersatz für die mathematische Ausdrucksweise, auf deren Schärfe und

DantoUiiageii.

Bündigkeit hier verzichtet werden muß, möge eine bildliche Darstellung be- nutzt werden. Ernste Bedenken wird das kaum hervorruf en. Es soll ja nicht aus dem Auge verloren werden, daß es sich, wie in mancher anderen physikalischen Theorie, eben nur um Bilder handelt, an die keine weitere Forderung zu stellen ist als die, daß sie der Wirklichkeit in dem Maße ähnlich seien, daß man mit ihrer Hilfe die eine Tatsache aus der anderen ableiten kann. Zudem ist zu be- merken, daß überhaupt das wissenschaftliche Denken ohne jede derartige, mehr oder weniger lebhaft gefärbte Vorstellungsweise schwerlich möglich ist. Elektrischer Die Wortc schon, deren man sich zu bedienen hat, sind manchmal bildliche oder symbolische Bezeichnungen. Wer von einem „elektrischen Strom** reden hört, ist geneigt, an das Fließen irgendeiner Substanz, eines Fluidums, oder wie man sie nennen will, zu denken, und so soll denn auch hier die stoffliche Vor« Stellung von der Elektrizität zugrunde gelegt werden, und zwar in der einfach- sten Auffassung, nach der es nur ein elektrisches Fluidum gibt. In einem Drahte, in dem ein Strom besteht, fließt die Elektrizität in der Richtung, die man dem Strom nach dem üblichen Sprachgebrauch zuschreibt. Führt der Strom einem Körper mehr Elektrizität zu als er in seinem natürlichen Zustand enthält, so wird eine positive Ladung erzeugt. Eine negative aber entsteht dann, wenn dem Körper ein Teil des ihm ursprünglich eigenen Elektrizitäts- vorrats entzogen wird.

Diesen Vorstellungen schließt sich die von auf die Elektrizität wirkenden Kräften an; sie zeigt zu gleicher Zeit, wie man von jeher bemüht gewesen ist^ die elektrischen Erscheinungen unter die Herrschaft der Mechanik zu bringen. Von mancherlei derartigen Kräften sprechen die Physiker. Die in einem galva- nischen Elemente oder einer thermoelektrischen Säule wirksamen Ursachen,

Bewegung der Elektiizität j 1 3

die einen Strom zu erregen vermögen, faßt man unter dem Namen „elektrö- motorische Kraft** zusammen. Anderseits setzt die von einem Strom durch* flossene leitende Materie der Elektrizitätsbewegung einen ,, Widerstand*^ jsnt- gegen, den man für jeden Leiterteil aus seinen Dimensionen und der „Leit- fähigkeit** des Materials berechnen kann. Insofern diese Kräfte von der Materie auf die Elektrizität ausgeübt werden, sind sie, was diese letztere betrifft, als Elektrisch« äußere Einwirkungen anzusehen. Es läßt sich ihnen eine innere auf die Elek- trizität wirkende Kraft gegenüberstellen, für die heutzutage die Benennung „elektrische Kraft** reserviert wird. Die Art und Weise, wie ihre Verteilung über den Raum, d. h. ihre Änderung in Richtung und Größe von Punkt zu Punkt, bestimmt wird, ist für die Maxwellsche Theorie charakteristisch.

Darauf wird weiter unten einzugehen sein. Zunächst möge bemerkt wer- den, daß die elektrische Kraft bereits in dem einfachen Fall sich geltend macht, wo in einem zu einem geschlossenen Kreis gebogenen Metalldraht an einer ein- zigen Stelle eine elektromotorische Kraft wirkt. Man kann diese Anordnung mit einer in sich zurücklaufenden, mit Wasser gefüllten Rohrleitung vergleichen, in der mittels einer eingeschalteten Pumpe eine zirkulierende Bewegung des Wassers unterhalten wird. Direkt setzt die Pumpe nur das gerade in ihr be- findliche Wasser in Bewegung, indirekt aber auch die weiter entfernte Flüssig- keit, und zwar wird der Reibungswiderstand, den die Rohrwand auf diese aus- übt, durch die Druckkräfte zwischen den verschiedenen Teilen der Flüssigkeit, also durch innere Kräfte überwunden. In ähnlicher Weise ist es die elektrische Kraft, die dort, wo keine elektromotorische Kraft besteht, die Elektrizität weiter treibt. Sie spielt die Rolle einer regulierenden Kraft, indem sie bewirkt, daß in allen Teilen des Kreises der Strom gleich stark ist.

Daß letzteres der Fall ist, d. h. daß jeder Querschnitt des Leiters von der- suanng^rdc selben Elektrizitätsmenge durchflössen wird, war der älteren Physik wohl be- meM^t^ kannte Man wußte auch, daß Ähnliches in anderen weniger einfachen Fällen gilt, daß z. B. wenn im Innern einer Metallkugel eine Zirkulation der Elektri- zität besteht, dabei an keiner Stelle eine Anhäufung stattfindet; für jeden Raum- teil gilt, daß ebensoviel aus- wie eintritt. Man sagt füglich, die Elektrizitäts- bewegung verlaufe „stauungsfrei**, womit auch eine negative Stauung, eine Ver* minderung der in einem bestimmten Raumteil liegenden Elektrizitätsmenge ausgeschlossen sein soll. .

Indes gibt es auch Fälle, für die man früher diese Regel nicht gelten lassen konnte. Wenn die Rückseiten zweier paralleler Metallplatten, zwischen wel- chen sich ein Nichtleiter, etwa eine Luftmasse, befindet, durch einen Metall- draht miteinander verbunden sind, und dann in dem Draht eine elektromoto- rische Kraft wirkt, so entsteht ein kurzdauernder Strom, infolgedessen die eine Platte positiv und die andere negativ geladen wird. Da man an irgendwelchen Vorgang in der Luft zwischen den Platten gar nicht dachte, so mußte man meinen, der elektrische Strom habe jetzt einen Anfangs- und einen Endpunkt.

Es hat eine 2^it gegeben, da man hoffte, durch die Beobachtung der* Wir- kungen derartiger ungeschlossener Ströme Aufschluß über wichtige theore-

314 'S* H.A.LORENTZ: Die Maxwellsche Theorie und die Elektronentheorie

tische Fragen zu gewinnen; es ließen z. B, die verschiedenen für die Elektro* dynamik vorgeschlagenen Grundgesetze ungleiche Effekte vorhersehen. Seit Maxwell haben nicht nur jene Gesetze ihre Bedeutung verloren, sondern ist den Physikern auch das Mittel, das man damals zur Entscheidung heranziehen wollte, entfallen. Er hat nämlich gelehrt, daß in Wirklichkeit auch der Strom, durch den der aus den beiden Platten bestehende „Kondensator** geladen wird, ein geschlossener ist.

Bewegung der Er kouutc ZU dieser Aussage kommen, weil er sich vorstellte, daß auch in

^i^^T cii^em Nichtleiter oder „Dielektrikum** ein elektrischer Strom bestehen kann;

Dieiektrikom. nur sci hier die Elektrizität an eine Gleichgewichtslage gebunden, nach der sie, sobald eine Verschiebung stattgefunden hat, durch eine aus dem Zusammen- hang mit der Materie entspringende Kraft zurückgetrieben wird. Es ließe sich demnach das verschiedene Verhalten der Elektrizität in Leitern und Nicht- leitern etwa an dem Fall zweier Kugeln veranschaulichen, deren eine in einer zähen Flüssigkeit frei schwebt, während die andere durch eine Spiralfeder mit einem festen Punkt verbunden ist; eine Kraft von bestimmter Größe kann die eine über jede beliebige Strecke hin verschieben, die andere aber nur soweit die Elastizität der Feder es zuläßt aus der ursprünglichen Lage bringen. An dieses Beispiel anlehnend, kann man die Kraft, welche im Nichtleiter die Elektrizität festzuhalten sucht, eine ,,quasi-elastische** nennen; sie ist, ebenso wie der Widerstand im Leiter, zu den äußeren Kräften zu rechnen, und von der elek- trischen Kraft, welche die Verschiebung der Elektrizität hervorruft, zu unterscheiden.

Kondensator. Die Theorie des Kondensators ist nun sehr einfach. Die elektromotorische

Kraft hat auch jetzt eine stauungsfreie Elektrizitätsbewegung zur Folge, indem eine parallel zu den Platten durch den Luftraum gelegte Ebene von genau der gleichen Menge wie ein Querschnitt des Metalldrahtes durchflössen wird. Als- bald stellt sich aber Gleichgewicht zwischen der elektromotorischen Kraft und der quasi-elastischen Kraft ein. Die eine Platte hat dann eine positive und die andere eine negative Ladung angenommen, deren Größen eben bestimmt wer- den durch die Elektrizitätsmenge, die der Leitungsstrom im Draht nach der einen Platte hin- und von der anderen hinweggeführt hat. Die ebenso große Menge, welche durch eine Ebene im Luftraum hindurchgegangen ist, ist das Maß für die ,, dielektrische Verschiebung** in diesem Raum.

Hört, nachdem der Kondensator geladen worden ist, die elektromotorische Kraft plötzlich zu wirken auf, so treibt die quasi-elastische Kraft die Elektri- zität des Dielektrikums in ihre ursprüngliche Lage zurück, was eben möglich ist, weil in dem Metalldraht ein Ausweg offen steht. Die in diesem Draht bei Elektrische der Entladung entwickelte Wärmemenge entspricht der Energie, die vorher im Energie. Kondensator aufgespeichert war, und die nach der Max well sehen Theorie in dem Dielektrikum ihren Sitz hatte. So lange hier die Elektrizität aus ihrer Gleichgewichtslage verschoben ist, enthält jeder Raumteil des Mittels eine be- stimmte Energiemenge, ähnlich wie man das von den Teilen eines deformierten elastischen Körpers sagen kann. Mit einem solchen hat überhaupt das „elek-

Elektrisches Feld. Äther 31^

trische Feld*' zwischen den Platten eine gewisse Analogie. Man kann z. B. aus dem Energieinhalt, den ein elastischer Stab nach einer Dehnung besitzt, die Kraft ableiten, mit der er sich zusammenzuziehen sucht, und ebenso folgerte Maxwell aus der Betrachtung der elektrischen Energie, daß die Platten des geladenen Kondensators durch das Medium zueinander hingezogen werden müssen, als wären gedehnte Faden zwischen ihnen gespannt. Überhaupt führte er alle elektrischen Anziehungen und Abstoßungen auf derartige Spannungen*' spaanan^en im Dielektrikum zurück. *" ^*^***'

Von fundamentaler Bedeutung ist es nun ferner, daß der.Versuch mit dem Kondensator auch dann gemacht werden kann, wenn der Raum zwischen den Platten luftleer ist. Nur der „Äther**, den die Undulationstheorie als Träger Äther, der Lichtschwingungen postuliert, ist dann in dem Raum vorhanden. Auch in ihm muß also das elektrische Feld mit seiner elektrischen Kraft und dielektri- schen Verschiebung bestehen können. Mit dieser Erkenntnis war der erste Schritt getan in dem Gedankengang, der dazu geführt hat, den Äther als das Medium zu betrachten, das in letzter Instanz alle scheinbaren Fernwirkungen vermittelt.

Will man das elektrische Feld genauer beschreiben, so hat man zunächst siektrizitäts- eine Einheit festzusetzen, in der Elektrizitätsmengen ausgedrückt werden sollen. ***'^"'*- Nachdem dies geschehen ist, kann man die elektrische Kraft in irgendeinem Punkt definieren als die, in gewöhnlichen mechanischen Einheiten anzugebende Kraft, die auf die daselbst befindliche Elektrizitätseinheit oder auf ein kleines mit der Einheit geladenes Körperchen wirkt. Man kann sich vorstellen, daß in jedem System geladener Körper die Richtung der Kraft, sowie ihre Größe, die sog, „Feldstärke**, experimentell ermittelt werden. Die Resultate lassen sich dadurch veranschaulichen, daß man in dem Felde Linien zieht, die in jedem Punkte die Richtung der elektrischen Kraft angeben. E^ sind das Faradays berühmte ,, Kraftlinien**. KraftUmen.

Was die dielektrische Verschiebung anbelangt, so ist diese in jedem Punkte Dielektrische durch die Elektrizitätsmenge zu messen, die durch ein senkrecht zu ihrer Rieh- "^*"<^^«^***»8 tung liegendes Flächenstück pro Flächeneinheit hindurchgeschoben worden ist.

Die beiden in dieser Weise gemessenen Größen bestimmen auch den Wert der elektrischen Energie; ihr Betrag pro Volumeneinheit wird nämlich durch das halbe Produkt aus der Kraft und der Verschiebung gegeben.

Aus der von Farad ay entdeckten Tatsache, daß bei gegebener elektro- motorischer Kraft die Ladung des Kondensators sich mit der Natur des Di- elektrikums ändert, muß man nun ferner schließen, daß dieselbe elektrische Kraft nicht in allen Körpern die gleiche Verschiebung hervorbringt. Dabei ist in jedem einzelnen Dielektrikum die Verschiebung der Kraft proportional.^) Die Verhältniszahl, d. h. die Zahl, mit der man den Wert der Kraft multipli- Dieiektnxitäts- zieren muß, um den der Verschiebung zu erhalten, heißt die ,,Dielektrizitäts- ^°"**°*®-

i) Zur Vereinfachung soll in diesem Artikel nur von solchen Körpern die Rede sein, die in allen Richtungen dieselben Eigenschaften haben. In diesen hat die dielektrische Ver- schiebung immer die Richtung der Kraft.

3i6 15. H. A. LORENTZ: Die Maxwellsche Theorie und die Elektronentheorie

koÄstante** des Mittels. Ihre Größe hängt von der Wahl der Elektrizitäts- einheit ab man kann ja erst, nachdem man sich darüber geeinigt hat, in jedem konkreten Fall die beiden GröJQen durch bestimmte Zahlen ausdrücken -- und es empfiehlt sich nun, bei theoretischen Betrachtungen die Wahl so zu treffen; daß für den Äther die Dielektrizitätskonstante gleich Eins wird. Für dieses Medium haben dann also die Kraft und die Verschiebung denselben nume* rischen Wert.

Die Dielektrizitätskonstante der Gase ist nur wenig größer als Eins, für Luft unter normalen Umständen 1,00059. ^^i festen und flüssigen Nichtleitern hat sie erheblich höhere Werte; hier kann bei gleicher elektrischer Kraft die Verschiebung, welche im Äther bestehen würde, um weit mehr als das Dop- pelte odw: Dreifache übertroffen werden.

Es sei gestattet, dem Bilde jetzt einen Zug hinzuzufügen, den man bei Maxwell selbst nicht findet. Der Äther befinde sich nicht nur im luftleeren Raum, sondern auch überall da, wo Materie vorhanden ist, sogar im Inneren der kleinsten Teilchen, der Moleküle und Atome, und in einem materiellen oder ,,ponderablen*' Nichtleiter werde unter dem Einfluß einer elektrischen Kraft die Elektrizität in zweierlei Weise verschoben. Einmal in dem im Körper enthal- tenen Äther, dann aber auch in jedem einzelnen Molekül, derart, daß es an der einen Seite eine positive,' an der anderen eine negative Ladung erhält, daß so- zusagen zwei „Pole", ein positiver und ein negativer, auftreten. Obwohl diese zweite Art der Verschiebung diskontinuierlich über den Raum verteilt ist, ist sie doch, was die beobachtbaren Erscheinungen betrifft, einem gleichmäßigen Flusse äquivalent. Es erscheint jetzt das, was Maxwell die dielektrische Ver- schiebung im Körper nennt, als aus zwei Teilen zusammengesetzt, deren einen Eiektritche man die „Verschiebung im Äther*', den anderen aber die „elektrische Polari- PoUiMarion. sation** nenncu kann. Der erste Teil ist numerisch der elektrischen Kraft gleich, und man erhält daher den Wert des zweiten Teiles, wenn man die Kraft mit der um Eins verminderten Dielektrizitätskonstante multipliziert. Penna&ent ' Derartige Polarisationen scheinen nun in gewissen Kristallen auch ohne ** Körper?* cinie durch äußere Einflüsse hervorgerufene elektrische Kraft zu bestehen; man hat die pyro- und piezo-elektrischen Vorgänge auf sie zurückgeführt. Wie dem auch sein möge, jedenfalls kann man sich folgenden ideellen Fall vorstellen, dessen Betrachtung im Hinblick auf die Erscheinungen des Magnetismus inter- essant ist.

In den Molekülen eines nichtleitenden zylindrischen Stabes wird die Elek- trizität in irgendeiner Weise in der Längsrichtung verschoben und, nachdem das geschehen ist, festgelegt. Der Stab ist dann ein für allemal polarisiert und blei- bend von einem elektrischen Felde umgeben, dessen Gestaltung sich daraus ergibt, daß der Stab sich verhält, als trüge er an dem einen Ende eine positive und an dem anderen eine negative Ladung. Die Kraftlinien laufen deshalb im äußeren Raum in größeren oder kleineren Bogen von dem positiven nach dem negativen Pol hin. Auch im Inneren des Stabes ist die elektrische Kraft und somit auch die dielektrische Verschiebung im Äther nach dem negativen Pol hin

Elektrische Polari3ation und MlLg9^sicrung . . 317

gerichtet. Im Gegensatz zu dem früher betrachteten Fall haben also jetzt die beiden Teile der Verschiebung im Stabe entgegengesetzte Richtung die Pola- risation wurde ja eben von vornherein festgelegt und also als unabhängig von der Kraft gedacht. Nähere Überlegungen zeigen, daß vqu den beiden Teilen die Polarisation überwiegt. Die resultierende Verschiebung ist daher in dem Stabe nach dem positiven Pol hin gerichtet, vnd da. die Verschiebung im un^ebenden Äther, dem Laufe der Kraftlinien folgend, nach dem negativen Pol zeigt, so wird €s verständlich, daß im ganzen genommen, die Bewegung der Elektrizitä.t, ihre Verschiebung aus der ursprünglichen. Lage wieder stau ungsfrei verläuft. An dieser Tatsache wird auch dann nichts geändert, wenn man irgendwelche Kör- per in die Umgebung des. Stabes bringt, z. B. einepider Pole eine Schwefelkugel nähert. Freilich ändert sich dabei die Konfiguration des Felde3, und zwar in solcher Weise, daß sich aus deii Spannungen im Äther eine Anziehung der Kugel durch den Stab ergibt.

In der älteren Physik war bereits eine gewisse Analogie zwischen den elek- ParaUeiumo» trischen und magnetischen Erscheinungen zutage getreten; hatten doch Cou- elektrischen lombs funda^ientale Gesetze für die Anziehungen und Abstoßungen genau ^^^^^g*. dieselbe Form für Magnetpole wie für geladene Körper. Die MaxweUsche ■«i'einttiigen. Theorie ist nun durch einen weitgehenden Parallelismus. zwischen den beiden Gebieten charakterisiert. Man kann sogar, wenn man sich nicht scheut, an den Magnetismus wie an ein Fluidum zu denken, dessen Anhäufung einen ,, Nord- pol** (positiven Pol) darstellt, während das Wesen eines Südpols (negativer Pol) in einem Defizit besteht, mit sachgemäßer Änderung der Worte fast alles, wa^ von den elektrischen Erscheinungen gesagt wurde, auf die magnetischen über-, tragen.

Der elektrischen Kraft entspricht jetzt die „magnetische Kraft**, der d.i- Mapietitche elektrischen Verschiebung die magnetische, oder, wie man zu sagen pflegt, die magneü^he „magnetische Induktion**, deren Wert, bei passender Wahl der Einheiten, im ^"^»'*^'*<>"- Äther dem der magnetischen Kraft gleich ist.

Allerdings bestehen wichti.ge Unterschiede, zunächst der, daß es auf dem neuen Gebiete Wirkungen, die den elektromotorischen Kräften analog wären, nicht gibt und ebensowenig den Elektrizitätsleitern entsprechende Körper. Vielmehr sind jetzt alle Substanzen den Nichtleitern vergleichbar. Im Inneren der Materie ist die Verschiebung der Größe nach wieder von der Kraft ver- schieden, und kann sie als aus zwei Teilen zusammengesetzt aufgefaßt werden. Der eine ist die „magnetische Induktion im Äther**, die in Richtung und Größe mit der magnetischen Kraft zusammenfällt; der andere Teil, den man „ma- gnetische Polarisation** nennen könnte, wird gewöhnlich als „Magnetisierung** Mapietirientng. bezeichnet. Dieser Teil besteht bleibend in einem Stahlmagneten, der eben das Gegenstück zu dem oben betrachteten permanent polarisierten dielektrischen Stab ist. Dies gilt, was den Lauf der magnetischen Kraftlinien betrifft, und auch insofern als die magnetische Verschiebung, wie im vorigen Fall die dielek- stauuogrfreie trische, stauungsfrei über den Raum verteilt ist, eine Eigenschaft, die nach der derindaktioa.

3 1 8 1$. H. A. LORENTZ: Die Maxwellsche Theorie und die Elektronentheorie

Maxwellschen Theorie der magnetischen Induktion ebenso allgemein wie dem elektrischen Strom zukommt.

In der Beziehung zwischen der Kraft und der Verschiebung macht sich wieder die spezielle Natur der Materie geltend. In den meisten Körpern ist die Permcawiitit Induktion wenig von der magnetischen Kraft verschieden ; in diesen Fällen sind die beiden Größen einander proportional. Die Zahl, mit der man die Kraft mul- tiplizieren muß, um die Induktion zu erhalten, wird die ,, Permeabilität" ge* nannt. Sie ist der Dielektrizitätskonstante vergleichbar, aber während diese immer größer als Eins ist, ist die Permeabilität bald größer, bald kleiner als die Einheit, so daß die Körper, von denen jetzt die Rede ist, in zwei Klassen, die Paramagnetische „paramagnetischen'' und die „diamagnetischen*' zerfallen. In diesen letzteren diam^etuche hat also die magnetische Kraft eine geringere Induktion als im Äther zur Folge, Körper. ^j^ j^^jj dahin deuten kann, daß eine der Kraft entgegengesetzte Magneti- sierung entsteht. Ferro- ßci gewisscu Metallen, deren wichtigster Repräsentant das Eisen ist, hegen

Körper, die Verhältnisse verwickelter. Bei schwachen Feldern kann man auch hier noch von Proportionalität zwischen Kraft und Induktion reden, wobei dann aber die Permeabilität hohe Werte, bis zu zwei- oder dreitausend, zeigt. In stärkeren Feldern hört die Proportionalität auf und es gibt Sogar ein Maximum der Ma- gnetisierung, über das nicht hinausgegangen werden kann. Von den sonstigen Eigenschaften der „ferromagnetischen** Körper, die für die Elektrotechnik von großer Wichtigkeit sind, kann hier nicht gehandelt werden. Magnetische Auch das maguetischc Feld ist, wie das elektrische, Sitz einer gewissen Energiemenge, deren Betrag sich in denjenigen Fällen, wo Proportionalität zwischen Kraft und Induktion besteht, sehr einfach berechnet. Pro Volumen- einheit wird er durch das halbe Produkt aus der Kraft und der Induktion gegeben.

Mit der Energie hängen auch jetzt wieder wenn auch nicht ganz so wie im elektrischen Felde die auf die ponderablen Körper ausgeübten Kräfte Spannungen zusammeu, dic ebcuso wie die elektrischen Anziehungen und Abstoßungen, auf Felde.' Spannungen im Medium zurückgeführt werden. Die Berechnung dieser Span- nungen geschieht genau so wie für das elektrische Feld. Es ist z. B. die von einem Magnetstab auf eine Eisenkugel ausgeübte Kraft mit der Anziehung der obengenannten Schwefelkugel durch den elektrisch polarisierten Stab ver- gleichbar.

Es sind jetzt noch die Schlußsteine anzubringen, durch welche die Elek- trizitätstheorie und die Lehre vom Magnetismus zu einem Ganzen zusammen- gefügt werden. Dem hervorgehobenen Parallelismus entsprechend, gibt es deren zwei, so daß, kann man sagen, die beiden Gebiete kreuzweise verknüpft werden.

Es wird sich erstens um das Hervorbringen magnetischer Kräfte durch

elektrische Ströme, und zweitens um die Erzeugung induzierter Ströme handeln.

Erster Haupt- Ein Zylindrischer Stab werde in der Richtung seiner Länge von einem

***** Strom durchflössen. Dann werden, wie zuerst 0 e r s t e d gezeigt hat, auf benach-

Erster und zweiter Hauptsatz 3 in

harte Magnetpole Kräfte ausgeübt, deren Richtung durch kreisförmige Kraft- linien mit ihren Ebenen senkrecht zum Stab und ihren Mittelpunkten in dessen Achse vorgezeichnet wird. Das Merkwürdige dabei ist nun, daß ein isolierter Magnetpol gesetzt, man könne mit einem solchen experimentieren ~, wenn er sich etwa in einem ringförmigen, der Kraftlinie folgenden Rohr bewegen könnte, von der magnetischen Kraft fortwährend mit beschleunigter Bewegung herumgetrieben werden würde, während die Schwerkraft und überhaupt alle nach festen Zentren gerichteten Kräfte eine derartige Bewegung in geschlossener Bahn nicht hervorzubringen vermögen. Offenbar hat man es hier mit einer fundamentalen Eigentümlichkeit des vom Strome hervorgebrachten Magnet* feldes zu tun. Es kann bei der Bewegung in einer geschlossenen Linie eine ge- wisse Arbeit verrichten, positiv für die eine und negativ für die andere Um- laufsrichtung.

Zur Abkürzung möge die Arbeit der magnetischen Kraft, wenn ein Nord» pol von der Stärke Eins die geschlossene Linie durchläuft, ihre ,, Gesamtwirkung für die Linie** genannt werden. Sie hat für jede den Stromleiter umkreisende Linie einen bestimmten Wert, und zwar unabhängig von dem Lauf der Linie; es ist einerlei, ob sie eine Kraftlinie ist oder nicht. Die Gesamtwirkung ist posi- tiv, wenn zwischen dem Sinn der Umkreisung und der Richtung des Stromes dieselbe Beziehung wie zwischen der Drehung und der Fortbewegung eines ge- wöhnlichen Korkziehers besteht. Die Größe der Wirkung erhält man durch Multiplikation der Stromstärke mit einem Faktor, der, sobald die Einheiten für Elektrizität und Magnetismus festgelegt worden sind, einen ganz bestimmten Wert hat. Die Bedeutung dieser universellen Konstante erkennt man am ein- fachsten, wenn man sich vorstellt, daß der Zylinder pro Längeneinheit die Ein- heit der Elektrizität enthält, und sich dann fragt, mit welcher Geschwindigkeit diese verschoben werden müsse, damit für jeden den Stab umschlingenden Weg die Gesamtwirkung der magnetischen Kraft gerade den Wert Eins habe. Dazu ist eine bestimmte ,, kritische'* Geschwindigkeit erforderlich, und diese ist es nun. Kritische Ge- die als Konstante in den Formeln auftritt. .chwindigkeit.

Indem Maxwell die hier angegebene Beziehung zwischen der Gesamt- wirkung der magnetischen Kraft und der Elektrizitätsbewegung als allgemein gültig annahm, durch welche Körper hindurch die geschlossene Linie auch laufe, und welcher Art die Elektrizitätsbewegung sei, ob sie in einem Leitungsstrom oder in einer dielektrischen Verschiebung bestehe, hatte er das, was man den ersten Hauptsatz seiner Theorie nennen kann, gefunden. Der zweite Haupt- satz, das allgemeine Gesetz der induzierten Ströme, lautet ganz ähnlich. zweiter Haupt

In dem Zylinder bestehe jetzt eine magnetische Induktion, die sich im ****• Laufe der Zeit ändere; wir denken uns, bildlich gesprochen, eine Bewegung des magnetischen Fluidums, einen Induktionsfluß**. ^) Dann wird in einem den Zylinder umschließenden Leitungsdraht ein Strom induziert, woraus zu schlie- ßen ist, daß ein Induktionsfluß die Elektrizität im Kreise herumzutreiben ver-

x) Hier wird unter ,»Induktionsfluß*' eine Änderung der Induktion verstanden. Oft wen- det man das Wort an, um die Induktion selbst zu bezeichnen.

32p IS- H. A.LORENTZ: Die Biaxwellsche Theorie und die Elektronentheorie

mag, ebenso wie ein elektrischer Strom einen Magnetpol. Die Analogie geht so weit, daß die Gesamtwirkung der elektrischen Kraft in genau derselben Weise mit dem Induktionsfluß zusammenhängt, wie die. Gesamtwirkung der magne- tischen Kraft mit der Elektrizitätsbewegung. Nur ist .dabei die Regel für das algebraische Vorzeichen unizukehren. Daß dies notwendig ist und daß ferner wieder dieselbe kritische Geschwindigkeit wie oben ins Spiel kommt, läßt sich aus dem Gesetz der Erhaltung der Energie ableiten.

Übrigens ist das Induktionsgesetz leicht dahin zu verallgemeinern, daß es auch die durch Bewegung von Leitern, oderrmagnetisierten Körpern erzeugten Ströme umfaßt.

In den beiden Hauptsätzen liegt eingeschlossen, daß die Gesamtwirkung der magnetischen Kraft für eine geschlossene Linie jedesmal dann Null ist, wenn keine Elektrizitätsbewegung vorhanden ist, und ebenso die Gesamtwirkung der elektrischen Kraft in denjenigen Fällen, wo keine Änderung der magnetischen Induktion stattfindet. Es sind dies Folgerungen, die sich leicht an den vorher benutzten Beispielen verifizieren lassen und die. in Verbindung mit den Sätzen von der stauungsfreien Verteilung des Stromes und der magoetischen Induk- tion die Grundlage für die. Lösung mancher Probleme bilden können»

Man kann noch hinzufügen, daß jene stauungsfreien Verteilungen ebenfalls in den Hauptsätzen enthalten sind, insofern sie bei diesen notwendig voraus- gesetzt werden müssen. Wäre z. B. in einem stromführenden Draht die Strom- stärke nicht in allen Teilen dieselbe, so könnte man gar nicht wissen, welche Stromstärke für die Gesamtwirkung der magnetischen Kraft in einer beliebigen Linie maßgebend wäre. .

Diese Bemerkungen lassen erkennen, wie umfassend die einfachen Sätze sind, in denen abgesehen von gewissen Fragen, die sich auf bewegte Körper beziehen der allgemeine Teil der Elektrizitätslehre jetzt zum Abschluß ge- kommen ist, und denen der spezielle Teil unterzuordnen ist, der von den Eigen- schaften der verschiedenen Substanzen, dem Wesen der elektromotorischen Kräfte, der Elektrolyse, den Entladungserscheinungen usw. handelt.

Elektro. Der Raum läßt nicht zu, auf die mannigfachen Anwendungen der Max-

weiien. wellschcu Thcoric einzugehen. Indes darf ein Schluß, den man aus ihr gezogen hat und der für das Verständnis der Naturerscheinungen von weittragender Bedeutung ist, nicht unerwähnt bleiben.

Maxwell leitete aus seinen Formeln ab, daß Störungen des elektromagne» tischen Gleichgewichtes sich wellenartig ausbreiten können. In einem Di- elektrikum kann das so geschehen, daß die Fortpflanzung überall in derselben Richtung, etwa von links nach rechts stattfindet, und daß der Zustand in einer beliebigen auf der Fortpflanzungsrichtung senkrechten Ebene („Wellenfront'') an allen Stellen der gleiche ist. Überall bestehen eine elektrische und eine ma- gnetische Kraft, die senkrecht zueinander und beide senkrecht zur Fortpflan- zungslinie gerichtet sind, und man findet den in einem bestimmten Augenblick in einer Wellenfront bestehenden Zustand nach einiger Zeit genau so in einer

Elektromagnetische Wellen 321

weiter nach rechts liegenden Ebene wieder; die Gleichgewichtsstörung ver- schiebt sich fortwährend mit einer bestimmten Geschwindigkeit. Wechseln nun hierbei in einem bestimmten Punkte unaufhörlich die Richtungen der beiden Kräfte, so zeigt sich in ein und demselben Moment auf einer in der Fortpflan- zungsrichtung gezogenen Gerade eine ebenso regelmäßige Abwechslung ent- gegengesetzter Zustände. Man hat es mit einer ,, wellenartigen Fortpflanzung elektromagnetischer Schwingungen** zu tun.

Die Theorie bestimmt auch die Größe der Fortpf lanzungsgeschwindigkeit, und zwar muß diese im Äther eben die kritische Geschwindigkeit sein, von der oben die Rede war, und für welche elektromagnetische Messungen einen dem der Lichtgeschwindigkeit gleichen Wert ergeben hatten. Dies, in Verbindung mit dem Umstände, daß die elektrischen Schwingungen ebenso wie man es von Elektro- den Lichtschwingungen schon wußte, senkrecht zur Fortpf lanzungsrichtung ^*Sh^ri«^ stehen, führte Maxwell zu der kühnen Hypothese, daß das Licht in sehr rasch wechselnden elektromagnetischen Schwingungen bestehe. Mit diesem genialen Gedanken wurden zwei Gebiete der Physik, die ursprünglich völlig voneinander getrennt waren, zusammengeschmolzen, und wurde die Optik zu einem Zweig der Elektrizitätslehre.

Die spätere Forschung hat Maxwells Hypothese auf das glänzendste be- stätigt und die „elektromagnetische Lichttheorie** ist jetzt als eine endgültige Errungenschaft zu betrachten. Viel haben dazu die berühmten Versuche bei- getragen, durch die Heinr, Hertz die von Maxwell vorhergesagte Fortpflan- Hort*«chc zung elektromagnetischer Wellen experimentell nachwies (vgL Artikel 14). Er ^""^ * zeigte, und andere Physiker sind hierin noch weiter gegangen, daß trotz der Verschiedenheit der Wellenlängen die „Strahlen elektrischer Kraft**, wie er sie nannte, im ganzen dieselben Eigenschaften wie die Lichtstrahlen besitzen; sie können wie diese gespiegelt, gebrochen und polarisiert werden.

Die schönste und wertvollste Bestätigung einer physikalischen Theorie liegt in der quantitativen Übereinstimmung der aus ihr gezogenen Folgerungen mit den Beobachtungsresultaten. Einige schlagende Beispiele dieser Art dürften genügen, um die Zuversicht, mit der das Licht für eine elektromagnetische Er- scheinung erklärt wird, zu rechtfertigen.

Erstens : für die kritische Geschwindigkeit liefern die zuverlässigsten elek- Kritische Ge- tromagnetischen Messungen Werte zwischen 299,8 und 300,1 Millionen Metern "^J*J^^f'* pro Sekunde, und eben zwischen diesen Grenzen bewegen sich auch die für die gwchwindig- Geschwindigkeit des Lichts erhaltenen Werte. Dies ist die Übereinstimmung, die Maxwell zu seiner Hypothese führte.

Zweitens: wie Maxwell aus der Theorie folgerte, muß der Brechungs- Dieiektridtäts- exponent eines Dielektrikums der Quadratwurzel aus seiner Dielektrizitäts- ^ 3*^^*^^^!*"^ konstante gleich sein. Boltzmanns Bestimmungen der letzteren Größe für «?<>«»««*• Gase haben das in sehr befriedigender Weise bestätigt. Für Luft fand er 1,00059, eine Zahl, deren Quadratwurzel genau mit dem Brechungsexponenten über- einstimmt.

Jedoch ist Maxwells Formel für den Brechungsexponenten nur als erste

K. d. G. m. m, Bd t Physik 2 1

322 15* H. A. LORENTZ: Die Maxwellsche Theorie und die Elektronentheorie

Annäherung zu betrachten. In ihrer einfachsten Form läßt nämlich die elektro- magnetische Lichttheorie die Farbenzerstreuung, die ungleiche Brechbarkeit verschiedener Lichtarten unerklärt. Später wird sich zeigen, wie diese Lücke beseitigt worden ist, jetzt sei nur gesagt, daß bei sehr rasch wechselnden elektri- schen Kräften, wie sie in einem Lichtstrahl existieren, die Beziehung zwischen der Kraft und der Verschiebung sich nicht immer durch denjenigen Wert der Dielektrizitätskonstante ausdrücken läßt, welchen man aus Versuchen mit konstanten oder langsam sich ändernden Feldern ableitet. Optuchc Eigen- Ähnlich liegen die Verhältnisse bei den Metallen. Hier rufen die im Licht- MeteUe. Strahl bestehenden elektrischen Kräfte Leitungsströme hervor, die eine Wärme- entwicklung zur Folge haben, was nur möglich ist, wenn die Energie der Schwin- gungen vermindert und also das Licht absorbiert wird. So erklärte Max- well, was vor ihm unverständlich war, weshalb die guten Elektrizitätsleiter gerade die am wenigsten durchsichtigen Körper sind. Das war gewiß ein schö- ner Erfolg. Als man aber aus der bekannten Leitfähigkeit den Grad der Durch- sichtigkeit zu berechnen versuchte, stieß man auf erhebliche Abweichungen. In den letzten Jahren ist es nun Hagen und Rubens gelungen, nach- zuweisen, daß für die äußersten infraroten Strahlen, also für Strahlen mit ver- hältnismäßig langen Wellen, das optische Verhalten eines Metalls mit großer Genauigkeit aus der gemessenen Leitfähigkeit berechnet werden kann. Sie fanden z. B., daß Spiegel aus Silber und Platin senkrecht auf sie fallende Strah- len bis auf 1,13 bzw. 2,82 Prozent zurückwerfen, während die aus der Leit- fähigkeit berechneten Zahlen 1,15 und 2,96 sind.

Die allgemeinen Anschauungen der Maxwellschen Theorie sind jetzt in der Physik zur vollen Herrschaft gelangt und liegen auch der Denkweise der modernen Elektrotechnik zugrunde, in der Spuren der älteren Theorien kaum vertchiedene noch ZU erkennen sind. Jedoch sind mannigfache Nuancierungen der Auffas- ^w^Th^rie*! sung möglich. Hertz hat einmal gesagt, die Maxwellsche Theorie bestehe in dem System der Maxwellschen Gleichungen, und in der Tat sind diese, deren Inhalt in Worten auszudrücken im vorhergehenden versucht wurde, wohl als feststehend anzusehen; schwerlich wird die spätere Entwicklung sie zu modi- Mathematischefizieren haben. Man kann sich nun mit der so gewonnenen mathematischen es rci ung. ß^g^hreibung der Erscheinungen begnügen, indem man mit den in den Formeln vorkommenden Symbolen für elektrische und magnetische Kraft usw. keine weiteren Gedanken verbindet, als den, daß sie gewisse Größen bezeichnen, die in irgendwelcher Weise den Zustand im elektromagnetischen Felde bestimmen, über deren Natur man sich aber nicht näher auszusprechen hat. Es genügt dies vollständig, um mit Hilfe der Gleichungen die Erscheinungen zu über- blicken und die eine aus der anderen zu deduzieren. Nur ist hinzuzufügen und das ist in der Tat möglich , wie man in jedem besonderen Falle aus beobacht- baren Größen, also in letzter Instanz aus Längen und Zeiten die numerischen Werte der in den Gleichungen vorkommenden Größen ableiten kann.

Die meisten Physiker werden es aber vorziehen, die Theorie in ein helleres

Verschiedene Auffassungen 323

und bunteres Gewand zu kleiden, und man kann nun verschiedener Ansicht sein über die Frage, welche Einkleidung am besten geeignet sei, dem Denk- vermögen zu Hilfe zu kommen. Selbstverständlich besteht hier, so lange man nicht gegen die allgemeinen Grundsätze verstößt, volle Freiheit. Der eine wird es vorziehen, mit den Kraftlinien zu operieren und ihnen eine mehr oder weniger selbständige Existenz zuzuschreiben, andere wird die stoffliche Vorstellung von der Elektrizität mehr ansprechen. Allerdings wird das für den besonderen Zweck dieses Artikels benutzte Doppelbild vielleicht wenig gefallen; mit Recht kann man an ihm tadeln, daß es ganz verschiedene Elemente für die Elektri- zität und den Magnetismus einführt und also gerade dann versagt, wenn es sich um das Wichtigste, um den wechselseitigen Zusammenhang handelt.

Man hat sich vielfach bemüht, zu einer einheitlichen Darstellung zu ge- Mechanitche langen, indem man z. B. die magnetischen Erscheinungen auf verborgene rotie- e«"^"'™«*««»- rende Bewegungen um die Kraftlinien zurückführte, von denen, wegen der inneren Verbindungen des Systems, die Elektrizitätsbewegung notwendig be- gleitet sein müßte. Die magnetische Energie wurde in diesem Gedankengange zu kinetischer, die elektrische aber zu potentieller Energie und, insofern in der- artigen Darstellungen alles nach den Gesetzen der Mechanik geschehen sollte, handelte es sich um eine „mechanische** Deutung oder Erklärung der elektro- magnetischen Phänomene.

Die Möglichkeit, eine solche zu finden, muß, wie mir scheint, zugegeben werden. Die Grundgleichungen des Elektromagnetismus lassen sich auf eine Form bringen, die genau gewissen allgemeinen Lehrsätzen der Mechanik entspricht, und man wird daher mechanische „Modelle** erfinden können, in denen die Er- scheinungen parallel zu den elektromagnetischen verlaufen. Nur stößt man in der Ausführung auf die Schwierigkeit, daß die Modelle, wenn sie nicht bloß für eine beschränkte Zahl von Vorgängen gelten sollen, so kompliziert werden und wohl auch notwendig werden müssen , daß sie kaum befriedigen können. Die Stellung der Mehrzahl der Physiker dieser Frage gegenüber dürfte denn auch die sein, daß sie geneigt sind, entweder auf eine mechanische Erklärung ganz zu verzichten, oder sie wenigstens nur für gewisse Teile des ganzen Ge- bietes zu konstruieren. Damit soll nicht geleugnet werden, daß die in allge- meinen Zügen bestehende Ähnlichkeit eines elektromagnetischen Systems mit einem mechanischen, die Analogie z. B. der beiden Energiearten mit der poten- tiellen und kinetischen Energie unter Umständen von hohem Wert sein kann.

II. Die Elektronentfaeorie.

Die Maxwel Ische Theorie beschränkt sich im wesentlichen auf die all- gemeinen Gesetze des elektromagnetischen Feldes und versucht es kaum, in die Vorgänge im Innern der Materie einzudringen. Aus dem Bedürfnis, diese dem Verständnis näherzubringen, ist die Elektronentheorie entstanden.

Sie war vorbereitet durch die Erklärung, die man seit langer Zeit von der Eiektroiytitche Elektrizitätsleitung in Elektrolyten gibt. Wenn aus einer Lösung von Chlor- wasserstoff, durch die ein Strom hindurchgeschickt wird, auf der einen Seite

Ionen.

21*

324 15* H.A. LORENTZ: Die Maxwellsche Theorie und die Elektronentheorie

Wasserstoff und auf der anderen Chlor zum Vorschein kommt, so liegt die Vor- stellung nahe, daß die Atome dieser Elemente in der Lösung positive bzw. nega- tive Ladungen besitzen, und infolgedessen von der elektrischen Kraft nach ent- gegengesetzten Seiten hingetrieben werden. Diese Betrachtungsweise hat sich GuioDea. als Sehr nützlich erwiesen und ist mit gutem Erfolge auf die Elektrizitätsleitung durch Gase übertragen worden. Wird ein Gas durch irgendeine äußere Ein- wirkung, etwa durch Bestrahlung mit ultraviolettem Licht, leitend gemacht, so rührt das daher, daß die Moleküle in entgegengesetzt geladene Teilchen, „Ionen", zerlegt worden sind (vgl. Artikel 2o). veriiaiten der Die Elcktroncntheorie nimmt nun an, daß überhaupt die elektromagne- ^en^^dLJT tischen Vorgänge, soweit sie sich in der Materie, im Gegensatz zum Äther, ab- Körpern. spielen, auf der Lagerung und der Bewegung äußerst kleiner geladener Teilchen beruhen. In den Metallen sind diese „Elektronen'* frei; daher die Leitfähig- keit dieser Körper. In den Nichtleitern dagegen haften sie an bestimmten Gleichgewichtslagen; indem sie aus diesen durch eine elektrische Kraft ver- schoben werden, wird der Körper polarisiert. Eine Magnetisierung aber ist als eine zirkulierende Bewegung der Elektronen aufzufassen.

Die Elektronen haben eine gewisse Ausdehnung, über die ihre Ladung in einer Weise, die oft unbestimmt gelassen werden kann, verteilt ist. Auch in ihrem Innern kann ein elektromagnetisches Feld bestehen; man kann sich das so denken, daß auch dort der Äther, der Träger des Feldes, sich befindet, ebenso wie auch im Innern der ungeladenen Teilchen. Diese letzteren können das Feld in keiner Weise beeinflussen und machen sich nur durch die Kräfte, die sie auf die Elektronen ausüben, bemerklich. GrandtitM Man kann nun in der Analyse der Erscheinungen mehr oder weniger weit

gehen. Die eigentlichen Grundgleichungen der Theorie beziehen sich auf das Feld mit allen Einzelheiten, die es in der unmittelbaren Nähe und im Innern jedes Teilchens zeigt; sie beanspruchen also, eine sehr feine Schilderung des Zustandes zu liefern. Aus diesen Formeln lassen sich, indem man gleichsam die allzu feinen Details verwischt, andere ableiten, die sich auf die der Beobach- tung zugänglichen Größen, den Leitungsstrom, die Polarisation eines Dielektri- kums usw. beziehen.

Die Grundgleichungen bringen wieder die Hauptsätze der Maxwel Ischen Theorie zum Ausdruck, mit der Vereinfachung jedoch, daß, da der Äther das einzige Medium ist, von einer magnetischen Induktion, im Gegensatz zu der magnetischen Kraft, nicht die Rede zu sein braucht. Der elektrische Strom, von dem das magnetische Feld abhängt, setzt sich jedoch aus zwei Teilen zu- sammen. Der erste ist der Verschiebungsstrom im Äther, der zweite aber be- Konvektioiii. steht in der Bewegung der Ladung und kann als ,,Konvektionsstrom'' bezeich- •*""• net werden. Daß Konvektionsströme eine magnetische Wirkung hervorbringen können, hat zuerst Rowland an rasch rotierenden, geladenen Scheiben gezeigt. Der resultierende, aus den beiden Teilen zusammengesetzte Strom ist jedes- mal stauungsfrei über den Raum verteilt. Auf ein Elektron Als wcitcrc Grundlage der Theorie ist das Gesetz für die auf ein Elektron

wirkende Kraft.

Grundsätze der Elektronentheorie. Anwendungen 325

wirkende Kraft zu erwähnen. Für ein ruhendes Elektron hat man es nur mit der Kraft zu tun, die im vorhergehenden als ,, elektrische*' bezeichnet wurde. Für ein bewegliches Teilchen kommt, falls es sich in einem Magnetfelde befindet, noch eine zweite Kraft hinzu. Diese steht senkrecht auf der durch die Be- wegungsrichtung und die Richtung der magnetischen Kraft gelegten Ebene, und für ihre Größe ist, wenn man die Geschwindigkeit in zwei Komponenten, die eine parallel und die andere senkrecht zur magnetischen Kraft zerlegt, nur die letztere Komponente maßgebend. Man erhält nämlich die gesuchte Kraft pro Einheit der Ladung, wenn man die Größe der Feldstärke mit dem Verhält- nis zwischen jener Geschwindigkeitskomponente und der kritischen Geschwin- digkeit multipliziert. Ob die Kraft das Elektron nach der einen oder der anderen Seite der genannten Ebene treibt, hängt vom Vorzeichen seiner Ladung ab ; es gilt hierfür eine einfache Regel, die hier aber nicht angeführt zu werden braucht.

Mit diesen Grundsätzen, die es ermöglichen, einerseits bei gegebener Be- wegung eines Systems von Elektronen das Feld zu berechnen, und anderseits die Bewegung der Elektronen unter dem Einfluß des Feldes und etwaiger durch die Materie ausgeübten Kräfte zu studieren, konnte man nun an die einzelnen Erscheinungen herantreten, wodurch manches aufgeklärt wurde. Man hat EruimDg z. B. eine befriedigende Theorie der Farbenzerstreuung entwickelt. Sie schließt Jretreiu^. sich an frühere Betrachtungen von Sellmeyer und Helmholtz an, nur daß die von diesen Physikern vorausgesetzten, durch das Licht in Mitschwingung gesetzten kleinen Teilchen jetzt Elektronen sind.

Wirkt auf diese ein Widerstand, der die regelmäßigen Schwingungen in Absorption ungeordnete Wärmebewegung verwandelt, so wird das Licht absorbiert. Ander- **^^ LStoT seits sind in einem leuchtenden Körper schwingende Elektronen vorhanden, von denen die Emission ausgeht. Befindet sich die Lichtquelle in einem magne- tischen Felde, so wirkt auf die Teilchen die obengenannte, vom Magnetfeld zeeman-Bffekt. herrührende Kraft; dadurch wird, wenigstens in den einfachsten Fällen, der Zee man -Effekt erklärlich.

Speziell möge noch der zuerst von Drude entwickelten „Elektronen- Biektronen- theorie der Metalle** gedacht werden. In dieser wird angenommen, daß die 22^.***^ freien, in den molekularen Zwischenräumen liegenden Elektronen, in deren Fort- führung ein Leitungsstrom besteht, sich, wie überhaupt alle kleinen Teilchen, an der Wärmebewegung beteiligen; sie haben eine unregelmäßige, im Zickzack verlaufende Bewegung, deren Intensität von der Temperatur abhängt. Daher können sie auch bei der Wärmeleitung eine Rolle spielen. Drude hat die funda- mentale Tatsache erklärt, daß die besten Elektrizitätsleiter auch die besten Wärmeleiter sind, und es gelang ihm sogar, das Verhältnis zwischen den beiden Leitfähigkeiten in schönster Übereinstimmung mit den experimentellen Ergeb- nissen, aus anderweitigen Daten numerisch zu berechnen (vgl. Artikel 20).

Allerdings liegen auf den hier kurz berührten Gebieten noch viele unge- löste Probleme, von denen einige große Schwierigkeiten bieten, vor, wie über- haupt anerkannt werden muß, daß die physikalischen Theorien in das Wesen der Materie bis jetzt nur sehr oberflächlich einzudringen vermögen.

32Ö 15. H. A. LORBNTZ: Die Maxwellsche Theorie und die Elektronen theorie

Fraia Ein besonders glücklicher Umstand war es nun für die Elektronentheorie,

KoHM^ü^. daß es in verschiedenen Fällen geladene Teilchen gibt, die sich dem Zusammen- ■*'*"*°' hang mit der Materie ganz entzogen haben. Sie können beobachtbare Effekte (Ionisierung eines Gases^ photographische Wirkung, Fluoreszenz) hervorrufen, wenn sie sich in großer Zahl in derselben Richtung mit beträchtlicher Geschwin- digkeit bewegen. Man hat es dann mit einer „Korpuskularstrahlung** zu tun. Unter dem Einfluß ultravioletten Lichtes entweichen aus gewissen Körpern negative Elektronen („lichtelektrischer Effekt**). Die unter geeigneten Um- ständen in einem Entladungsrohr erzeugten „Kathodenstrahlen** tragen nega- tive Ladung, wie sich direkt zeigen läßt, wenn man sie in einem Metallzylinder auffängt, während die „Kanalstrahlen**, eine andere Form der Entladungs- erscheinung, aus positiven Teilchen bestehen. Hierzu kommen noch die wun- dervollen Strahlungen der radioaktiven Körper; in den ,,a-Strahlen*' werden positiv geladene Teilchen, in den ,,ß- Strahlen** negative Elektronen fortge- schleudert (vgl. Artikel 21, 22y 24, 25). Röntganttnhien Nebenbei sei bemerkt, daß die „Röntgenstrahlen** und die ,,Y-Strahlen**

and /.Strahlen, j^^. radioaktiven Körper wohl nicht korpuskularer Natur sind, sondern viel- mehr in einer Erschütterung des elektromagnetischen Gleichgewichts bestehen. Die Theorie lehrt, daß von einem Elektron bei jeder Änderung seiner Ge- schwindigkeit eine Strahlung ausgeht, und so wird es begreiflich, daß jedes Kathodenstrahlteilchen in der Röntgenröhre bei seinem Aufprall auf die Anti- kathode das Zentrum einer elektromagnetischen Welle wird (vgl. Artikel 23). Eiektritches Man kann aus Versuchen die Größe der Ladung und der Masse der kleinen ^qrato^ Teilchen, sowie die Geschwindigkeit der Korpuskularstrahlen ableiten. Dabei hat sich als höchstwahrscheinlich herausgestellt, daß nicht jeder beliebige Wert der Ladung vorkommt, sondern daß diese nie kleiner als ein bestimmter Betrag, das „elektrische Elementar quantum**, ist. Größere Ladungen sind immer Vielfache dieses Quantums (vgl. Artikel 11 und 13).

Das Elementarquantum trifft man zunächst bei den Wasserstoffionen, z. B. in der Chlorwasserstofflösung, und ebenso bei allen sonstigen einwertigen Ionen an. Aus den Gesetzen der Elektrolyse hatte man schon längst gefolgert, daß derartige Ionen alle mit gleichen Ladungen versehen sind, die mehrwertigen Ionen dagegen, nach Maßgabe ihrer chemischen Wertigkeit, mit Multipla dieses Betrages (vgl. Artikel 20). Helmhol tz sprach daher bereits von ,,Elektrizitäts< atomen**. Diese natürliche Elektrizitätseinheit hat man nun in den später unter- suchten Fällen wiedergefunden und kein Physiker zweifelt daran, daß z. B. die Teilchen der Kathodenstrahlen und der ß-Strahlen je mit einem Elementar- quantum geladen sind. Die Gründe, die für diese Annahme sprechen, können hier nicht weiter auseinandergesetzt werden. Um jedoch das allgemeine Vor- kommen des Elementarquantums einigermaßen zu beleuchten, sei hervorge- hoben, daß die obenerwähnte numerische Übereinstimmung von Drudes Rech- nungen mit den Versuchsergebnissen daher rührt, daß er den Elektronen in den Metallen die Ladung des Wasserstoffions zuschreibt. GröBe det Eie- Bei der Elektrolyse des Chlorwasserstoffs kann man beobachten, wieviel

mentarqoantnmt.

Freie geladene Teilchen. Korpuskularstrahlen 327

Milligramm Wasserstoff entwickelt werden, wenn man eine bekannte Elektri- zitätsmenge durch die Lösung hindurchschickt. Da nun diese Menge eben von den in Freiheit gesetzten Wasserstoffatomen getragen wird, so kann man an- geben, wieviel Elektrizität auf jedes Atom entfällt, sobald man weiß, wie viele Atome in einem Milligramm enthalten sind.. Das elektrische Elementarquan- tum ist also der Größe nach bekannt, wenn es gelingt, die absolute Größe der Atome zu ermitteln. Darin hat man in den letzten Jahren erhebliche Fort- schritte gemacht, so daß man von wirklichen Bestimmungen und nicht, wie vordem, bloß von Schätzungen der Größenordnung sprechen kann. Verschie- dene Erscheinungen wurden da herangezogen, namentlich das Verhalten kleiner, in Flüssigkeiten suspendierter Teilchen, die radioaktiven Umwandlungen und die Strahlung erhitzter Körper. Man kennt jetzt die gesuchte Ladung bis auf einige Prozente und darf hoffen, daß die nächste Zukunft die noch bestehenden Unsicherheiten wird verschwinden lassen.

Die elementare Ladung hat eine solche Größe, daß zwei Körperchen, deren jedes das Tausendmillionenfache derselben trüge, auf ein Zentimeter Ent- fernung eine dem Gewicht von 0,22 mg gleiche Kraft aufeinander ausüben würden.

Methoden zur Bestimmung der Geschwindigkeit von Korpuskularstrahlen Geschwindigkeit und der Masse ihrer Teilchen lassen sich nun leicht ersinnen. Man denke sich^^'^^JJ^"**'" etwa ein Bündel Kathod^nstrahlen einmal einem elektrischen, und bei einem zweiten Versuch einem magnetischen Felde ausgesetzt, so daß jedesmal das Feld senkrecht zu den Strahlen gerichtet ist. In beiden Fällen wirkt dann auf die Elektronen eine senkrecht auf der Bewegungsrichtung stehende Kraft, die eine Ablenkung vom geradlinigen Weg zur Folge hat. Die Krümmung der Bahn ist der Kraft proportional, und da nun, wenn die Feldstärken den gleichen numerischen Wert haben, nach dem oben gesagten das Verhältnis zwischen den Kräften bei den zwei Versuchen durch das Verhältnis zwischen der Strahlen- geschwindigkeit und der kritischen Geschwindigkeit gegeben ist, so kann man dieses letztere Verhältnis, und somit die Strahlengeschwindigkeit aus den be- obachteten Krümmungen ableiten. Ist man soweit gekommen, dann ergibt sich die Masse der Elektronen aus der im elektrischen Felde bestehenden Krüm- Masse mung. Aus dieser, in Verbindung mit der Geschwindigkeit, berechnet sich näm- ^** Teü^r*" lieh die Beschleunigung, und anderseits aus der gemessenen Feldstärke und der bekannten Ladung die auf ein Elektron wirkende Kraft. Nach dem be- kannten Grundgesetz der Mechanik erhält man schließlich den Wert der Masse, wenn man den numerischen Wert der Kraft durch den der Beschleunigung dividiert (vgl. Artikel 21).

Für die Masse der positiven Teilchen hat man nun Werte von derselben Positiv geladene Größenordnung wie die Masse der Atome gefunden; ohne Zweifel sind diese Atome. Teilchen nichts anderes als geladene Atome chemischer Elemente. Es ist direkt nachgewiesen worden, daß die a-Teilchen Heliumatome (mit je einem doppelten Elementarquantum) sind. Die Kanalstrahlen aber bestehen aus Atomen des Gases, in dem sie erzeugt werden.

328 15. H. A. LORKNTZ: Die Maxwellsche Theorie und die Elektronentheorie

Masse der nefca- Ganz anderer Art sind die negativen Elektronen. Für sie hat man nämlich, "*"' sowohl auf dem angegebenen Wege wie auch aus der Untersuchung des Zee- man- Effektes, eine viel kleinere Masse, etwa den 1800*^ Teil von dem eines Wasserstoffatoms, gefunden. Da nun die in verschiedenen Fällen erhaltenen Werte nicht mehr auseinandergehen als die Versuchsfehler erwarten lassen, so ist man zu der Vorstellung gekommen, daß die negativen Elektronen in allen Fällen, sie mögen in der Materie eingeschlossen sein oder außerhalb der- selben frei weiterfliegen, dieselben sind, so daß man in ihnen unter allen Um- ständen gleichartige Elemente der materiellen Welt zu erblicken hat.

Diese kleinsten aller bekannten Teilchen sind zu gleicher Zeit die beweg- lichsten. Während die Geschwindigkeit der a-Strahlen höchstens der I2*" Teil der Lichtgeschwindigkeit und die der Kanalstrahlen noch beträchtlich klei- ner ist, hat man bei Kathodenstrahlen das Drittel der Lichtgeschwindigkeit erreichen können, und gibt es unter den ß- Strahlen solche, deren Geschwindig- keit der des Lichtes noch erheblich näherkommt. Diese Strahlen höchster Ge- Andening schwindigkcit sind nun vor allem deswegen interessant, weil die an ihnen ge- strigen^ der machten Beobachtungen zu neuen, auf den ersten Blick sehr überraschenden ^***^klit *^^ Schlüssen geführt haben. E^ stellt sich nämlich für die Masse ein um so größerer Wert heraus, je rascher die Teilchen sich bewegen, ein Resultat, das man auch so ausdrücken kann, daß bei Steigerung der Geschwindigkeit die mit ihr ver- bundene kinetische Energie nicht, wie es bei konstanter Masse der Fall sein müßte, proportional dem Geschwindigkeitsquadrat, sondern rascher als dieses zunimmt. Um zu einer [Deutung dieses merkwürdigen Ergebnisses zu gelangen, wird es nötig sein, noch einmal zu den theoretischen Betrachtungen zurückzukehren. Verhalten der Obgleich man sich mit der Elektronentheorie einigermaßen den älteren tbM>ri^°ta Auffassungen genähert hat, so steht sie doch ganz auf dem Boden der Maxwell- •nJ^en sehen Anschauungen. Dies zeigt sich darin, daß auch nach ihr alle Wirkungen durch den Äther von einem Teilchen nach dem anderen übertragen werden, und daß die elektrische und die magnetische Energie in diesem Medium lokalisiert werden.

Solange ein Elektron ruht, ist nur die elektrische Energie vorhanden, aber wenn es sich bewegt und infolgedessen ein magnetisches Feld erzeugt, kommt Energie eines ein gcwisscr Betrag an magnetischer Energie hinzu, während gleichzeitig die ^JifiJ^. elektrische wegen der mit der Bewegung verbundenen Änderung des Feldes einen anderen Wert annimmt. Alles zusammengenommen übertrifft die Gesamt- energie die im Ruhezustand bestehende um einen Betrag, den man, da er von der Bewegung herrührt, die „kinetisch-elektromagnetische Energie'* nennen könnte. Die Rechnung lehrt nun, daß dieser Betrag bei Vergrößerung der Geschwindig- keit rascher als deren Quadrat wächst, geradeso wie die Versuche haben er- kennen lassen. Man kann sich sogar von der beobachteten Zunahme am be- friedigendsten Rechenschaft geben, wenn man annimmt, die Bewegungsenergie, die sich in den Beobachtungen bemerklich macht, sei einzig und allein jene kine- tisch-elektromagnetische Energie; es sei ein Anteil, welcher der kinetischen Energie einer gewöhnlichen Masse entspräche, gar nicht vorhanden.

Elektromagnetische Masse 329

Diese Überlegungen haben dazu geführt, den negativen Elektronen jeg- Eiektro- liche materielle Masse abzusprechen. Sie werden sozusagen zur reinen, von der ^Mwifd«* Materie losgelösten Elektrizität oder elektrischen Ladung, und haben keine "®j[***^®° andere als die „elektromagnetische Masse'", womit die gemeint ist, die das Vor- handensein des Feldes uns gleichsam vortäuscht. Man kann ja ein Elektron nicht in Bewegung setzen, ohne das entsprechende Feld mit seiner kinetisch- elektromagnetischen Energie hervorzubringen, und das erfordert ebensogut, wie wenn das Teilchen eine materielle Masse hätte, einen Arbeitsaufwand.

Es ist vielleicht angemessen, diese ganz eigenartigen Teilchen mit einem besonderen Namen zu bezeichnen. Viele Physiker reservieren das Wort „Elek- tronen** für sie, und auch die Benennungen „Korpuskel**, „Kerne**, Quanten** sind vorgeschlagen worden.

Schließlich möge ein Zahlenwert eine Vorstellung von der winzigen Klein- Diinon«ionen heit der negativen Elektronen geben. Kugelförmige Gestalt und gleichförmige Verteilung der Ladung über die Oberfläche vorausgesetzt, findet man aus der Ladung, verbunden mit der elektromagnetischen Masse oder mit der bei bestimmter Geschwindigkeit bestehenden Bewegungsenergie für den Durch- messer etwas weniger als vier Zehnbilliontel Zentimeter, Es ist das etwa der 50000*" Teil des Durchmessers der kleinsten Atome.

Unter den optischen Erscheinungen gibt es eine Gruppe, nämlich die astro- Astronomische nomische Aberration und was mit ihr zusammenhängt, die für die Elektronen- ^^•"^°"* theorie von besonderer Bedeutung ist.

Die scheinbare Ablenkung vom wahren Ort, welche die Sterne infolge der jährlichen Bewegung^) der Erde erleiden, fand in der Emissionstheorie des Lichtes eine sehr einfache Erklärung; man brauchte nur zu berücksichtigen, daß die Richtung, in der man einen Himmelskörper beobachtet, durch die relative Bewegung des Lichtes in bezug auf die Erde bestimmt wird. Als dann aber Fresnel versuchte, diese Betrachtung in die Undulationstheorie zu übertragen und zu erklären, daß man auch mit aus Linsen zusammengesetzten Fernröhren die nach der Regel der Emissionstheorie berechnete Aberration zu sehen be- kommt, sah er sich genötigt, zwei Hypothesen einzuführen. Erstens, daß der Äther gar nicht an der Bewegung der Materie teilnimmt, daß sogar die Erde durch ihn hindurchgeht, ohne ihn im geringsten von der Stelle zu rücken, und zweitens, daß ein durchsichtiger Körper, der sich durch den Äther bewegt, den in ihm sich fortpflanzenden Lichtwellen nur einen Bruchteil seiner eigenen Fremcis Geschwindigkeit aufzwingt Wie groß dieser Bruchteil ist, hängt von dem Bre- ^°«*fi««"*- chungsexponenten des Körpers ab, und wird durch Fresnels berühmten „Mit- führungskoeffizienten** angegeben.

Fresnels erste Hypothese bedeutet, daß der Äther durch alle auf der Erde befindlichen Gegenstände mit einer Geschwindigkeit von 30 000 m pro Sekunde

i) Im folgenden ist stets nur von dieser Bewegung, die in jedem Augenblick als eine ge- radlinige Verschiebung betrachtet werden kann, die Rede. Der Einfluß der Rotation ist un- merklich.

330 15- H. A.LoR£NTZ: Die Maxwellsche Theorie und die Elektronentheorie

üiiabiisagigk«it hindurchbläst und es erhob sich daher die Frage, ob das nicht einen Einfluß

eiektro- auf das Rcsultat mancher optischen Versuche haben müsse. Tatsächlich ist von

^^^t^^'n einem solchen Einfluß,, obgleich man sich viele Mühe gegeben hat, ihn nachzu-

▼oa der Erd- weiseu, nie etwas bemerkt worden, und dieses negative Ergebnis ließ sich nun mit

bewegong. ' ' -

Hilfe des Fr esne Ischen Mitführungskoeffizienten recht befriedigend erklären. Es war offenbar wichtig, diese Fragen vom Standpunkte der elektromagne- tischen Lichttheorie zu behandeln, und so weit der Verfasser dieses Artikels an der Entwicklung der Elektronentheorie teilhatte^), wurde er eben durch die Hoffnung, zu einer Ableitung des Fr esne Ischen Koeffizienten zu gelangen, angeregt. Indem die Unbeweglichkeit des Äthers in die Grundlagen der Theorie aufgenommen wurde, konnte die Aufgabe ohne Mühe gelöst werden. Es wurde nachgewiesen, daß alle optischen und überhaupt alle elektromagnetischen Ex- perimente auf der Erdoberfläche unabhängig vom ,, Ätherwind** verlaufen müssen, wenigstens solange man sich auf Effekte beschränkt, die der ersten Potenz des Verhältnisses zwischen Erdgeschwindigkeit und Lichtgeschwindig- keit ( - J proportional sein würden, sogenannte ,, Effekte erster Ordnung**.

Schwächere, dem Quadrat dieses Verhältnisses proportionale Effekte („Effekte zweiter Ordnung**) konnten aber nicht ausgeschlossen werden; viel- mehr ließ die Theorie solche in gewissen Fällen vorhersehen. Das wichtigste Micheisoat Beispiel dieser Art gibt ein von dem amerikanischen Physiker Michelson aus- geführter Versuch.

Es handelt sich dabei um die Zeit, die das Licht braucht, um zwischen zwei fest mit der Erde verbundenen Punkten A und B hin und zurück zu gehen, ein- mal, wenn die Verbindungslinie A B die Richtung der Erdbewegung hat, und dann, wenn sie senkrecht darauf steht. Ein Zahlenbeispiel wird zeigen, daß es hier, wenn der Äther ruht, und also das Licht, sobald es A oder B verlassen hat, von der Erdbewegung ganz frei ist, einen Unterschied geben muß.

Gesetzt, die Entfernung AB betrage ein Meter und die Geschwindigkeit

der Erde sei von der des Lichtes. Dann ist im erstgenannten Fall die relative Geschwindigkeit des Lichtes in bezug auf die Erde bei der einen Richtung des Strahles, etwa von A nach B hin, " und bei der entgegengesetzten Richtung von der Lichtgeschwindigkeit. JDaraus findet man für den Weg, den das Licht beim Hingang in Wirklichkeit im Äther zurücklegt, j- m, und für den entspre- chenden Weg beim Rückgang m. Das macht zusammen 2,0202 m, während

bei ruhender Erde der zurückzulegende Weg 2 m sein würde.

Wenn dagegen A B senkrecht zur Erdbewegung steht, so sieht man leicht, daß die drei Punkte im Äther, wo das Licht A verläßt, B erreicht und wieder in A anlangt, die Eckpunkte eines gleichschenkligen Dreiecks mit der Spitze in B sind. Die Grundlinie ist die Strecke, die A zurücklegt, während das Licht seinen

i) Unter den Begründern dieser Theorie sind namentlich auch Larmor, Wiechert und M. Abraham zu nennen.

Unabhängigkeit der Erscheinungen von der Erdbewegung 331

Lauf vollbringt; sie muß also der zehnte Teil der doppelten Schcnkellänge sein. Anderseits ist die Höhe des Dreiecks i m. Aus diesen Daten ergibt sich für die Länge des Lichtweges 2,0101 m. Er ist also um ungefähr 0,01 m kürzer als im ersten Fall, offenbar eine Größe zweiter Ordnung, da für das Verhältnis der Erd- geschwindigkeit zur Lichtgeschwindigkeit -- angenommen wurde. Führt man

die Rechnung mit dem tatsächlich bestehenden Verhältnis durch, so findet

man für die Differenz ein hundertmilliontel Meter.

Wie man sieht, ist dies eine sehr kleine Größe. Sie wächst jedoch propor- tional der Entfernung der Punkte A und 5, und bei der von Michelson be- nutzten Versuchsanordnung war sie so groß, daß der entsprechende Unterschied der beiden Fortpflanzungszeiten des Lichtes dem Beobachter nicht entgehen konnte. Trotzdem war das Resultat des Versuchs entschieden negativ; auch jetzt wieder ließ sich ein Einfluß der Erdbewegung nicht erkennen (vgl. Artikel 34).

Dies hat nun Fitzgerald und Lorentz zu einer Hypothese geführt, der Änderung der man wohl schwerlich entgehen kann, und die ihrerseits interessante Konse- ein)» Körpen quenzen nach sich zieht. Sie besteht in der Annahme, daß infolge der Erd- 2^^^"°*' bewegung die in ihre Richtung fallenden Dimensionen eines Körpers in einem bestimmten Verhältnis verkürzt werden, während die zur Bewegungsrichtung senkrecht stehenden ungeändert bleiben. Man sieht leicht, daß sich so wirklich eine Kompensation des zunächst erwarteten Effekte; erreichen läßt. Sämtliche Teile des Michels onschen Apparates waren nämlich auf einer festen Unterlage montiert, und wenn die Dimensionen dieser letzteren die besagte Änderung er- fahren, so müssen die Punkte A und B sich in dem Fall, wo die Verbindungs- linie die Richtung der Erdbewegung hat, einander etwas nähern. Die Fort- pflanzungszeit des Lichtes wird infolgedessen verkleinert und bei geeignet ge- wähltem Verkürzungsmaß kann sie denselben Wert erhalten, wie die Fort- pflanzungszeit bei der anderen Lage des Apparates. Zu bemerken ist dabei, daß die erforderliche Kontraktion so geringfügig ist, daß sie sich jeder direkten Be- obachtung entziehen würde.

Obgleich die „Verkürzungshypothese** auf den ersten Blick sehr gewagt aussieht, so läßt sich doch einiges zu ihrer Rechtfertigung anführen. Wenn man sich vorstellt, daß die Molekularkräfte, ebenso wie die elektrischen Wirkungen, durch den Äther vermittelt werden, so wird es begreiflich, daß sie durch den „Ätherwind** modifiziert werden, und das kann in einer Änderung der Dimensi- onen zutage treten. Dazu kommt, daß man gerade die für die Kompensation erforderliche Kontraktion vorausberechnen kann, wenn man für die Modifi- kation der Molekularkräfte durch den Ätherwind ein ähnliches Gesetz annimmt, wie für die elektromagnetischen Wirkungen aus den Grundsätzen der Elektro- nentheorie abgeleitet werden kann.

Jedoch koimte man hierbei nicht stehen bleiben. Im Laufe der Jahre sind neue Versuche gemacht worden, bei denen es sich, ebenso wie beidemMichelson- schen, um Größen zweiter Ordnung handelte und die gleichfalls negativ aus- fielen. Auch diese sollten erklärt werden, und außerdem durfte man verlangen,

332 15- H.A. LORENTZ: Die Maxwellsche Theorie und die Elektronentheorie

daß der Nichterfolg aller Bemühungen, die Existenz des Ätherstromes nach- zuweisen, als notwendige Folgerung aus den in geeigneter Weise modifizierten Neae Gnmd- Grundlagen der Theorie dargestellt würden. Der Verfasser hat deshalb die Frage noch einmal aufgenommen. Er kam dabei zu dem Schluß, daß für jede Geschwindigkeit eines Systems, die kleiner als die Lichtgeschwindigkeit ist, die Vorgänge in dem System für einen Beobachter, der sich an der Bewegung be- teiligt, und der über zwar nicht absolut vollkommene, aber doch höchst ver- feinerte Beobachtungsmittel verfügt, genau so verlaufen müssen, wie wenn er samt dem System in Ruhe wäre, vorausgesetzt, daß man folgende Hypothesen einführt.

1. Die Elektronen selbst werden bei einer Translation verkürzt, so daß sie, ' wenn sie im ruhenden Zustand Kugeln sind, zu abgeplatteten EUipsoiden wer- den. Den Bruchteil, um den das Quadrat der Dimensionen in der Bewegungs- richtung verkleinert wird, erhält man, wenn man das Verhältnis zwischen der Translationsgeschwindigkeit und der Lichtgeschwindigkeit auf die zweite Po- tenz erhebt. Die Deformation beeinflußt in genau angebbarer Weise die elek- tromagnetische Masse der Elektronen.

2. Die Masse aller materiellen Teilchen ändert sich infolge einer Bewegung in derselben Weise wie die elektromagnetische Masse der Elektronen.

3. Ebenso hat eine Translationsbewegung ganz ähnlichen Einfluß auf die zwischen irgendwelchen Teilchen wirkenden Kräfte wie auf die elektroma- gnetischen.

Zu jeder dieser Hypothesen ist eine Bemerkung zu machen. Die erste ist einer experimentellen Entscheidung zugänglich, da nämlich das Gesetz, nach welchem sich die Masse mit der Geschwindigkeit ändert, verschieden ausfällt, je nachdem das Elektron als starr oder als in der angegebenen Weise deformier- bar betrachtet wird, und da anderseits Beobachtungen an ß-Strahlen oder Kathodenstrahlen hoher Geschwindigkeit dieses Gesetz kennen lehren können. Versuche in dieser Richtung sind von verschiedenen Seiten ausgeführt worden; zu endgültigen und übereinstimmenden Ergebnissen ist man dabei aber noch nicht gelangt. Elektro. DJe zweite Annahme behauptet, daß zwischen materiellen Atomen und

magnetische ..

Theorie der Elektroncu eine gewisse Ähnlichkeit bestehe. Sie schließt sich daher der Auf- Matene. fj^gg^j^g derjenigen Physiker an, die nicht nur die elektrischen Ladungen der kleinsten Teilchen als etwas sehr Wesentliches betrachten, sondern geradezu alle Materie auf elektrische Ladungen zurückführen wollen.^) Allerdings sind zu einer derartigen „elektromagnetischen Theorie der Materie** bis jetzt nur die ersten Anfänge gemacht worden.

Was endlich die offenbar mit der zweiten eng zusammenhängende dritte Annahme betrifft, so drückt sie eine Ähnlichkeit zwischen den elektromagne- tischen Wirkungen und den sonstigen scheinbaren Fernwirkungen aus. Sie involviert, daß alle Kräfte durch den Äther übertragen werden, und sich mit der

I) Hier sind z. B. die Vorstellungen J.J.Thomsons und Rutherfords über den Bau der Atome zu nennen.

Weitere Hypothesen 333

Geschwindigkeit des Lichtes ausbreiten. Man muß dies auch von der Schwer- kraft annehmen, wenn man verlangt, daß alle optischen Phänomene im Sonnen- system, etwa die Verfinsterungen der Jupitersatelliten, unabhängig von einer Gesamtbewegung des Systems sein sollen.

Was aber die auf den genannten Grundlagen beruhende Theorie betrifft, so litt sie noch an dem Mangel, daß die Unabhängigkeit von der Erdbewegung, die zu erreichen sie bemüht war, sich für einen mit ganz ideellen Mitteln aus- gerüsteten Beobachter n i c h t in allen Fällen ergeben würde. Zu einer vollkomme- nen Unabhängigkeit zu gelangen, ist erst Einstein mit seinem Relativitäts- ReUäritsu« prinzip gelungen. Darauf einzugehen wäre hier nicht am Platz, da der Relativi- ^"^'*' tätstheorie ein eigener Abschnitt dieses Werkes gewidmet ist (vgl. Artikel 34). Zum Schluß möge nur noch etwas von der Bedeutung des Äthers für die theore- Bedeutong tische Physik gesagt werden. Obgleich, wie die vorstehenden Ausführungen er- *' *" kennen lassen, die Rolle dieses Mediums immer an Bedeutung gewonnen hat, so sind anderseits die Bemühungen, in die Natur desselben tiefer einzudringen, stets mehr in den Hintergrund getreten. Nach der Entwicklung der Relativitäts- theorie sind manche Physiker sogar so weit gegangen, gar nicht mehr von einem Äther, sondern nur von dem sich im Raum ausbreitenden elektromagnetischen Felde zu sprechen. Die Frs^e, inwiefern dies zweckmäßig sei, muß hier dahin- gestellt bleiben. Zum Teil reduziert sie sich auf eine Wortfrage; will man auch nicht sagen, daß alle Kräfte durch den Äther übertrs^en werden, so wird man doch nach der Relativitätstheorie erklären müssen, daß sie sich alle mit der Geschwindigkeit des Lichtes im Raum fortpflanzen.

Literatur.

M. Faraday : Experimental researches in electricity, 3 vol., London 1839—1855. Deutsche Über- setzung in Ostwalds Klassikern d. exakten Wiss., Nr. 81. Leipzig 1896.

J. Clerk Maxwell: A treatise on electricity and magnetism, z voL, Oxford, i ed. 1873, 2 ed. 1881, 3 ed. 1892. Deutsche Obersetzung von Neesen.

H.Hertz: Untersuchungen über die Ausbreitung der elektrischen Kraft. Leipzig 1892.

G.Heaviside: Electromagnetic theory, 3 vol. London 1893, 1899, 1912.

J. Larmor: Aether and matter. Cambridge 1900.

E.WISCHERT: Grundlagen der Elektrodynamik (in »Festschrift zur Feier der |plnthüllung des Gauß -Weber -Denkmals in Göttingen^'). Leipzig 1899.

H. A.LORENTZ: Versuch einer Theorie der elektrischen und optischen Erscheinungen in be- wegten Körpern. Leiden 1895.

ABRAHAM FÖPPL: Theorie der Elektrizität, 2 Bde. 3. Aufl. Leipzig 1904.

i6.

ÄLTERE UND NEUERE THEORIEN DES MAGNETISMUS.

Von

R. Gans.

Unter den magnetischen Theorien, die von den Physikern aufgestellt wor- den sind, muß man zwei Arten als voneinander wesentlich verschieden unter- scheiden: erstens die phänomenologischen Theorien, welche die beobachteten Tatsachen einfach quantitativ durch ein System von mathematischen Formeln zu beschreiben beabsichtigen, ohne auf das Wesen des Magnetismus näher ein- zugehen, zweitens die Molekulartheorien, die bestrebt sind, die Erscheinungen zu erklären, indem sie sich ein Bild von dem Mechanismus machen, der die ma- gnetischen Kräfte hervorruft (vgl. Artikel 35).

Während der Vorzug der phänomenologischen Theorien der ist, daß sie mit einem Mindestmaß von Voraussetzungen und Hypothesen arbeiten, haben die Molekulartheorien das für sich, daß sie unser Bedürfnis nach Erklärung der Beobachtungen mehr befriedigen, indem sie uns auf Zusammenhänge der ma- gnetischen Vorgänge mit anderen Gebieten der Phsyik hinweisen und dazu bei- tragen, unseren Wunsch nach Vereinheitlichung in der Darstellung der Natur- erscheinungen zu erfüllen. Ferner setzen sie uns in den Stand, die Richtigkeit des Bildes, das wir uns gemacht haben, an den Beziehungen zu prüfen, die sie zwischen den Erscheinungen verschiedener Wissensgebiete verlangen. Die Coulomb- I. Die phänomenologischen Theorien. Die erste fundamentale Ge- sche *"»•<»"*• Setzmäßigkeit über die Kraftwirkung zwischen Magneten wurde im Jahre 1785 durch sehr sorgfältige Messungen von Coulomb gefunden und in seiner ,, zwei- ten Abhandlung über die Elektrizität und den Magnetismus, in der ermittelt wird, nach welchen Gesetzen sowohl die abstoßende wie die anziehende Wirkung des magnetischen und des elektrischen Fluidums vor sich geht**, veröffentlicht.^) Er maß mit einer von ihm konstruierten sog. Torsionswage durch die Tor- sion eines Messingdrahtes die Kraft, die ein Magnetpol auf einen anderen aus- übt, und fand, daß diese Kraft proportional dem Produkte der magnetischen Mengen der beiden Pole und umgekehrt proportional dem Quadrate der gegen- seitigen Entfernung derselben ist, und zwar ist die Kraft eine Anziehungs- resp. Abstoßungskraft, je nachdem die Pole ungleichnamig oder gleichnamig sind. Über das Wesen des Magnetismus hat sich Coulomb keine Hypothese gemacht, wie das auch Newton bei der Formulierung des Gesetzes der allge- meinen Anziehung von Massen nicht tat.

Coulombs Theorie, Potentialtheorie und Gaufi' Messung des Erdmagnetismus 335

Das Wesentliche an dem Gesetze ist, daß es eine unmittelbare Fernwirkung der magnetischen Mengen involviert, und da die Formen des Newtonschen Elementargesetzes für die allgemeine Gravitation sowie die des Gesetzes für die Anziehungs- und Abstoßungskräfte ruhender Elektrizität, das wir auch Cou- lomb verdanken, ganz analog sind, wie das Kraftgesetz des Magnetismus, so war durch dieses die Existenz solcher unvermittelter Fernkräfte noch wahr- scheinlicher gemacht.

Das Charakteristische einer Fernkraft ist dabei das, daß man nicht die An- nahme eines Zwischenmediums macht, wie es der Äther ist, das die Beeinflus- sung einer magnetischen Menge durch die andere vermittelt, daß ferner die Kraft keine Zeit gebraucht, um sich im Räume fortzupflanzen, daß die eigent- lichen Kraftzentren die magnetischen Mengen sind, und daß diese auch die örter darstellen, in denen man sich die magnetische Energie aufgespeichert denkt. Nach Coulomb befindet sich die magnetische Energie also im Inneren der Magnete.

Die Bedeutung der Coulomb sehen Entdeckung beruht darin, daß man auf po'««*»*!'^«»"«- Grund seines Gesetzes die Kräfte zwischen Magneten berechnen kann, daß es den Anlaß gab, die mathematischen Methoden zur Ermittlung der Kraftwirkung mit Hilfe der sog. Potentialtheorie auszubilden, und daß sie dem Göttinger Phy- siker, Mathematiker und Astronomen Gauß*) die Mittel an die Hand gab, den^auß' Messung

des Erdmagne-

Erdmagnetismus exakt zu messen, während vorher nur rohe Vergleiche der tismns. Stärke des Erdmagnetismus mit der an einem Normalorte möglich waren.

Vor allem aber entwickelte Gauß in der erwähnten Abhandlung das sog. absolute Maßsystem, mit dessen Hilfe man auf Grund des Coulombschen Gesetzes eine magnetische Menge oder die Stärke des Erdmagnetismus an einem Orte nach einer unveränderlichen Einheit messen und ohne weiteres reprodu- zieren kann, wenn man die Einheiten der Länge, der Masse und der Zeit (Zenti- meter, Gramm, Sekunde) kennt.

Messungen nach der Gauß sehen Methode im absoluten Maßsystem gaben auf Anregung von Gauß selbst seinem Freunde Wilhelm Weber die Grundlage dazu, elektrische Messungen auf die drei Grundeinheiten der Mechanik Länge, Masse und Zeit zurückzuführen, eröffneten der Wissenschaft die Vergleichbarkeit quantitativer Beobachtungen, die zu verschiedenen Zeiten an verschiedenen Orten angestellt sind, und gaben damit auch der Elektro- technik die zu ihrer Entwicklung notwendige Basis: ein einheitliches Maß- system, sowie dem Gesetzgeber die für unser wirtschaftliches Leben unentbehr- lichen exakten Definitionen elektrischer Einheiten.

Einen ganz anderen Standpunkt den gegebenen Tatsachen gegenüber nahm Faiadays Kraft- Faraday ein. Nach ihm sind die magnetischen Kraftlinien das Wesentliche, die überall im Räume vorhanden sind, wo eine magnetische Kraft besteht. Die Richtung dieser Kraftlinien zeigt die Richtung der magnetischen Kraft, ihre Dichte die Intensität der Kraft an. Sie entspringen an den Stellen, an denen sich positiver Magnetismus befindet, und münden an den negativ magnetischen Mengen.

336 16- R. Gans: Altere und neuere Theorien des Magnetismus

''^^^f—-^,% -^k;:

>< >•-• (■'

^z^fjÜ^ii^

Man kann den Kraftlinienverlauf sichtbar machen, indem man weißen Karton mit Eiseofeilicht bestreut; klopft man ein wenig auf den Karton, so ordnen sich die Feilspäne in der Richtung der Kraftlinien an. Fig. i stellt z. ß. das Kraftlinienbild eines Stabmagneten dar.

Diesen Kraftlinien schreibt Faraday ganz bestimmte Eigenschaften zu, nämlich die Tendenz, sich wie elastische gespannte Gummibänder zu verkürzen und sich gegenseitig abzustoßen. Aus diesem Bestreben, sich zusammenzu- ziehen, entspringt die Anziehungskraft, die ein positiver auf einen negativen Pol ausübt (Fig. 2), und aus der Tendenz, sich gegenseitig abzustoßen, erklärt sich das Kraftlinienbild zweier gleichnamigen Pole (Fig. 3).

Es ist nicht uninteressant, mit diesen Figuren die aus Eulers Werk „De magnete" entnommenen Abbildungen Fig. 4, 5 und 6 zu vergleichen, die die Atherwirbel in der Nähe eines einzelnen und zweier mit entgegengesetzten resp. gleichen Polen einander gegenüberstehender Magnete darstellen.'] Man glaubt, wenn man die Eulerschen Zeichnungen sieht, Faradaysche Kraftltnienbilder vor sich zu haben. Und dabei stammt die Eulersche Arbeit aus einer Zeit, in der noch nicht einmal das Coulombsche Gesetz entdeckt war.

Im Gegensatz zu Coulomb ist nach Faraday das Medium zwischen den Magneten der Sitz der magnetischen Erregung und der magnetischen Energie. i-nadDi.- Das Wesentliche des durch Faraday erzielten Fortschritts war jedoch

«""""■ nicht diese neue Anschauungsweise, sondern die wichtige Entdeckung, daß alle Körper mehr oder weniger magnetisch sind, und daß es zwei Arten von Magne- tismus gibt, von denen einem Material entweder die eine oder die andere zu- kommt. Diese beiden Arten unterscheidet Faraday als Para- und Dia- magnetismus.

Hängt man in der Nähe eines Spttzpols einen kleinen Körper an einen Faden auf, so tritt Anziehung oder AbstoQung ein, je nachdem der Körper para-

Kraftlinien. Para- und Diamagnetismus. Magnetisierung, Feldstarke, Suszeptibüitat 33 y

oder diamagnetisch ist. Dabei ist es gleichgültig, ob der Pol ein Nord- oder ein Südpol ist.

Ferner wird ein an einem Faden zwischen zwei Spitzpolen eines Elektro- magneten mit horizontaler Achse aufgehängtes Stäbchen sich parallel oder senk- recht zu den Kraftlinien einstellen, je nachdem das Material des Stäbchens para- oder diamagnetisch ist.

Mit dieser und anderen Versuchsanordnungen hat man erkannt, daß z. B. Kupfer, Wismut, Silber, Wasser, Quecksilber diamagnetisch, dagegen Platin, Palladium, Sauerstoff, Lösungen von Eisen-, Mangan-, Nickelsalzen para- magnetisch sind.

Doch hängen die erwähnten Kraftwirkungen wesentlich von dem den Kör- per umgebenden Medium ab. Als solches ist oben stillschweigend die Luft an- genommen worden. Ist ein Körper paramagnetisch gegen Luft, und ersetzen wir die Luft durch eine Flüssigkeit, die stärker paramagnetisch ist als der Kör- per, so verhält dieser sich in der Flüssigkeit, als ob er diamagnetisch wäre.

Um die Theorien verstehen zu können, die sich zur Erklärung der bespro- Quantitativ» ebenen Erscheinungen und noch weiter unten zu erwähnenden Phänomene ge- ^^^f"**®* bildet haben, müssen wir uns kurz einige quantitative Begriffe zu eigen machen.

Das magnetische Moment eines Magneten ist gleich dem Produkt aus der in seinen Polen befindlichen Magnetismusmenge und dem Polabstand.

Unter der Magnetisierung ^ des Stabes versteht man das magnetische Moment pro Volumeneinheit.

Unter der magnetischen Feldstärke ^ versteht man die Kraft auf die magnetische Menge Eins. Ein gleichförmiges Feld ist ein solches, welches in dem betrachteten Räume überall die gleiche Richtung und die gleiche Stärke hat. Es wird nach der Faradayschen Kraftliniendarstellung durch äquidistante, parallele Gerade repräsentiert, von denen ^ auf einen Quadratzentimeter kommen.

Befindet sich ein paramagnetischer Stab in einem gleichförmigen Felde Sq, dessen Richtung parallel der Stabachse ist, so wird der Stab zu einem Ma- gneten, dessen Moment dem Volumendes Stabes, der Feldstärke und einem Fak- tor K proportional ist, der für das betreffende Material charakteristisch ist und die magnetische Suszeptibilität oder Magnetisierungskonstante heißt.

Bei paramagnetischen Stäbchen hat die Richtung des magnetischen Mo- ments, d. h. die Gerade, die vom negativen zum positiven Pole läuft, dieselbe Richtung wie das Feld, bei diamagnetischen die entgegengesetzte. Das können wir dadurch zum Ausdruck bringen, daß wir im ersten Falle das magnetische Moment positiv, im zweiten Falle negativ rechnen, indem wir die Suszeptibilität des paramagnetischen Körpers als positiv, die des diamagnetischen als negativ in Rechnung setzen.

Die Körper, welche unter dem Einflüsse eines Magnetfeldes selbst zu Ma- gneten werden, heißen magnetisch polarisierbar. Das Vakuum, d. h. der freie Äther, ist das einzige Medium, das nicht magnetisch polarisierbar ist, seine Suszeptibilität ist also Null.

K. d. 6. m. m, Bd X Phjrsik 22

i6. R. Gans: Altere und neuere Theorien des Magnetismus

Man kann den Kraftlinienverlauf sichtbar machen, indem man weißen Karton mit Eisenfeilicht bestreut; klopft man ein wenig auf den Karton, so ordnen sich die Feilspäne in der Richtung der Kraftlinien an. Fig. i stellt z. B. das Kraftlinienbild eines Stabmagneten dar.

Diesen Kraftlinien schreibt Faraday ganz bestimmte Eigenschaften zu, nämlich die Tendenz, sich wie elastische gespannte Gummibänder zu verkürzen und sich gegenseitig abzustoßen. Aus diesem Bestreben, sich zusammenzu- ziehen, entspringt die Anziehungskraft, die ein positiver auf einen negativen Pol ausübt (Fig. 2), und aus der Tendenz, sich gegenseitig abzustoßen, erklärt sich das Kraftlinienbild zweier gleichnamigen Pole (Fig. 3).

'Es ist nicht uninteressant, mit diesen Figuren die aus Eulers Werk ,,De magnete" entnommenen Abbildungen Fig. 4, 5 und 6 zu vergleichen, die die Atherwirbel in der Nähe eines einzelnen und zweier mit entgegengesetzten resp, gleichen Polen einander gegenüberstehender Magnete darstellen.') Man glaubt, wenn man die Eulerschen Zeichnungen sieht, Faradaysche Kraftlinienbilder vor sich zu haben. Und dabei stammt die Eulersche Arbeit aus einer Zeit, in der noch nicht einmal das Coulombsche Gesetz entdeckt war.

Im Gegensatz zu Coulomb ist nach Faraday das Medium zwischen den Magneten der Sitz der magnetischen Erregung und der magnetischen Energie.

Das Wesentliche des durch Faraday erzielten Fortschritts war jedoch nicht diese neue Anschauungsweise, sondern die wichtige Entdeckung, daß alle Körper mehr oder weniger magnetisch sind, und daß es zwei Arten von Magne- tismus gibt, von denen einem Material entweder die eine oder die andere zu- kommt. Diese beiden Arten unterscheidet Faraday als Fara- und Dia- magnettsmus.

Hängt man in der Nähe eines Spitzpols einen kleinen KOrper an einen Faden auf, so tritt Anziehung oder Abstoßung ein, je nachdem der Körper para-

Kraftlinien. Para- und Diamagnetismus. Magnetisierung, Feldstärke^ Suszeptibilitat 33 y

oder diamagnetisch ist. Dabei ist es gleichgültig, ob der Pol ein Nord- oder ein Südpol ist.

Ferner wird ein an einem Faden zwischen zwei Spitzpolen eines Elektro- magneten mit horizontaler Achse aufgehängtes Stäbchen sich parallel oder senk- recht zu den Kraftlinien einstellen, je nachdem das Material des Stäbchens para- oder diamagnetisch ist.

Mit dieser und anderen Versuchsanordnungen hat man erkannt, daß z. B. Kupfer, Wismut, Silber, Wasser, Quecksilber diamagnetisch, dagegen Platin, Palladium, Sauerstoff, Lösungen von Eisen-, Mangan-, Nickelsalzen para- magnetisch sind.

Doch hängen die erwähnten Kraftwirkungen wesentlich von dem den Kör- per umgebenden Medium ab. Als solches ist oben stillschweigend die Luft an- genommen worden. Ist ein Körper paramagnetisch gegen Luft, und ersetzen wir die Luft durch eine Flüssigkeit, die stärker paramagnetisch ist als der Kör- per, so verhält dieser sich in der Flüssigkeit, als ob er diamagnetisch wäre.

Um die Theorien verstehen zu können, die sich zur Erklärung der bespro- Quantitative ebenen Erscheinungen und noch weiter unten zu erwähnenden Phänomene ge- ^®«^*- bildet haben, müssen wir uns kurz einige quantitative Begriffe zu eigen machen.

Das magnetische Moment eines Magneten ist gleich dem Produkt aus der in seinen Polen befindlichen Magnetismusmenge und dem Polabstand.

Unter der Magnetisierung ^ des Stabes versteht man das magnetische Moment pro Volumeneinheit.

Unter der magnetischen Feldstärke ^ versteht man die Kraft auf die magnetische Menge Eins. Ein gleichförmiges Feld ist ein solches, welches in dem betrachteten Räume überall die gleiche Richtung und die gleiche Stärke hat. Es wird nach der Farad ay sehen Kraftliniendarstellung durch äquidistante, parallele Gerade repräsentiert, von denen ^ auf einen Quadratzentimeter kommen.

Befindet sich ein paramagnetischer Stab in einem gleichförmigen Felde ^, dessen Richtung parallel der Stabachse ist, so wird der Stab zu einem Ma- gneten, dessen Moment dem Volumen des Stabes, der Feldstärke und einem Fak- tor K proportional ist, der für das betreffende Material charakteristisch ist und die magnetische Suszeptibilitat oder Magnetisierungskonstante heißt.

Bei paramagnetischen Stäbchen hat die Richtung des magnetischen Mo- ments, d. h. die Gerade, die vom negativen zum positiven Pole läuft, dieselbe Richtung wie das Feld, bei diamagnetischen die entgegengesetzte. Das können wir dadurch zum Ausdruck bringen, daß wir im ersten Falle das magnetische Moment positiv, im zweiten Falle negativ rechnen, indem wir die Suszeptibilitat des params^netischen Körpers als positiv, die des diamagnetischen als negativ in Rechnung setzen.

Die Körper, welche unter dem Einflüsse eines Magnetfeldes selbst zu Ma- gneten werden, heißen magnetisch polarisierbar. Das Vakuum, d. h. der freie Äther, ist das einzige Medium, das nicht magnetisch polarisierbar ist, seine Suszeptibilitat ist also Null.

K. <L G. m. m, Bd x Physik 2 2

>6. R. Gans: Altere nnd neuere Theorien des Magnetismus

-'■'l

""'■■# %■' '-" --

k

_4, ;jß: ^:::-

K<.3.

"■-,■; ';'^_. t---) r

Kg. 4

'""'kW"

(--

-^

'"',''

Fi«.6.

Man kann den Kraftlinienverlauf sichtbar machen, indem man weißen Karton mit Eisenfeilicht bestreut; klopft man ein wenig auf den Karton, so ordnen sich die Feilspäne in der Richtung der Kraftlinien an, Fig. i stellt z. B. das Kraftlinienbild eines Stabmagneten dar.

Diesen Kraftlinien schreibt Faraday ganz bestimmte Eigenschaften zu, nämlich die Tendenz, sich wie elastische gespannte Gummibänder zu verkürzen und sich gegenseitig abzustoßen. Aus diesem Bestreben, sich zusammenzu- ziehen, entspringt die Anziehungskraft, die ein positiver auf einen negativen Pol ausübt (Fig. 2), und aus der Tendenz, sich gegenseitig abzustoßen, erklärt sich das Kraftlinienbild zweier gleichnamigen Pole (Fig. 3).

Es ist nicht uninteressant, mit diesen Figuren die aus Eulers Werk ,,De magnete" entnommenen Abbildungen Fig. 4, 5 und 6 zu vergleichen, die die Ätherwirbel in der Nähe eines einzelnen und zweier mit entgegengesetzten resp. gleichen Polen einander gegenüberstehender Magnete darstellen.*) Man glaubt, wenn man die Eulerschen Zeichnungen sieht, Faradaysche Krafthnienbilder vor sich zu haben. Und dabei stammt die Eulersche Arbeit aus einer Zeit, in der noch nicht einmal das Coulombsche Gesetz entdeckt war.

Im Gegensatz zu Coulomb ist nach Faraday das Medium zwischen den Magneten der Sitz der magnetischen Erregung und der magnetischen Energie. 1. Das Wesentliche des durch Faraday erzielten Fortschritts war jedoch '' nicht diese neue Anschauungsweise, sondern die wichtige Entdeckung, daß alle Körper mehr oder weniger magnetisch sind, und daß es zwei Arten von Magne- tismus gibt, von denen einem Material entweder die eine oder die andere zu- kommt. Diese beiden Arten unterscheidet Faraday als Para- und Dia- magnetismus.

Hängt man in der Nähe eines Spitzpols einen kleinen Körper an einen Faden auf, so tritt Anziehung oder Abstoßung ein, je nachdem der Körper para-

Kraftlinien. Para- und Diamagnetismus. Magnetisierung, Feldstärke, Suszeptibilität 337

oder diamagnetisch ist. Dabei ist es gleichgültig, ob der Pol ein Nord- oder ein Südpol ist.

Ferner wird ein an einem Faden zwischen zwei Spitzpolen eines Elektro- magneten mit horizontaler Achse aufgehängtes Stäbchen sich parallel oder senk- recht zu den Kraftlinien einstellen, je nachdem das Material des Stäbchens para- oder diamagnetisch ist.

Mit dieser und anderen Versuchsanordnungen hat man erkannt, daß z. B. Kupfer, Wismut, Silber, Wasser, Quecksilber diamagnetisch, dagegen Platin, Palladium, Sauerstoff, Lösungen von Eisen-, Mangan-, Nickelsalzen para- magnetisch sind.

Doch hängen die erwähnten Kraftwirkungen wesentlich von dem den Kör- per umgebenden Medium ab. Als solches ist oben stillschweigend die Luft an- genommen worden. Ist ein Körper paramagnetisch gegen Luft, und ersetzen wir die Luft durch eine Flüssigkeit, die stärker paramagnetisch ist als der Kör- per, so verhält dieser sich in der Flüssigkeit, als ob er diamagnetisch wäre.

Um die Theorien verstehen zu können, die sich zur Erklärung der bespro- QaantitatiT» ebenen Erscheinungen und noch weiter unten zu erwähnenden Phänomene ge- ^*^*^*- bildet haben, müssen wir uns kurz einige quantitative Begriffe zu eigen machen.

Das magnetische Moment eines Magneten ist gleich dem Produkt aus der in seinen Polen befindlichen Magnetismusmenge und dem Polabstand.

Unter der Magnetisierung ^ des Stabes versteht man das magnetische Moment pro Volumeneinheit.

Unter der magnetischen Feldstärke ^ versteht man die Kraft auf die magnetische Menge Eins. Ein gleichförmiges Feld ist ein solches, welches in dem betrachteten Räume überall die gleiche Richtung und die gleiche Stärke hat. Es wird nach der Farad ay sehen Kraftliniendarstellung durch äquidistante, parallele Gerade repräsentiert, von denen ^ auf einen Quadratzentimeter kommen.

Befindet sich ein paramagnetischer Stab in einem gleichförmigen Felde ^, dessen Richtung parallel der Stabachse ist, so wird der Stab zu einem Ma- gneten, dessen Moment dem Volumen des Stabes, der Feldstärke und einem Fak- tor K proportional ist, der für das betreffende Material charakteristisch ist und die magnetische Suszeptibilität oder Magnetisierungskonstante heißt.

Bei paramagnetischen Stäbchen hat die Richtung des magnetischen Mo- ments, d. h. die Gerade, die vom negativen zum positiven Pole läuft, dieselbe Richtung wie das Feld, bei diamagnetischen die entgegengesetzte. Das können wir dadurch zum Ausdruck bringen, daß wir im ersten Falle das magnetische Moment positiv, im zweiten Falle negativ rechnen, indem wir die Suszeptibilität des paramagnetischen Körpers als positiv, die des diamagnetischen als negativ in Rechnung setzen.

Die Körper, welche unter dem Einflüsse eines Magnetfeldes selbst zu Ma- gneten werden, heißen magnetisch polarisierbar. Das Vakuum, d. h. der freie Äther, ist das einzige Medium, das nicht magnetisch polarisierbar ist, seine Suszeptibilität ist also Null.

K. cLG. HL iii,Bdx Physik 22

6. R. Gans: Altere und neuere Theorien des Magnetismus

Fmn- Bnd Dia-

Man kann den Kraftlinienvertauf sichtbar machen, indem man weißen Karton mit Eisenfeilicht bestreut; klopft man ein wenig auf den Karton, so ordnen sich die Feilspäne in der Richtung der Kraftlinien an. Fig. i stellt z. B. das Kraftlinienbiid eines Stabmagneten dar.

Diesen Kraftlinien schreibt Faraday ganz bestimmte Eigenschaften zu, Dämlich die Tendenz, sich wie elastische gespannte Gummibänder zu verkürzen und sich gegenseitig abzustoßen. Aus diesem Bestreben, sich zusammenzu- ziehen, entspringt die Anziehungskraft, die ein positiver auf einen negativen Pol ausübt (Fig. 2), und aus der Tendenz, sich gegenseitig abzustoßen, erklärt sich das Kraftlinienbild zweier gleichnamigen Pole (Fig. 3},

Es ist nicht uninteressant, mit diesen Figuren die aus Eulers Werk ,,De magnete" entnommenen Abbildungen Fig. 4, 5 und 6 zu vergleichen, die die Atherwirbel in der Nähe eines einzelnen und zweier mit entgegengesetzten resp. gleichen Polen einander gegenüberstehender Magnete darstellen.') Man glaubt, wenn man die Eulerschen Zeichnungen sieht, Faradaysche Kraftlinienbilder vor sich zu haben. Und dabei stammt die Euler sehe Arbeit aus einer Zeit, in der noch nicht einmal das Coulombsche Gesetz entdeckt war.

Im Gegensatz zu Coulomb ist nach Faraday das Medium zwischen den Magneten der Sitz der magnetischen Erregung und der magnetischen Enei^e.

Das Wesentliche des durch Faraday erzielten Fortschritts war jedoch nicht diese neue Anschauungsweise, sondern die wichtige Entdeckung, daQ alle Körper mehr oder weniger magnetisch sind, und daß es zwei Arten von Magne- tismus gibt, von denen einem Material entweder die eine oder die andere zu- kommt. Diese beiden Arten unterscheidet Faraday als Para- und Dia- magnetismus.

Hängt man in der Nähe eines Spitzpols einen kleinen KOrper an einen Faden auf, so tritt Anziehung oder Abstoßung ein, je nachdem der Körper para>

Kraftlinien. Para- und Diamagnetismus. Magnetisierung, Feldstärke, Suszeptibilität 33^

oder diamagnetisch ist. Dabei ist es gleichgültig, ob der Pol ein Nord- oder ein Südpol ist.

Ferner wird ein an einem Faden zwischen zwei Spitzpolen eines Elektro- magneten mit horizontaler Achse aufgehängtes Stäbchen sich parallel oder senk- recht zu den Kraftlinien einstellen, je nachdem das Material des Stäbchens para- oder diamagnetisch ist.

Mit dieser und anderen Versuchsanordnungen hat man erkannt, daß z. B. Kupfer, Wismut, Silber, Wasser, Quecksilber diamagnetisch, dagegen Platin, Palladium, Sauerstoff, Lösungen von Eisen-, Mangan-, Nickelsalzen para- magnetisch sind.

Doch hängen die erwähnten Kraftwirkungen wesentlich von dem den Kör- per umgebenden Medium ab. Als solches ist oben stillschweigend die Luft an- genommen worden. Ist ein Körper paramagnetisch gegen Luft, und ersetzen wir die Luft durch eine Flüssigkeit, die stärker paramagnetisch ist als der Kör- per, so verhält dieser sich in der Flüssigkeit, als ob er diamagnetisch wäre.

Um die Theorien verstehen zu können, die sich zur Erklärung der bespro- Quantitativ» ebenen Erscheinungen und noch weiter unten zu erwähnenden Phänomene ge- ^**'***- bildet haben, müssen wir uns kurz einige quantitative Begriffe zu eigen machen.

Das magnetische Moment eines Magneten ist gleich dem Produkt aus der in seinen Polen befindlichen Magnetismusmenge und dem Polabstand.

Unter der Magnetisierung ^ des Stabes versteht man das magnetische Moment pro Volumeneinheit.

Unter der magnetischen Feldstärke ^ versteht man die Kraft auf die magnetische Menge Eins. Ein gleichförmiges Feld ist ein solches, welches in dem betrachteten Räume überall die gleiche Richtung und die gleiche Stärke hat. Es wird nach der Faradayschen Kraftliniendarstellung durch äquidistante, parallele Gerade repräsentiert, von denen Sq auf einen Quadratzentimeter kommen.

Befindet sich ein paramagnetischer Stab in einem gleichförmigen Felde ^, dessen Richtung parallel der Stabachse ist, so wird der Stab zu einem Ma- gneten, dessen Moment dem Volumen des Stabes, der Feldstärke und einem Fak- tor K proportional ist, der für das betreffende Material charakteristisch ist und die magnetische Suszeptibilität oder Magnetisierungskonstante heißt.

Bei paramagnetischen Stäbchen hat die Richtung des magnetischen Mo- ments, d. h. die Gerade, die vom negativen zum positiven Pole läuft, dieselbe Richtung wie das Feld, bei diamagnetischen die entgegengesetzte. Das können wir dadurch zum Ausdruck bringen, daß wir im ersten Falle das magnetische Moment positiv, im zweiten Falle negativ rechnen, indem wir die Suszeptibilität des paramagnetischen Körpers als positiv, die des diamagnetischen als negativ in Rechnung setzen.

Die Körper, welche unter dem Einflüsse eines Magnetfeldes selbst zu Ma- gneten werden, heißen magnetisch polarisierbar. Das Vakuum, d. h. der freie Äther, ist das einzige Medium, das nicht magnetisch polarisierbar ist, seine Suszeptibilität ist also Null.

K.<LG.nLiii,Bdx Physik 22

i6. R. Gans: Altere und neuere Theorien des Magnetiimus

Man kann den Kraftlinienverlauf sichtbar machen, isdem man weißen Karton mit Eisenfeilicht bestreut; klopft man ein wenig auf den Karton, so ordnen sich die Feilspäne in der Richtung der Kraftlinien an. Fig. i stellt z. B. das Kraftlinienbild eines Stabmagneten dar.

Diesen Kraftlinien schreibt Faraday ganz bestimmte Eigenschaften zu, nämlich die Tendenz, sich wie elastische gespannte Gummibänder zu verkürzen und sich gegenseitig abzustoßen. Aus diesem Bestreben, sich zusammenzu- ziehen, entspringt die Anziehungskraft, die ein positiver auf einen negativen Pol ausübt (Fig. 2), und aus der Tendenz, sich gegenseitig abzustoßen, erklärt sich das Kraftlinienbild zweier gleichnamigen Pole (Fig. 3}.

Es ist nicht uninteressant, mit diesen Figuren die aus Eulers Werk „De m^nete" entnommenen Abbildungen Fig. 4, 5 und 6 zu vergleichen, die die Ätherwirbel in der Nähe eines einzelnen und zweier mit entgegengesetzten resp. gleichen Polen einander gegenüberstehender Magnete darstellen.') Man glaubt, wenn man die Eulerschen Zeichnungen sieht, Faradaysche Kraftlinienbilder vor sich zu haben. Und dabei stammt die Eulersche Arbeit aus einer Zeit, in der noch nicht einmal das Coulombsche Gesetz entdeckt war.

Im Gegensatz zu Coulomb ist nach Faraday das Medium zwischen den Magneten der Sitz der magnetischen Erregung und der magnetischen Energie. i-fmdDia- Das Wesentliche des durch Faraday erzielten Fortschritts war jedoch ciiMi>nu. nicht diese neue Anschauungsweise, sondern die wichtige Entdeckung, daß alle Körper mehr oder weniger magnetisch sind, und daß es zwei Arten von Magne- tismus gibt, von denen einem Material entweder die eine oder die andere zu- kommt. Diese beiden Arten unterscheidet Faraday als Para- und Dia- magnetismus.

Hängt man in der Nähe eines Spitzpols einen kleinen Körper an einen Faden auf, so tritt Anziehung oder Abstoßung ein, je nachdem der Körper para<

Kraftlinien. Para- und Diamagnetismus. Magnetisierung, Feldstärke, Suszeptibilität 33 y

oder diamagnetisch ist. Dabei ist es gleichgültig, ob der Pol ein Nord- oder ein Südpol ist.

Ferner wird ein an einem Faden zwischen zwei Spitzpolen eines Elektro- magneten mit horizontaler Achse aufgehängtes Stäbchen sich parallel oder senk- recht zu den Kraftlinien einstellen, je nachdem das Material des Stäbchens para- oder diamagnetisch ist.

Mit dieser und anderen Versuchsanordnungen hat man erkannt, daß z. B. Kupfer, Wismut, Silber, Wasser, Quecksilber diamagnetisch, dagegen Platin, Palladium, Sauerstoff, Lösungen von Eisen-, Mangan-, Nickelsalzen para- magnetisch sind.

Doch hängen die erwähnten Kraftwirkungen wesentlich von dem den Kör- per umgebenden Medium ab. Als solches ist oben stillschweigend die Luft an- genommen worden. Ist ein Körper paramagnetisch gegen Luft, und ersetzen wir die Luft durch eine Flüssigkeit, die stärker paramagnetisch ist als der Kör- per, so verhält dieser sich in der Flüssigkeit, als ob er diamagnetisch wäre.

Um die Theorien verstehen zu können, die sich zur Erklärung der bespro- Quantitative chenen Erscheinungen und noch weiter unten zu erwähnenden Phänomene ge- *^'*^* bildet haben, müssen wir uns kurz einige quantitative Begriffe zu eigen machen.

Das magnetische Moment eines Magneten ist gleich dem Produkt aus der in seinen Polen befindlichen Magnetismusmenge und dem Polabstand.

Unter der Magnetisierung 3 des Stabes versteht man das magnetische Moment pro Volumeneinheit.

Unter der magnetischen Feldstärke $ versteht man die Kraft auf die magnetische Menge Eins. Ein gleichförmiges Feld ist ein solches, welches in dem betrachteten Räume überall die gleiche Richtung und die gleiche Stärke hat. Es wird nach der Farad ay sehen Kraftliniendarstellung durch äquidistante, parallele Gerade repräsentiert, von denen $ auf einen Quadratzentimeter kommen.

Befindet sich ein paramagnetischer Stab in einem gleichförmigen Felde ^, dessen Richtung parallel der Stabachse ist, so wird der Stab zu einem Ma- gneten, dessen Moment dem Volumen des Stabes, der Feldstärke und einem Fak- tor K proportional ist, der für das betreffende Material charakteristisch ist und die magnetische Suszeptibilität oder Magnetisierungskonstante heißt.

Bei paramagnetischen Stäbchen hat die Richtung des magnetischen Mo- ments, d. h, die Gerade, die vom negativen zum positiven Pole läuft, dieselbe Richtung wie das Feld, bei diamagnetischen die entgegengesetzte. Das können wir dadurch zum Ausdruck bringen, daß wir im ersten Falle das magnetische Moment positiv, im zweiten Falle negativ rechnen, indem wir die Suszeptibilität des paramagnetischen Körpers als positiv, die des diamagnetischen als negativ in Rechnung setzen.

Die Körper, welche unter dem Einflüsse eines Magnetfeldes selbst zu Ma- gneten werden, heißen magnetisch polarisierbar. Das Vakuum, d. h. der freie Äther, ist das einzige Medium, das nicht magnetisch polarisierbar ist, seine Suszeptibilität ist also Null.

K. d. G. m. m. Bd z Phjrsik 2 2

i6. R. Gans: Altere und neuere Theorien des Magnetismus

!'.■■::■

r.B...

-'-'>,

V-v '^G-" -i) .-

:'■■'"'

-4:; ;;fr -5=v,-

■""'i'; '.--i— c-ir~ r

Fig. 4-

'""pie.V" "-\ /■ V,.

\f

k-.----ii

'""'iii'i"

F*B.6-

Man kann den Kraftlinienverlauf sichtbar machen, indem man weißen Karton mit Eisenfeilicht bestreut; klopft man ein wenig auf den Karton, so ordnen sich die Feilspäne in der Richtung der Kraftlinien an. Fig. i stellt z. B. das KrafUinienbild eines Stabmagneten dar.

Diesen Kraftlinien schreibt Faraday ganz bestimmte Eigenschaften zu, nämlich die Tendenz, sich wie elastische gespannte Gummibänder zu verkürzen und sich gegenseitig abzustoßen. Aus diesem Bestreben, sich zusammenzu- ziehen, entspringt die Anziehungskraft, die ein positiver auf einen negativen Pol ausübt (Fig. 2), und aus der Tendeaz, sich gegenseitig abzustoßen, erklärt sich das Kraftlinienbild zweier gleichnamigen Pole {Fig. 3).

Es ist nicht uninteressant, mit diesen Figuren die aus Eulers Werk ,,De magnete" entnommenen Abbildungen Fig. 4, 5 und ö zu vergleichen, die die Ätherwirbel in der Nähe eines einzelnen und zweier mit entgegengesetzten resp. gleichen Polen einander gegenüberstehender Magnete darstellen.*) Man glaubt, wenn man die Eulerschen Zeichnungen sieht, Faradaysche Kraftlinienbilder vor sich zu haben. Und dabei stammt die Eulersche Arbeit aus einer Zelt, in der noch nicht einmal das Coulombsche Gesetz entdeckt war.

Im Gegensatz zu Coulomb ist nach Faraday das Medium zwischen den Magneten der Sitz der magnetischen Erregung und der m^netischen Energie. Pan-undDU- D^ Wesentliche des durch Faraday erzielten Fortschritts war jedoch mmgnetiiBiii. (ji^-^t dlcsc nouc Anschauungsweisc, sondern die wichtige Entdeckung, daß alle Körper mehr oder weniger magnetisch sind, und daß es zwei Arten von Magne- tismus gibt, von denen einem Material entweder die eine oder die andere zu- kommt. Diese beiden Arten unterscheidet Faraday als Para- und Dia- magnetismus.

Hängt man in der Nähe eines Spttzpols einen kleinen Körper an einen Faden auf, so tritt Anziehung oder Abstoßung ein, je nachdem der Körper para-

Kraftlinien. Para- und Diamagnetismus. Magnetisienmg, Feldstärke, Suszeptibilität 33 y

oder diamagnetisch ist. Dabei ist es gleichgültig, ob der Pol ein Nord- oder ein Südpol ist.

Ferner wird ein an einem Faden zwischen zwei Spitzpolen eines Elektro- magneten mit horizontaler Achse aufgehängtes Stäbchen sich parallel oder senk- recht zu den Kraftlinien einstellen, je nachdem das Material des Stäbchens para- oder diamagnetisch ist.

Mit dieser und anderen Versuchsanordnungen hat man erkannt, daß z. B. Kupfer, Wismut, Silber, Wasser, Quecksilber diamagnetisch, dagegen Platin, Palladium, Sauerstoff, Lösungen von Eisen-, Mangan-, Nickelsalzen para- magnetisch sind.

Doch hängen die erwähnten Kraftwirkungen wesentlich von dem den Kör- per umgebenden Medium ab. Als solches ist oben stillschweigend die Luft an- genommen worden. Ist ein Körper paramagnetisch gegen Luft, und ersetzen wir die Luft durch eine Flüssigkeit, die stärker paramagnetisch ist als der Kör- per, so verhält dieser sich in der Flüssigkeit, als ob er diamagnetisch wäre.

Um die Theorien verstehen zu können, die sich zur Erklärung der bespro- Qoantitauve ebenen Erscheinungen und noch weiter unten zu erwähnenden Phänomene ge- ^**" ** bildet haben, müssen wir uns kurz einige quantitative Begriffe zu eigen machen. Das magnetische Moment eines Magneten ist gleich dem Produkt aus der in seinen Polen befindlichen Magnetismusmenge und dem Polabstand.

Unter der Magnetisierung 3 des Stabes versteht man das magnetische Moment pro Volumeneinheit.

Unter der magnetischen Feldstärke $ versteht man die Kraft auf die magnetische Menge Eins. Ein gleichförmiges Feld ist ein solches, welches in dem betrachteten Räume überall die gleiche Richtung und die gleiche Stärke hat. Es wird nach der Farad ay sehen Kraftliniendarstellung durch äquidistante, parallele Gerade repräsentiert, von denen $ auf einen Quadratzentimeter kommen.

Befindet sich ein paramagnetischer Stab in einem gleichförmigen Felde $, dessen Richtung parallel der Stabachse ist, so wird der Stab zu einem Ma- gneten, dessen Moment dem Volumen des Stabes, der Feldstärke und einem Fak- tor K proportional ist, der für das betreffende Material charakteristisch ist und die magnetische Suszeptibilität oder Magnetisierungskonstante heißt. Bei paramagnetischen Stäbchen hat die Richtung des magnetischen Mo- ments, d, h. die Gerade, die vom negativen zum positiven Pole läuft, dieselbe Richtung wie das Feld, bei diamagnetischen die entgegengesetzte. Das können wir dadurch zum Ausdruck bringen, daß wir im ersten Falle das magnetische Moment positiv, im zweiten Falle negativ rechnen, indem wir die Suszeptibilität des paramagnetischen Körpers als positiv, die des diamagnetischen als negativ in Rechnung setzen.

Die Körper, welche unter dem Einflüsse eines Magnetfeldes selbst zu Ma- gneten werden, heißen magnetisch polarisierbar. Das Vakuum, d. h. der freie Äther, ist das einzige Medium, das nicht magnetisch polarisierbar ist, seine Suszeptibilität ist also Null.

K. d. G. m. m, Bd z Physik 22

i6. R. Gans: Altere und neuere Theorien des Magnetismus

Man kann den Kraftltnienverlauf sichtbar machen, indem man weißen Karton mit Eisenfeiiicht bestreut; klopft man ein wenig auf den Karton, so ordnen sich die Feilspäne in der Richtung der Kraftlinien an. Fig. i stellt z. B. das Kraftlinienbild eines Stabmagneten dar.

Diesen Kraftlinien schreibt Faraday ganz bestimmte Eigenschaften zu, nämlich die Tendenz, sich wie elastische gespannte Gummibänder zu verkürzen und sich gegenseitig abzustoßen. Aus diesem Bestreben, sich zusammenzu- ziehen, entspringt die Anziehungskraft, die ein positiver auf einen negativen Fol ausübt (Fig. 2), und aus der Tendenz, sich gegenseitig abzustoßen, erklärt sich das Kraftlinienbiid zweier gleichnamigen Pole (Fig. 3).

Es ist nicht uninteressant, mit diesen Figuren die aus Eulers Werk ,,De magnete" entnommenen Abbildungen Fig. 4, 5 und 6 zu vergleichen, die die Ätherwirbel in der Nähe eines einzelnen und zweier mit entgegengesetzten resp. gleichen Polen einander gegenüberstehender Magnete darstellen.^) Man glaubt, wenn man die Eulerschen Zeichnungen sieht, Faradaysche Kraftlinienbilder vor sich zu haben. Und dabei stammt die Eulersche Arbeit aus einer Zeit, in der noch nicht einmal das Coulombsche Gesetz entdeckt war.

Im Gegensatz zu Coulomb ist nach Faraday das Medium zwischen den Magneten der Sitz der magnetischen Erregung und der magnetischen Enei^ie. a. Das Wesentliche des durch Faraday erzielten Fortschritts war jedoch '' nicht diese neue Anschauungsweise, sondern die wichtige Entdeckung, daß alle Körper mehr oder weniger magnetisch sind, und daß es zwei Arten von Magne- tismus gibt, von denen einem Material entweder die eine oder die andere zu- kommt. Diese beiden Arten unterscheidet Faraday als Para- und Dia- magnetismus.

Hängt man in der Nahe eines Spitzpols einen kleinen Körper an einen Faden auf, so tritt Anziehung oder Abstoßung ein, je nachdem der Körper para-

Kraftlinien. Para- und Diamagnetismus. Magnetisierung, Feldstarke, Suszeptibilität 33^

oder diamagnetisch ist. Dabei ist es gleichgültig, ob der Pol ein Nord- oder ein Südpol ist.

Ferner wird ein an einem Faden zwischen zwei Spitzpolen eines Elektro- magneten mit horizontaler Achse aufgehängtes Stäbchen sich parallel oder senk- recht zu den Kraftlinien einstellen, je nachdem das Material des Stäbchens para- oder diamagnetisch ist.

Mit dieser und anderen Versuchsanordnungen hat man erkannt, daß z. B. Kupfer, Wismut, Silber, Wasser, Quecksilber diamagnetisch, dagegen Platin, Palladium, Sauerstoff, Lösungen von Eisen-, Mangan-, Nickelsalzen para- magnetisch sind.

Doch hängen die erwähnten Kraftwirkungen wesentlich von dem den Kör- per umgebenden Medium ab. Als solches ist oben stillschweigend die Luft an- genommen worden. Ist ein Körper paramagnetisch gegen Luft, und ersetzen wir die Luft durch eine Flüssigkeit, die stärker paramagnetisch ist als der Kör- per, so verhält dieser sich in der Flüssigkeit, als ob er diamagnetisch wäre.

Um die Theorien verstehen zu können, die sich zur Erklärung der bespro- Quantitative ebenen Erscheinungen und noch weiter unten zu erwähnenden Phänomene ge- ^•*^*- bildet haben, müssen wir uns kurz einige quantitative Begriffe zu eigen machen.

Das magnetische Moment eines Magneten ist gleich dem Produkt aus der in seinen Polen befindlichen Magnetismusmenge und dem Polabstand.

Unter der Magnetisierung 3 des Stabes versteht man das magnetische Moment pro Volumeneinheit.

Unter der magnetischen Feldstärke ^ versteht man die Kraft auf die magnetische Menge Eins. Ein gleichförmiges Feld ist ein solches, welches in dem betrachteten Räume überall die gleiche Richtung und die gleiche Stärke hat. Es wird nach der Farad ay sehen Kraftliniendarstellung durch äquidistante, parallele Gerade repräsentiert, von denen $ auf einen Quadratzentimeter kommen.

Befindet sich ein paramagnetischer Stab in einem gleichförmigen Felde ^, dessen Richtung parallel der Stabachse ist, so wird der Stab zu einem Ma- gneten, dessen Moment dem Volumen des Stabes, der Feldstärke und einem Fak- tor K proportional ist, der für das betreffende Material charakteristisch ist und die magnetische Suszeptibilität oder Magnetisierungskonstante heißt.

Bei paramagnetischen Stäbchen hat die Richtung des magnetischen Mo- ments, d. h. die Gerade, die vom negativen zum positiven Pole läuft, dieselbe Richtung wie das Feld, bei diamagnetischen die entgegengesetzte. Das können wir dadurch zum Ausdruck bringen, daß wir im ersten Falle das magnetische Moment positiv, im zweiten Falle negativ rechnen, indem wir die Suszeptibilität des paramagnetischen Körpers als positiv, die des diamagnetischen als negativ in Rechnung setzen.

Die Körper, welche unter dem Einflüsse eines Magnetfeldes selbst zu Ma- gneten werden, heißen magnetisch polarisierbar. Das Vakuum, d. h. der freie Äther, ist das einzige Medium, das nicht magnetisch polarisierbar ist, seine Suszeptibilität ist also Null.

K. d.G. HL iii,Bdz Physik 22

338

i6. R. Gans: Altere und neuere Theorien des Magnetismus

Scheidang«- theorie.

Fig. 8.

Die Magnetisierung Q eines paramagnetischen oder diamagnetischen Körpers im Magnetfelde $ ist nach obiger Definition proportional der Suszeptibilität k und der Feldstärke $. Fig. 7 stellt das 3, ^-Diagramm einer para-, Fig. 8 das einer diamagnetischen Substanz dar, indem als Abszisse die Feldstärke ^, als Ordinate die Magnetisierung 3 aufgetragen ist. Die ^^ ^-Kurve ist auf Grund der soeben erwähnten Proportionalität zwi- schen der Magnetisierung und der Feldstärke eine gerade Linie, da 3 und ^ für jede Feldstärke im selben Ver- hältnis K stehen.

II. Die Molekulartheorien. Bringt man einen magnetisch polarisierbaren Stab in ein Magnetfeld, und ^^ zwar so, daß die Stabachse den Kraftlinien parallel ist, so entsteht infolge magnetischer Influenz freier positiver Magnetismus in der einen, freier negativer Magnetis- mus in der anderen Stabhälfte. (Fig. 9.)

Diesen Vorgang erklärte man dadurch, daß man zwei voneinander ver- schiedene Fluida im Inneren der magnetisierbaren Körper annahm, die, gleich- mäßig gemischt, sich gegenseitig in ihrer Wirkung aufheben. Diese Fluida wer- den durch die Kräfte des äußeren Feldes in Bewegung gesetzt und suchen sich eine Gleichgewichtslage, die durch das Coulombsche Gesetz bestimmt ist.

Nach dieser Vorstellung verhalten sich also die magnetischen Fluida wie die positive und negative Elektrizität in einem Leiter, die auch durch äußere elektrische Kräfte getrennt werden können.

Zwischen den beiden soeben erwähnten Experimenten, dem magnetischen und dem elektrischen, besteht aber ein durchgreifender Unterschied. Trennt man nämlich im elektrischen Felde die beiden Hälften des Leiters, wie es Fig. 10 veranschaulicht, so ist die eine Hälfte positiv, die andere negativ geladen. Wenn man dagegen den magnetischen Stab in der Mitte trennt (etwa eine magneti- sierte Stricknadel durchbricht), so ist jeder Teil wieder ein Magnet mit positivem und negativem Pol, und dasselbe findet statt, in wie viele Teile man den Ma- gneten auch brechen mag.

Hieraus hat man geschlossen, daß die beiden magnetischen Fluida doch nicht ganz frei beweglich, sondern an das Molekül gebunden seien. Ist der Körper nicht ms^netisiert, so sind die beiden Fluida völlig untereinander ge- mischt, das Molekül also neutral; in einem Magnetfelde trennen sich die Magne- tismusmengen ein wenig, jedes Molekül wird ein Magnet mit positivem und negativem Pol, ein sog. magnetischer Dipol, und wenn das äußere Feld stärker wird, vergrößert sich der Polabstand der Dipole und damit ihr magnetisches Moment.

Nach dieser Scheidungshypothese, die von Poisson aufgestellt und von ihm und Franz Neumann ihren magnetischen Theorien zugrunde gelegt worden ist, verhält Fig. 10.

Molekulartheorien von Ampere und Weber 33Q

sich ein magnetisierbarer Körper also nicht analog einem Metalle, sondern einem Isolator, einem sog. Dielektrikum im elektrischen Felde.

Nachdem dann Ampere die Gesetze der Elektrodynamik begründet und Ainpir©»che den Nachweis geführt hatte, daß jeder Magnet in seiner Wirkung auf andere strtjme.' sowohl wie in der Wirkung anderer Magnete auf ihn selbst durch elektrische Ströme ersetzt werden könnte, suchte er alle magnetischen Eigenschaften auf elektrische Ströme zurückzuführen und nahm an, daß im Eisen jedes Molekül von einem in sich selbst zurückkehrenden elektrischen Strome umkreist würde.

Im unmagnetischen Zustande sind die Ebenen dieser Strombahnen nicht etwa einander parallel, sondern haben alle möglichen Stellungen im Räume, wirr durcheinander, ganz nach den Gesetzen des Zufalls. So heben sich ihre Wir- kungen nach außen gegenseitig auf.

Durch ein äußeres Magnetfeld werden sie nun mehr oder weniger einander parallel gerichtet und bewirken so den polarisierten Zustand des ms^netisier- baren Materials.

Wenn die Amp Presche Hypothese auch der Tendenz der Wissenschaft nach Vereinheitlichung der Erscheinungen Rechnung trägt, indem man mit ihrer Hilfe sich die elektrischen und magnetischen Erscheinungen vorstellen kann, ohne zwei voneinander verschiedene Substrate, nämlich elektrische und magnetische Mengen anzunehmen, so war doch eine Schwierigkeit vorhanden: man mußte voraussetzen, daß die Elementarströme beständig die Eisenmoleküle umkreisen, daß sie also gar keinen Widerstand finden. Denn sonst müßte sich die elektromagnetische Energie des Stroms in Wärme umsetzen, und um den Strom zu erhalten müßte eine nie versiegende elektromotorische Kraft vor- handen sein.

Nun weiß man aber weder von einer solchen elektromotorischen Kraft etwas, noch hat man eine dauernde Wärmeentwicklung beobachtet. Den Ele- mentarströmen müßte also das Charakteristikum aller makroskopisch beobacht- baren Ströme fehlen: der elektrische Widerstand ihrer Bahn.

Zwischen der Theorie der Amp Preschen Molekularströme und der Pois-DieWeb©r»chc son-Neumannschen Scheidungshypothese besteht nun ein fundamentaler Unterschied, der weniger darin beruht, daß in dieser magnetische Fluida, in jener elektrische Ströme die magnetische Wirkung hervorrufen, als vielmehr darin, daß bei wachsendem Felde nach der Poisson sehen Theorie die Dipole ihre Achsenrichtung behalten, und daß nur ihr Polabstand und damit ihr Mo- ment vergrößert wird, daß dagegen nach der Amp Preschen Hypothese die Stärke der Molekularströme und damit das Moment der ihnen äquivalenten Magnete stets dasselbe bleibt, daß dagegen die Ebenen der Strombahnen in stärkeren Feldern mehr und mehr einander parallel gestellt werden. Wir haben es hier also mit einer Richtungshypothese, dort mit einer Scheidungshypothese zu tun.

Nun hat man beobachtet, daß die Magnetisierung aller ferromagne- tischen Körper, d. h. aller Körper, die sich magnetisch ähnlich wie Eisen ver- halten, nämlich Stahl, Nickel, Kobalt und einige weitere, nicht mit wachsenden

22*

340

i6. R. Gans: Altere und neuere Theorien des Magnetismus

3>^

Feldern unbeschränkt zunimmt, sondern sich schließlich einer festen Grenze nähert, wie es das Diagramm Fig. 1 1 darstellt. Diese Tatsache, die sog. magnetische Sättigung, läßt sich auf Grund der Scheidungshypothese schwer verstehen, während sie nach der Richtungs- hypothese unmittelbar evident ist. Wenn näm- lich alle Elementarmagnete durch das Feld ein- ander parallel gestellt worden sind, so ist eine stärkere Magnetisierung des Eisens nicht mehr möglich, es ist gesättigt.

Auf Grund dieser Überlegungen nahm Wilhelm Weber*) ähnlich wie Ampere an, daß in ferroms^netischen Substanzen auch schon im unmagnetischen Zustande Elementar- magnete oder Amp Presche Molekularströme vorhanden sind, deren Achsen- richtungen im Raum aber so wirr durcheinanderliegen, daß keine magnetische Wirkung nach außen besteht.

Um nun die Tatsache zu erklären, daß nicht schon bei den kleinsten Feld- stärken Sättigung auftritt, mußte er die weitere Annahme machen, daß jeder Elementarms^net unter dem Einflüsse einer Direktionskraft stehe, die die Tendenz hat, ihm eine ganz bestimmte Gleichgewichtslage zu geben. Über das Wesen dieser Direktionskraft machte Weber keine Angaben, so daß es nicht recht ersichtlich ist^ ob er sie sich als eine magnetische oder als irgendeine anders geartete Kraft vorstellte. Das Resultat der Rechnungen, denen diese Annahmen zugrunde liegen, ist in Fig. I2 dargestellt, und ein Vergleich von Fig. ii mit Fig. 12 zeigt, daß Weber zwar das Typische der Erscheinungen getroffen hat, ohne doch alle Einzelheiten durch seine Theorie zu beschreiben. Hyttere.u. Die Mängel der Web er sehen Theorie treten noch deutlicher zutage, wenn wir uns die Beobachtungstatsachen etwas eingehender vergegenwärtigen.

Magnetisiert man ein Stück Eisen durch ein von Null anfangendes, immer stärker werdendes Feld ^, beim unmagnetischen Zustande beginnend und bis zur Sättigung fortschreitend, so erhalten wir sukzessive Magnetisierungen, die durch die Kurve Fig. 1 1 oder durch die Linie ÖP in Fig. 1 3 dargestellt 3 p

sind. Lassen wir dann das Magnetfeld wieder abnehmen, so nimmt auch die Magnetisierung wieder ab, doch nicht so stark, wie sie vorher gewachsen war, so daß sie für ein bestimmtes Feld bei abnehmenden Magnetisierungen größer ist, als sie für dasselbe Feld bei wachsenden Magnetisierungen war. Ist das Feld wieder Null geworden, so exi- stiert eine von Null verschiedene Magnetisierung, die sog. Remanenz. Diese Verhältnisse werden durch den Kurventeil P/J derFig. 13 dargestellt, die Strecke OR repräsentiert die Remanenz.

Fig. 13.

Hysteresis, Theorie von Ewing

341

Erzeugt man, beim Felde Null wieder angelangt, nun ein negatives Feld, d. h. ein Feld in entgegengesetzter Richtung, so nimmt 3 weiter ab, bis bei einer ganz bestimmten Feldstärke, der sog. Koerzitivkraft, die Magneti- sierung verschwunden ist und bei weiter wachsenden negativen Feldern selbst negative Werte, d. h. die entgegengesetzte Richtung wie ursprünglich annimmt, bis bei sehr starken negativen Feldern die Magnetisierung wieder ihren Sätti- gungswert erreicht hat. Diese Vorgänge sind durch den Kurventeil RC P dar- gestellt; OC ist die Koerzitivkraft.

Beim Wiederschwächerwerden der negativen Felder nimmt auch die nega- tive Magnetisierung ab, es entstehen Magnetisierungen, die durch die Kurve FRCP dargestellt sind.

Diese Abhängigkeit des magnetischen Zustandes von seiner Vorgeschichte heißt die magnetische Hysteresis, die Kurve OP nennt man die jung- fräuliche Kurve, PRCF den absteigenden, FRCP den aufsteigenden Hy- steresisast.

Die einzige quantitative Gesetzmäßigkeit, die man bezüglich der magne- tischen Hysteresis kennt, ist das von Warburg*) gefundene Gesetz, daß bei dem vollkommenen magnetischen Zyklus PRC FRCP^ der einer Um- magnetisierung zwischen den Feldern OQ und OQ entspricht, im Eisen Wär- me entwickelt wird, die gleich der von den Hysteresisästen eingeschlossenen Fläche ist.

Das sind die wirklichen Erscheinungen. Sic durch seine Theorie zu um- fassen, ist Weber nicht gelungen, denn auf Grund seiner Rechnungen ergibt sich die einzige Kurve Fig. 12 anstatt der komplizierteren Fig. 13.

Durch einen glücklichen Gedanken hat Ewing*) die Mängel der Weber- Ewing«ciie sehen Theorie beseitigt. Er hat konsequent auch die Direktionskraft als ma- ***"**' gnetischen Ursprungs erklärt, hervorgerufen durch die Wirkung der umliegen- den Elementarmagnete, und er hat wenigstens qualitativ aus seiner Hypothese die hysteretischen Erscheinungen erklärt.

Ewing nimmt an, daß im Eisen Gruppen von Elementarmagneten auf- treten; die Ms^nete selbst sind in kubischen Raum- gittern angeordnet entsprechend der Kristallisier- barkeit des Eisens im regulären System.

Fig. 14 stellt z. B. eine solche Gruppe im Felde Null dar. Existieren sehr viele Gruppen, von denen die eine diese, die andere jene Achsenrichtung im Räume besitzt, so heben sich die magnetischen Wir- kungen nach außen hin auf, der Körper erscheint unmagnetisch.

Erzeugt man nun ein schwaches Magnetfeld (s. die Pfeilrichtung in Fig. 15), so werden alle Elemen- tarmagnete die Tendenz haben, sich in die Richtung von ^ einzustellen, jeder aber wird durch die um- liegenden Magnete der Gruppe daran gehindert.

342

i6. R. Gans: Ältere und neuere Theorien des Magnetismus

Fig. 19.

L

Flg. so.

Fig. sz.

da diese das Bestreben ha- ben, ihn wieder in die alte Lage zurückzuführen. Hebt man das Feld wieder auf , so gehen die Magnete wieder in die durch Fig. 14 dargestellte Lage über.

Ist dagegen das Feld ^ stärker, somit die Ablenkung größer, so wird die Konfigu- ration unter seiner Einwir- kung die durch Fig. 16 reprä- sentierte sein, und hebt man nun das Feld wieder auf, so gehen die Magnete nicht in die alte Lage zurück (Fig. 17), es bleibt eine remanente Magnetisierung.

Der eigentliche Grund der Remanenz ist nach der Ewingschen Theorie also der, daß es mehrere stabile Gleichgewichtslagen der Elementarmagnete einer Gruppe außerhalb eines Magnetfeldes gibt, nämlich z. B. die in Fig. 14 und Fig. 17 dargestellte. Theorie von Während Ewing die Ideen seiner Theorie zwar formulierte und qualitative

Gmns imd Hertx. Schlüssc aus derselben zog, hat er sie nicht mathematisch formuliert und die quantitativen Konsequenzen nicht berechnet.

Deshalb haben Gans und Hertz ^) unter Zuhilfenahme der Gesetze der Wahrscheinlichkeitsrechnung die Magnetisierungskurve eines Ewing sehen Modells rechnerisch bestimmt, allerdings unter der Annahme, daß unter den Elementarmagneten, die alle um einander parallele Achsen drehbar sind, keine Tendenz zur Gruppenbildung vorhanden ist.

Das Resultat der so berechneten 3, ^-Kurve ist durch Fig. 18 dargestellt, es scheint also auf den ersten Blick gar keine Beziehung zu den beobachteten Tatsachen zu besitzen. Die Diskussion der Stabilität resp. Labilität der durch Fig. 18 dargestellten Gleichgewichtslagen ergab aber, daß die in Fig. 19 punk- tiert gezeichneten Teile AD und JG der Kurve Fig. 18 labiles Gleichgewicht darstellen, also in der Natur nicht vorkommen werden.

Magnetisiert man somit ein Ewingsches Modell, vom unmagnetischen Zu- stande ausgehend, so erhält man Magnetisierungen, der Kurve OA (Fig. 19) ent- sprechend. Wächst ^ weiter, so tritt ein plötzliches Anwachsen der Magneti- sierung von A nach B ein und dann wieder ein allmähliches von B nach C. Schwächt man ^ dann, so nimmt die Magnetisierung auf der Kurve CBD ab, fällt dann plötzlich bis E und allmählich weiter bis F, Einem erneuten An- wachsen von ^ entspricht der Linienzug FEGHC.

Fig. 20 stellt die Magnetisierungskurve eines auf diese Weise theoretisch

1 Gans und Herti. Elektrolytisches Eisen

343

berechoeten Ewingschen Modells dar, währead Fig. 21 zum Vergleich die be- obachtete Kurve eines Magnetstahls, Fig. 22 die beobachtete Magnetisierungs- kurve eines von Gans aus Kompaßmagnetchen konstruierten Ewingschen Modells, d. h. der makroskopischen Nachbildui^ eines Stücks Eisens darstellt. *) Aus dem Vergleich dieser drei Figuren sieht man, daß die Theorie im Typus das Richtige trifft. Die jungfräuliche Kurve, die Hysteresisäste, die Remanenz, Koerzitivkraft, Sättigung, alles ist vorhanden, wenn auch in den Einzelheiten noch manches zu wünschen übrig bleibt.

Auffallend bei dieser Theorie ist, daß die in Fig. 1 8 dargestellte Form sich nur unter der Annahme er- gibt, daß die M^netchen *-sich einzig und allein um- eiaander parallele Achsen drehen können, während die in der Na- tur viel wahrscheinlichere freie Dreh- barkeit um einen Funkt nach allen Richtungen des Raums auf Grund von Gansschen Berechnungen eine Kurve ergibt, wie sie in Fig. 23 gezeichnet ist. Eine ähnliche Kurve hat nun in der Tat P. Weiß*) am magnetischen Kristall Pyrrhotin beobachtet. Auch haben Kauf- mann und Meier') an Eisen, das elektrolytisch unter ganz bestimmten Be- dingungen hergestellt war, die Kurve Fig. 24 beobachtet und mit der Gans- schen Theorie (punktierte Kurve) verglichen. Wie man sieht, ist die Überein- stimmung sehr gut. Demnach scheinen der Pyrrhotin und das Kaufmann- Meiersche Elektrolyteisen eine besonders einfache Struktur zu haben.

Nach den Faradayschen Beobachtungen sieht es so aus, als ob para- e und diamagnetische Medien nicht wesentlich voneinander verschieden seien. ^, Jene sind stärker, diese schwächer magnetisch als der freie Äther. Und doch

Bwbuhtoik^eD

□nd MBier 1.11 ilsktrotTtlichem

-n

übrigens hatte E lert und ihr Verhalten in

Magnctfcldc untersucht. Phü. Mag. Bd. 30. S. 205.1890.

d-

an

r^.^

Sa

IS"'< 1

lJ-^4-

,_

^

_

_

■"

f

'

~r

IIX-

'

j_

btabttchUt

:

:---/Ä"Ä7s;^;s,

'/

0

*

+ ^

.5

•'•

\

1

/

'•

p.i

i-^

-

344 i6. R. Gans: Ältere und neuere Theorien des Magnetismus

macht bei näherem Eingehen der geringere Magnetismus als der des Äthers Schwierigkeiten.

Schon Wilhelm Weber hat sich mit diesem Problem beschäftigt und seine Ansicht darüber war die: der diamagnetische Zustand wird erzeugt durch die im Molekül induzierten Ströme beim Erregen des Magnetfeldes, er verschwindet wieder infolge der entgegengesetzten Induktion beim Ausschalten des magneti- sierenden Stroms, und zwar ist die Magnetisierung diamagnetisch, da die In- duktionsströme nach der Lenzschen Regel die Tendenz haben, das sie erzeu- gende Feld zu schwächen.

Während die den Diamagnetismus erzeugenden Molekularströme somit erst gleichzeitig mit dem Magnetfelde entstehen, sind die des Paramagnetismus stets vorhanden, nur sind die Stromebenen im Felde Null gänzlich ungeordnet, so daß keine magnetische Wirkung nach außen stattfinden kann. Erst im Ma- gnetfelde werden die Teilchen gerichtet, und zwar haben sie die Tendenz, sich in Richtung des Feldes einzustellen und dadurch ein paramagnetisches Moment zu erzeugen.

Danach ist ein Stoff denkbar, der nicht paramagnetisch ist, nämlich wenn er keine dauernd vorhandenen Molekularströme enthält, der Paramagnetismus ist also eine spezielle Eigenschaft der Materie, dagegen kann man sich kein Ma- . terial denken, das nicht diamagnetisch wäre, da die Erzeugung der Induktions- ströme einem allgemeinen Naturgesetz entspricht. Ein para- oder ferromagne- tischer Körper ist im Sinne dieser Auffassung stets zugleich diamagnetisch, nur wird der Diamagnetismus durch den stärkeren Para- resp. Ferromagnetismus verdeckt.

Das sah bereits Wilhelm Weber ein, und er schloß, daß, wenn ein Stück Eisen magnetisch gesättigt ist, bei weiterer Feldsteigerung die Magnetisierung wieder abnetimen müßte, denn wenn einmal alle Elementarströme parallel ge- richtet sind, können sie nur noch durch Induktion geschwächt werden. Weber konnte allerdings dieses Phänomen nicht nachweisen, da die damaligen experi- mentellen Hilfsmittel nicht annähernd zur Erzeugung der Sättigung ausreich- ten, und es ist bis auf den heutigen Tag nicht geglückt, den Diamagnetismus des Eisens zu zeigen, trotzdem man wohl annehmen muß, daß er existiert. Elektronen. Auf Grund der modernen elektromagnetischen Theorie, der sog. Elek-

deiMa^etLnius. tronentheorie (vgl. Artikel 15), erklärt man sich magnetische Wirkungen durch zirkulierende oder rotierende elektrisch geladene Partikelchen, sog. Elektronen. Doch so einfach die Frage auf den ersten Blick schien, so kompliziert wurde sie doch, als man in die Details ging.

Allerdings wirkt ein zirkulierendes, elektrisch geladenes Teilchen wie ein Ampere scher Molekularstrom der alten Theorie, aber wie man damals Schwie- rigkeiten hatte, sich einen Strom ohne Widerstand vorzustellen, so ergab sich jetzt, daß ein kreisendes Teilchen durch die von ihm ausgestrahlte elektro- magnetische Energie lebendige Kraft verlieren und schließlich zur Ruhe kommen müßte. Doch zeigte J. J. Thomson, daß, wenn auf einem Kreise mehrere Elektronen in gleichen Abständen angeordnet seien, die gemeinsam um

Erklärung des Para- und Diamagnetismus. Elektronentheorie. Theorie von Langevin 345

die Kreisachse zirkulieren, die Strahlung sehr viel geringer ist, um so geringer, je mehr Teilchen sich im Ringe befinden, so daß ein gleichmäßig geladener Ring oder Rotationskörper dauernd ohne Energiezufuhr um seine Figurenachse ro- tieren kann und dabei einen Elementarmagneten darstellen wird.

Die denkbar einfachste Form von Rotationskörpern wäre die von geladenen Kugeln, die um eine Achse rotieren, doch haben die Untersuchungen von Voigt*^) erwiesen, daß eine solche Kugel sich gar nicht mit ihrer Rotations- achse in die Feldrichtung einstellen, sondern wie ein Kreisel Präzessionsbewe- gungen um dieselbe machen würde. Und ferner folgt, daß die magnetische Er- regung diamagnetisch sein würde. Der Grund dieser auf den ersten Blick über- raschenden Abweichung von dem Verhalten eines permanenten Magneten ist der, daß die A m p ^ r e sehen Molekularströme, die das rotierende Molekül repräsen- tiert, bei der Erzeugung des Feldes nicht konstant bleiben, während ein Elemen- tarmagnet eine feste magnetische Achse und ein permaneiites Moment besitzt.

Somit bleibt für die Form nur die eines nicht-kugelförmigen Rotations- körpers übrig, der um seine Figurenachse rotiert, und zwar recht schnell rotiert, wie die Betrachtungen von H. A. Loren tz^*) zeigen, da das Teilchen sich sonst auch nicht in die Feldrichtung einstellen würde.

Aber auch nach der Elektronentheorie bleibt das Resultat bestehen, daß jedes para- und ferromagnetische Medium zu gleicher Zeit auch diamagnetisch ist, und daß das magnetisch gesättigte Eisen bei stärkeren Feldern wieder seine Magnetisierung etwas verlieren müßte. Würde es gelingen, diesen theoretisch vorausgesagten Effekt zu messen, so würde man daraus die Rotationsgeschwin- digkeit der Elektronen im Eisen bestimmen können.

Während Langevin den Diamagnetismus im Sinne der Elektronentheorie Langevintche durch die Reaktion der Umdrehungsbewegung auf das entstehende Feld er- ^ *' klärte, behandelte er ein paramagnetisches Gas in folgender Weise.

Er nahm an, daß jedes Molekül ein permanentes magnetisches Moment hat, daß aber infolge der thermischen Agitation die Achsenrichtungen nach den Gesetzen des Zufalls wirr durcheinander im Räume verteilt seien.

Erzeugt man nun ein Magnetfeld, so hat dieses die ordnende Tendenz, alle Achsen dem Felde parallel zu stellen, während die thermischen Molekularstöße die alte Unordnung wieder herzustellen bemüht sind entsprechend dem allge- meinen Bestreben der Natur, stets eine möglichst große Unordnung zu erzeugen.

Nach den Maxwell-Boltzmann-Gibbsschen Prinzipien der statisti- schen Mechanik läßt sich nun ein Gleichgewichtszustand berechnen zwischen dem ordnenden Prinzip der magnetischen Kräfte und dem unordnenden Prinzip der thermischen Agitation. Und schon ohne Rechnung erkennt man, daß die Magnetisierung des Gases um so größer sein wird, je stärker das Feld und um so niedriger die Temperatur ist, weil bei tieferer Temperatur die thermische Agi- tation geringer ist; daß ferner bei unendlich großen Feldern Sättigung auftreten muß, weil dann alle Achsen einander parallel gestellt sind, und daß beim absoluten Nullpunkt, bei dem jegliche Molekularbewegung aufhört, das geringste Feld schon genügt, um Sättigung herzustellen; daß dagegen der Diamagnetismus von der

346 i6. R Gans: Ältere und neuere Theorien des Magnetismus

Temperatur unabhängig sein muß, da sich das Wirken des Induktionsgesetzes auf die im Atom befindlichen Elektronen als von der Molekularbewegung unab- hängig ergibt.

Die Rechnung zeigt ferner, daß die paramagnetische spezifische (d. h. auf die Masseneinheit, und nicht auf die Volumeneinheit bezogene) Suszeptibilität umgekehrt proportional der absoluten Temperatur sein muß, in Übereinstim- mung mit den Beobachtungsresultaten von Curie, der gefunden hat, daß der Diamagnetismus keinen Temperaturkoeffizienten hat, während die spezifische Suszeptibilität paramagnetischer Substanzen der absoluten Temperatur um- gekehrt proportional ist. Allerdings verliert die letztgenannte Regel im allge- meinen bei sehr tiefen Temperaturen ihre Gültigkeit.

Die uns zur Verfügung stehenden Feldstärken reichen nicht angenähert aus, eine paramagnetische Substanz zu sättigen, wohl aber kann man auf Grund der Langevinscheil Theorie die Sättigungsmagnetisierung aus der Suszepti- bilität berechnen. Weiß' Magno- Das hat Langevin für Sauerstoff getan. P. Weiß erkannte, daß dieselbe

toneoüieone. jj^gQ^ j^ ^^f wässerigc Lösungen paramagnetischer Salze anwendbar sei, und es gelang ihm so, das Moment des Gramm-Moleküls dieser Salze im Sättigungs- zustande zu bestimmen. Er fand, daß bei den verschiedensten Stoffen die mole- kulare Magnetisierung stets ein ganzzahliges Vielfaches der Zahl 1123,5 ist, die er das Gramm-Magneton nennt.

Da man die Loschmidtsche Zahl, die Anzahl Atome im Grammatom kennt (nach Perrinschen Messungen 68,5 10**), so ergibt sich für das Mo- ment des Elementarmagneten, das sog. Magneton der Wert 16,40 'lO""".

Dieses Resultat, daß der Magnetismus in den Magnetonen ebenso eine ato- mistische Struktur hat wie die Elektrizität in den Elektronen, wurde noch be- stärkt durch die von WeißundKamerlinghOnnes angestellten Messungen der Sättigung von Eisen und Nickel bei der sehr tiefen Temperatur des flüssigen Was- serstoffs, bei der die thermische Agitation keine wesentliche Rolle mehr spielt.

Es ergab sich für das Atommoment des Eisens das Elffache, für das des Nickels das Dreifache der Zahl 1123,5, während O.Bloch auf Weiß' Veranlas- sung Kobalt untersuchte und für dessen Atommoment 9 X 1123,5 fand. DioWeiBiche ^^ außer den paramagnetischen Erscheinungen auch die des Ferro-

Thoorie des mo- magnctismus zu umfassen, hat Weiß die Lange vinsche Theorie dahin ergänzt,

lokularon Feldes.

daß er annahm: die Wirkung der Gesamtheit der Moleküle auf eins unter ihnen sei äquivalent mit einem homogenen magnetischen Felde, welches der Intensität der Magnetisierung proportional und ihr parallel gerichtet ist.

Auf diese Weise konnte er die Abhängigkeit der Magnetisierung des Magne- tits von der Temperatur bis zum Verschwinden der Magnetisierbarkeit infolge der starken Molekularbewegung in Übereinstimmung mit den Beobachtungen berechnen.

Ebenso erklären sich die Anomalien in der spezifischen Wärme magnetischer Materialien, nämlich ein plötzlicher Sprung derselben bei der Temperatur, bei der der Magnetismus verschwindet, und Weiß hat den Sprung c und die Tem-

Weifi' Magnetonentheorie. Molekulares Feld. Beziehungen zum periodischen System 347

Fig. 85.

peratur t, bei der derselbe stattfindet, magnetisch und kalorimetrisch bestimmt und die Zahlen der folgenden Tabelle gefunden:

kalor.

mag^.

kalor.

0,112

753"

758»

0,027

376»

376»

0,050

588»

580»

magn.

Eisen 0,136

Nickel .... 0,025 Magnetit . . . 0,048

also in glänzender Übereinstimmung der Theorie mit dem Experiment.

Bei den soeben erwähnten Beziehungen des Magnetismus zur Atomtheorie Die Begehungen erscheinen auch Relationen zum periodischen System der Elemente nicht fern- "*" sy«tom.*^ liegend. Diese wurden von Koenigsberger und St. Meyer eingehender stu- diert, und nachdem Honda durch sorgfältige Messungen neuerdings ein großes und gesicherteres Zahlenmaterial zusammengebracht hatte, hat er die spezifische Magnetisierbarkeit als Funktion des Atomgewichts in dem Diagramm Fig. 25 dargestellt, aus dem ohne weiteres die Periodizität der Funktion erhellt. Es scheint danach, als ob eine nähere Erklärung der beobachteten Perioden und damit ein Einblick in die Chemie des Magnetismus möglich sein müßte, der aber der Zukunft noch vorbehalten bleibt.

348 i6. R. Gans: Altere und neuere Theorien des Magnetismus

Literatur.

i) Coulomb, Hist. et M6m. de l'Acad. royale des sciences 1785. S. 578 61 1. Ins Deutsche übersetzt und herausgegeben von Walter König in „Ostwalds Klassikern der exak- ten Wissensch. Nr. 13. Leipzig, 1890.

2) Carl Frisdr. Gauss, Die Intensität der erdmagn. Kraft, auf absolutes Mafi zurückge- führt. In der Sitzung der kgl. Ges. d. Wissensch. zu Gottingen am 15. Dez. 1832 vorgelesen. Auch herausgegeben von £. Dom. Ostwalds Klassiker. Nr. 53. Leipzig, 1904.

3) L. EULBR, Opuscula Teil 3, Figurentafel i Fig. 9; Tafel 2 Fig. 3a

4) Wilhelm Weber, Werke Bd. 3. Berlin, 1893, S. 547; Ber. d. kgl. sächsischen Ges. d. Wiss. 1852.

5) £. Warburg, Wiedemanns Annalen Bd. 13. S. 141.

6) J. A. EwiNG, Magn. Induktion in Eisen und verwandten Metallen. Berlin und Mün- chen 1892; deutsch von Holbom und Lindeck. S. 372.

7) R. Gans u. P. Hertz, Ztschr. f. Math. u. Phys. Bd. 61. 1912. S. 13.

8) P. Weiss, Journal de physique. Bd. 4. 1905. S. 473.

9) W. Kaufmann u. W. Meibr, Phys. Zs. Bd. 12. 1911. S. 513.

10) W. Voigt, Annalen d. Physik 1909. Bd. 9. S. 133.

11) H. A. LORENTZ, Encydopädie d. math. Wissensch. Bd. 5, Artikel 14. S. 232. 1904.

17-

DIE ENERGIE DEGRADIERENDEN VORGÄNGE IM ELEKTROMAGNETISCHEN FELD.

Von

E. GUMLICH.

Die Umsetzung von Bewegungsenergie in Wärme durch Vermittlung der wtnne dorch Reibung ist ein uns vollkommen geläufiger Begriff; beruht doch beispielsweise magnetisierea. hierauf die Entwicklung des Feuerzeugs, von der primitivsten Methode der Feuererzeugung der Wilden* durch Reiben zweier Hölzer gegeneinander über das Feuerzeug aus Stahl, Feuerstein und Zunder bis zum modernen Streichholz. So ist es uns auch beim Anblick der sprühenden Funkengarben der scharf ge- bremsten Eisenbahnräder nicht mehr verwunderlich, daß wir gelegentlich vom Brande eines Eisenbahnwagens lesen, dessen schlecht geölte Achsen sich warm gelaufen hatten, und wir glauben wohl eine ähnliche Ursache ohne weiteres auch für die Tatsache annehmen zu dürfen, daß der rasch rotierende Anker einer Dynamomaschine sich stark zu erwärmen pflegt, obwohl schon hier nur ein kleiner Teil der Erwärmung von der eigentlichen Reibung herrührt. Voll- kommen dagegen versagt diese gewöhnliche Vorstellung, wenn wir hören, daß auch der Eisenkern des elektrischen Transformators, der dazu dient, hoch- gespannte Elektrizität in solche niederer Spannung zu verwandeln, und um- gekehrt, eine beträchtliche Erwärmung erfährt, trotzdem der ganze Apparat vollkommen ruht und nur der Eisenkern durch die in seiner Wicklung pul- sierenden Wechselströme ständig ummagnetisiert wird. Also auch durch den Prozeß der Ummagnetisierung, wie er im Dynamoanker und im Transformator- kern vor sich geht, wird offenbar Wärme erzeugt; wir wollen uns diesen Vor- gang einmal etwas näher ansehen.

Setzen wir östlich und westlich von einem Kompaß in gleichem Abstände Hysterese- zwei gleich dimensionierte Magnetisierungsspulen und schalten sie in densel- ben Stromkreis so ein, daß ihre Wirkung auf den Magnet sich aufhebt, so wird dieser bei keiner Stromstärke eine Ablenkung erfahren. Bringen wir jedoch in eine derselben einen langgestreckten, zylindrischen Eisenstab, und lassen den Magnetisierungsstrom langsam von Null ab anwachsen, so dreht sich der Ma- gnet erst langsam, dann rascher, schließlich wieder langsam, entsprechend etwa der Linie OA in Fig. i, die wir erhalten, wenn wir auf der Geraden OX (Ab- szisse) die Stromstärken, in der dazu senkrechten Richtung 0 Y (Ordinate) die Magnetausschläge auftragen. Bei einer bestimmten Stromstärke machen wir halt und lassen den Strom wieder sinken; dann geht auch der Ausschlag

350 17- E.GUMLICH: Die Energie degradierenden Vorgänge im elektromagnetischen Feld

IBOOO^

T

ra

^^^^^^

J^

/

Sono

\ y

^

{

400<M

iL

X

^i

7-

i

§1

1 \IC

X

ho

' 60

1

ho

40 \ßo

So^

/

7

>

f

m

E

~x

Uddö 7

P10.I.

zurück, aber langsamer, als der Magnetisierungs- strom (sog. „Hyste- rese", von ö(TT€pdui, zu- rückbleiben), unser dar- stellender Punkt be- schreibt also nicht wie- der die Kurve AO^ son- dern A B. Dement- sprechend zeigt der Ma- gnet, wenn die Strom- stärke wieder Null ge- worden ist, noch eine Ablenkung OB^ die der sog. „Remanenz" des Materials entspricht. Um sie zu beseitigen, müssen wir die Richtung des Magnetisierungsstroms um- kehren und diesen wieder bis zur Stärke OC anwachsen lassen, die der sog. „Koerzitivkraf t" des Materials proportional ist. Lassen wir den Strom bis zum ursprünglichen Maximum weiter wachsen, dann wieder abnehmen, kehren ihn nochmals um und lassen ihn ansteigen, so beschreibt unser darstellender Punkt weiterhin die Kurvenstücke CDEFA^ er hat also, von A ab gerechnet, eine vollständige Schleife durchlaufen, die sog. „Hystereseschleife". Diese pflegt man allerdings meist nicht durch Stromstärke und Magnetablenkung darzustellen, sondern durch die sog. „Feldstärke"^ und die „Intensität der Magnetisierung" J oder die „Induktion" 83 {83 = 4iry + ^) des magnetisierten Stabes, die in einfacher Beziehung zu Stromstärke und Ablen- kung stehen; der Charakter der Hystereseschleife wird dadurch nicht geändert (vgl. Artikel 16). Geseto Es ist sofort crsichtlich, daß zu jedem beliebigen Werte der Feldstärke,

yonwwburg.^ ß^ Q jQ^ jm allgemeinen zwei Werte der Induktion 83 gehören, nämlich KL und üCilf, von denen der erste dem aufsteigenden Aste FA^ der andere dem absteigenden AB entspricht; der magnetische Zustand des Stabes wird also nicht eindeutig durch die Feldstärke^ bestimmt, sondern hängt in hohem Maße von der sog. „magnetischen Vorgeschichte" ab. Warburg, der diese Erscheinung zuerst klar erkannte und beschrieb, fand im Jahre 1880 den außer- ordentlich wichtigen Satz, daß der Flächeninhalt einer derartigen Hysterese- schleife der pro Zyklus im Eisen geleisteten Arbeit entspricht. Diese Arbeit geht also für die Zwecke der Dynamomaschine oder des Transformators ver- loren, man bezeichnet sie deshalb auch meist als „Hystereseverlust"; tatsächlich erscheint sie wieder in einer degradierten Form von Energie, nämlich als Wärme, und diese ist in mehrfacher Beziehung außerordentlich schädlich, denn sie verdirbt das Isolationsmaterial der Transformatoren und verschlech- tert die magnetischen Eigenschaften des Eisenkerns bzw. vergrößert den

Gesetz von Warburg. Schleifen für verschiedene Feldstärken 3^1

Hystereseverlust (sog. „Altern** des Transformatorblechs). Es ist deshalb das Bestreben der Technik, nicht nur die entstandene Wärme möglichst rasch durch geeignete Mittel zu beseitigen, sondern auch ihre Ursache, den Hysterese- verlust, tunlichst zu verringern; wir werden später sehen, mit welchem Erfolge.

Zunächst fassen wir nochmals nach Fig. i die Gestalt der Hystereseschleifen ins Auge, welche verschieden hohen Feldstärken entsprechen:

Bei ganz niedrigen Feldstärken, im Bereiche der sog. „Anfangspermeabili- Hytterese- tät" (Begriff der Permeabilität vgl. Artikel 15) scheint eine Hysterese voll- '^ch^d« hoir ständig zu fehlen; somit würden auf- und absteigender Ast der Hysterese- ^«^^**''^«"- schleife zusammenfallen, wie man wenigstens bisher auf Grund der Versuche von Lord Rayleigh annahm, der bei dem von ihm untersuchten Material bis zu einer Feldstärke von ^ = 0,04 keine Andeutung von Hysterese fand. Tatsächlich dürften die Verhältnisse wohl so liegen, daß eine Hysterese schon bei sehr niedrigen Feldstärken vorhanden, die Schleife aber sehr schmal und schwer nachweisbar ist. Bei magnetisch härterem Material, schlechtem Stahl- guß, Gußeisen und Stahl, bleibt die schmale Gestalt der Hystereseschleife bis zu höheren Feldstärken bestehen, als bei magnetisch sehr weichem Ma- terial, gutem Stahlguß, Schmiedeeisen usw. Bei solchem konnte durch Ver- suche in der Reichsanstalt schon bei einer Feldstärke von nur 0,008 Gauß eine deutliche Hysterese nachgewiesen werden (Gumlich und Rogowski). Die Bedeutung dieser Frage liegt übrigens weniger auf praktischem, als auf theore- tischem Gebiete.

Mit wachsender Feldstärke nimmt nicht nur die Höhe, sondern auch die Breite der Schleife zu. Sie behält zunächst noch eine ziemlich gestreckte Form (vgl. die gestrichelte Schleife in Fig. i) und zeigt erst bei höheren Feldstärken in ihrem Verlauf den eigentümlichen, mehr oder weniger scharf ausgeprägten Knick, das sog. ,,Knie*'.

Es ist klar, daß es unter sonst gleichen Verhältnissen für die Technik praktisch sein würde, mit möglichst niedrigen Induktionen zu arbeiten, wo die Hystereseschleifen noch schmal und die Hystereseverluste klein sind, und tat- sächlich ist man früher bei Transformatoren meist nicht über Induktionen von 6—8000 hinausgegangen, aber dies erfordert zur Erreichung eines bestimmten Induktionsflusses verhältnismäßig große Querschnitte, also große Eisen- und Kupfermassen, und hat auch noch andere Übelstände im Gefolge. Die Technik hat daher neuerdings das Bestreben, mit den Induktionen immer höher zu gehen, bis auf das Doppelte der vorerwähnten Zahlen, ja, in den Zähnen der Dynamoanker kommen Induktionen von 25 000 und mehr vor.

Natürlich ist es für die Technik von hohem Interesse, den für alle magne- Be«eiiang tischen Materialien verschiedenen Zusammenhang zwischen der Induktion und i^akti^ dem zugehörigen Hystereseverlust zu kennen, und es hat nicht an zahlreichen ^ .^^^, Versuchen gefehlt, diese Beziehung durch Formeln festzustellen, aber das ist veriut einwandfrei noch nicht gelungen und dürfte auch ziemlich aussichtslos sein. Am meisten verwendet wird die von Steinmetz aufgestellte Beziehung E = T| 83^»*, wobei t| eine Konstante sein soll. Danach würde also der Hyste-

352 17* E.GUMUCH: Die Energie degradierenden Vorgänge im elektromagnetischen Feld

reseverlust direkt proportional sein der i, 6 ten Potenz der Induktion, und man könnte denselben, falls man ihn und somit auch ri für eine einzige Induktion be- stimmt hat, bei gleichem Material für jede andere Induktion berechnen. Tat- sächlich stimmt diese Beziehung aber nur für niedrige Induktionen bis etwa S9 = loooo angenähert, dann aber wächst ri sehr stark (die Zunahme kann bis 40 Prozent betragen), um schließlich bei hohen Induktionen wieder ab- zunehmen. Immerhin ist die Formel brauchbar, wenn es sich um den Vergleich von Hystereseverlusten verschiedener Materialien bei annähernd gleichen In- duktionen handelt, und hat sich daher auch in der Technik sehr eingebürgert. Weit besser trägt entschieden die zweigliedrige Formel von Richter: £ = a83 + feSB* den Verhältnissen Rechnung, doch verlangt sie natürlich zur Bestimmung der Konstanten a und b stets die Messung des Hysterese- verlustes bei zwei verschiedenen Induktionen, wirbebtrtfme. Wir haben oben gesehen, daß jedem vollständigen Magnetisierungszyklus ein Energieverbrauch entspricht, der dem Inhalt der Hystereseschleife pro- portional ist. Haben wir nun einen Apparat von bekanntem Eisenvolumen, das in der Sekunde n vollständige Magnetisierungs*Kreisprozesse erfährt, in- dem entweder ein Eisenkern von Wechselstrom umflossen wird oder ein Anker aus weichem Eisen sich zwischen Magnetpolen dreht, so könnten wir uns den gesamten Energieverbrauch dadurch berechnen, daß wir mit Hilfe des Magneto- meters oder eines sonstigen statischen Verfahrens die Hystereseschleife bis zu der gewünschten Induktion aufnehmen, ausmessen und mit dem Volumen und der Periodenanzahl pro Sekunde multiplizieren. Tatsächlich zeigt es sich jedoch, daß der Energieverbrauch, den man mit dem Wattmeter direkt mißt, wesent- lich größer ist. Nimmt man nun mittels besonderer Verfahren, etwa der Braun- schen Röhre (vgl. Artikel 21) oder des Oszillographen, die Hystereseschleifen von rasch wechselnden Zyklen auf, so zeigen diese eine stark veränderte Form, sie sind verbreitert und die Spitzen sind abgerundet. Ob diese Erscheinung z. T. auch auf die sog. Viskosität des Eisens zurückzuführen ist, infolge deren die Magnetisierung der magnetischen Kraft bei raschen Schwingungen nicht mehr momentan folgt, steht noch nicht fest; zum überwiegenden Teil jeden- falls rührt sie daher, daß bei raschen Wechseln durch den im Eisen pulsierenden Induktionsfluß innerhalb des Eisenkernes selbst ebensolche Induktionsströme erzeugt werden, wie etwa in einer den Eisenkern umgebenden kurzgeschlossenen Spule. Es sind dies die sog. „Wirbelströme**, die natürlich ebenfalls einen beträchtlichen, sich in Wärme umsetzenden Energieverbrauch bedingen. Diese Wirbelströme entwickeln sich um so stärker, je größer das spezifische Leitvermögen (vgl. Artikel 20) der betreffenden Eisensorte und je größer der ihnen zur Verfügung stehende Querschnitt ist. Sie haben nebenbei die unange- nehme Eigenschaft, die magnetischen Induktionslinien vom Innern des Eisen- querschnitts nach außen hin zu drängen (der sog. „Skin- oder Hauteffekt**), so daß also der gegebene Eisenquerschnitt nicht ausgenützt werden kann. Eine außerordentlich wichtige Rolle spielen diese Erscheinungen namentlich in der drahtlosen Telegraphie, wo man es mit Periodenzahlen von der Größenordnung

Hystereseverlust und Induktion. Wirbelströme. Unterteilung. Legiertes Blech 353

von etwa looooo pro Sekunde zu tun hat, aber auch schon bei den Perioden- zahlen von etwa 50 pro Sekunde, wie sie die Wechselstromtechnik gewöhnlich verwendet, bringen die Wirbelströme beträchtliche Nachteile hervor.

Man kann nun diese Wirbelströme auf zweierlei Wegen zu verringern ünterteiiunjp suchen. Der früher allein gangbare Weg war der, daß man die Transformatoren- kerne usw. unterteilte, d. h. sie nicht aus kompakten Eisenblöcken, sondern aus isolierten Blechen zusammensetzte und so die Wirbelströme auf die geringe Blechdicke von 0,3 bis 0,5 mm beschränkte. Hierdurch wurde infolge der Herabsetzung des Querschnitts der Strombahnen der elektrische Widerstand erheblich vergrößert und die Stärke der Wirbelströme entsprechend herab- gesetzt, ja es ist mit wachsender Verbesserung der Walztechnik bereits ge- lungen, für Hochfrequenzmaschinen und speziell für die Zwecke der draht- losen Telegraphie Eisenblech von nur 0,03 mm Dicke herzustellen. Allerdings muß man alle Transformatorbleche, welche durch das Walzen nicht nur mecha- nisch härter, sondern auch magnetisch schlechter geworden sind, durch Aus- glühen verbessern, und außerdem verliert man durch die Oxydschichten der Bleche und die Papierisolation beträchtlich an reinem Eisenquerschnitt, aber es gelang doch auf diese Weise, mit Blechen von 0,3 bis 0,5 mm Dicke den Wirbelstromverlust für eine Induktion von 83 = loooo und 50 Perioden pro Sekunde auf etwa 0,3 bis 0,4 des Hystereseverlusts herunterzudrücken.

Ein außerordentlicher Fortschritt wurde sodann in den letzten zehn Jahren Legiertes Bicch. auf einem zweiten Wege, der Vergrößerung des spezifischen Widerstandes des Transformator materials, erzielt, indem die Physikal.-Techn. Reichsanstalt, veranlaßt durch die Ergebnisse wissenschaftlicher Untersuchungen von Ba- rett, Brown und Hadfield, die Fabrikation von Dynamoblech aus Eisen- legierungen mit 4—5 Prozent Silizium veranlaßte. Diese haben ein sehr ge- ringes elektrisches Leitvermögen, so daß auch bei gleichen Dimensionen der Wirbelstromverlust auf etwa den dritten Teil verringert wird. Gleichzeitig aber ergab sich das unerwartete Resultat, daß auch der Hystereseverlust sank und die Magnetisierbarkeit wenigstens bei niedrigen Feldstärken stieg, so daß nunmehr der gesamte Energieverbrauch bei diesen sog. „legierten** Blechen, welche in kurzer Zeit das frühere unlegierte Material fast vollkommen ver- drängt haben, auf etwa den dritten Teil gesunken ist und dadurch jährlich Millionen erspart werden. Diese günstige Wirkung des Siliziumzusatzes auf die magnetischen Eigenschaften des Eisens ist nach den neuesten Versuchsergeb- nissen der Reichsanstalt nicht eine direkte, denn das Silizium wirkt auch in seiner Verbindung mit dem Eisen als unmagnetischer Fremdkörper, der den wirksamen Eisenquerschnitt verringert, sondern eine indirekte, indem es den außerordentlich schädlichen Einfluß des Kohlenstoffs kompensiert.

Der Kohlenstoff ist bei magnetisch weichem Eisen eine der unangenehmsten Einfluß von ver- Verunreinigungen, die leider, abgesehen vielleicht vom Elektrolyteisen, das eine "" »8^«"»«» praktische Bedeutung noch nicht gewonnen hat, nicht vollkommen vermieden werden kann.Das Eisen kann in flüssiger Form bis etwa 4 Prozent Kohlenstoff gelöst enthalten, in fester Form bei hoher Temperatur etwa die Hälfte. Bei lang-

K. d. G. III. m, Bd X Physik 2 3

354 1 7* £• GUMLICH : Die Energie degradierenden Vorgänge im elektromagnetischen Feld

sam sinkender Temperatur scheidet sich Eisenkarbid Fe^ C aus, das als Gefüge- bestandteil den Namen Cementit (Perlit) erhalten hat. Bei raschem Abschrecken von hoher Temperatur bleibt der Kohlenstoff dauernd in Lösung und man erhält den gehärteten Stahl, als Gefügebestandteil ,,Martensit'' genannt. Dieser ist bekanntlich das geeignete Material für permanente Magnete, das außer dem Kohlenstoff vielfach noch Zusätze von Wolfram, Molybdän oder Chrom erhält.

Führen wir mit derartigem Material einen zyklischen Magnetisierungs- prozeß durch, wie wir ihn oben beschrieben, so sehen wir, daß wir bei der glei- chen Feldstärke eine wesentlich niedrigere Induktion erhalten, als beim wei- chen Eisen; auch die Remanenz ist im allgemeinen etwas niedriger, dagegen die Koerzitivkraft außerordentlich hoch, bis zu 70 Gauß, und gerade dies ist be- sonders wichtig für die permanenten Magnete, weil die hohe Koerzitivkraft die entmagnetisierende Wirkung des freien Magnetismus an den Enden eines gewöhnlichen Stab- oder Hufeisenmagnets, welche den remanenten Magnetis- mus außerordentlich schwächt, bis zu einem gewissen Grade unschädlich macht. Der Hystereseverlust bei der Ummagnetisierung von hartem Stahl ist dagegen außerordentlich groß, und man hat infolgedessen durch langsame Abkühlung dafür zu sorgen, daß bei dem für Dynamomaschinen, Transforma- toren usw. bestimmten Material auch nicht der kleinste Bruchteil des als Ver- unreinigung vorhandenen Kohlenstoffgehalts in gelöster Form erhalten bleibt, sondern als Perlit ausgeschieden wird. Aber auch in dieser Form ist er noch schädlich genug, denn bei reinem Perlit beträgt die Koerzitivkraft, welche ja die Breite der Hystereseschleife und somit auch den Hystereseverlust bestimmt, immer noch etwa 7 Gauß gegen etwa 0,5 bis I Gauß bei ziemlich reinem Ma- terial. Da hilft nun der schon oben erwähnte Zusatz von etwa 4 Prozent Sili- zium, der nach den in der Reichsanstalt und im eisenhüttenmännischen Institut der Technischen Hochschule zu Aachen ausgeführten Untersuchungen bewirkt, daß bei längerem Ausglühen der vorhandene Kohlenstoff als „Temperkohle** (Graphit) ausgeschieden wird, welche in magnetischer Beziehung fast voll- ständig unschädlich ist.

Ähnlich wie Silizium scheint auch Aluminium zu wirken, während um- gekehrt Mangan die Abscheidung von Kohlenstoff aus der Lösung zu verzögern und dadurch den Hystereseverlust zu vergrößern scheint; doch liegen darüber systematische Versuche noch nicht vor.

Auch über den Einfluß der im Eisen stets vorhandenen Gase, Wasserstoff, Sauerstoff, Stickstoff, Kohlenoxyd, Kohlensäure usw. auf die Form und Größe der Hystereseschleife ist bis jetzt wenig bekannt. Man hat dabei zwei Fälle zu unterscheiden, die meist vereinigt vorkommen werden. Ist das Gas nur in Höhlungen eingeschlossen, so stören wohl die Höhlungen den Induktionsfluß, das Gas selbst aber spielt sicher keine besonders schädliche Rolle; ist es dagegen im Eisen gelöst, so scheint es im allgemeinen ungünstig zu wirken und den Hy- stereseverlust zu vergrößern. Dies ist in hohem Maße namentlich beim Wasser- stoff der Fall, wie stark wasserstoffhaltiges Elektrolyteisen zeigt, das nicht nur mechanisch außerordentlich spröde und brüchig ist, sondern auch eine Koerzitiv-

Einflufi von Verunreinigungen. Heuslersche Legierungen 3^5

kraft von 20 Gauß und mehr haben kann. W, Kaufmann und W. Meier gelang es vor kurzem, nachzuweisen, daß die eigentümliche, rechteckige Ge- stalt der Hystereseschleife von derartigem Elektrolyteisen tatsächlich durch den Wasserstoff hervorgerufen wird, nach dessen Verschwinden die Schleife sich rundet und abflacht. Durch Glühen im Vakuum läßt sich der Wasserstoff- gehalt leicht beseitigen; auf diese Weise konnte man bei Versuchen in der Reichsanstalt stark wasserstoffhaltiges Elektrolyteisen so weit verbessern, daß die Koerzitivkraft nur noch 0,29 Gauß betrug und der Hysterese verlust somit verschwindend klein geworden war. Allerdings ist dieser Fall bis jetzt vereinzelt geblieben, er legt aber doch die Vermutung nahe, daß bei geeigneter Behandlung völlig reines Eisen die Eigenschaft der Hysterese überhaupt nicht mehr zeigen wird.

Dieser Zustand ist angenähert ebenfalls schon erreicht worden bei einem ganz Heusierschc anderen, f erromagnetischen Material, nämlich den sog. H e u s 1 e r sehen Legierun- ®^®™°«®"- gen (vgl. Artikel 13). Sie bestehen aus einer Grundsubstanz von Kupfer mit Man- gan- und Aluminiumzusatz in bestimmten Prozentgehalten, wobei das Alumi- nium auch durch andere Elemente vertreten werden kann, und zeigen nach geeig- neter thermischer Behandlung, der sog. „Alterung*', starke Magnetisierbarkeit, die im günstigsten Falle etwa Vs der Magnetisierbarkeit des Gußeisens er- reichen kann. Diese Entdeckung, die Heusler im Jahre 1898 machte, aber erst später veröffentlichte, war um so überraschender, als jeder der drei Be- standteile für sich genommen keinerlei ferromagnetische Eigenschaften auf- weist, nur vom Mangan sollen allerdings unter bestimmten Umständen ferro- magnetische Modifikationen beobachtet worden sein. Die Heuslerschen Le- gierungen, welche außer durch den Erfinder besonders durch Richarz (Mar- burg) und seine Schüler genau studiert wurden, zeigen nun gewöhnlich eben- solche Hysterese-Erscheinungen, wie das Eisen; doch ist es Take gelungen, bestimmten Legierungen durch Schmieden und Abschrecken bei hohen Tem- peraturen die Hysterese nahezu vollkommen zu nehmen.

Der Vollständigkeit halber möge noch erwähnt werden, daß die beiden anderen bekannten ferromagnetischen Substanzen, Nickel und Kobalt, ganz ähnliche Eigenschaften der Hysterese besitzen wie das Eisen. Technisch spie- len sie bis jetzt keine erhebliche Rolle, nur in ihren Legierungen mit Eisen zeigen sie interessante und auch technisch verwertbare Eigenschaften, auf die jedoch hier nicht näher eingegangen werden kann.

Die Versuche, diese außerordentlich interessante und komplizierte Er- versuche scheinung der Hysterese zu erklären, haben zu einem vollkommen befriedigen- der Hyst^rwe. den Ergebnis noch nicht geführt. Am besten den Tatsachen entspricht wohl bisher die Ewingsche Modifikation der Weberschen Theorie. Weber nahm an, daß auch unmagnetisches Eisen aus Molekularmagneten besteht, die aber ganz ungeordnet sind, so daß ihre Polarität sich aufhebt und keine Wirkung nach außen merklich wird; dagegen ist eine Richtkraft vorhanden, welche die Achse jedes Moleküls in ihrer Lage zu erhalten strebt. Beim Vorhandensein eines äußeren Feldes drehen sich die Elementarmagnetchen mehr oder weniger

23*

356 17- £• GUMUCH: Die Energie degradierenden Vorgänge im elektromagnetischen Feld

in die Richtung dieses Feldes, je nach dessen Stärke, und es entstehen die uns wohlbekannten Pole an den Enden der Stäbe, Hufeisen usw. Unerklärt bleibt hierbei gerade die Tatsache der Hysterese, zu deren Verständnis G.Wiedemann einen reibungsähnlichen Widerstand einführte, welcher der Drehung entgegen- wirkt. Damit lassen sich manche Erscheinungen gut erklären, aber nicht die Tatsache, daß auch jeder noch so kleinen Feldstärke eine bestimmte Magneti- sierung, also eine Drehung der Moleküle, entspricht, während wir bei reibungs- artigen Vorgängen erfahrungsgemäß annehmen, daß die Kraft erst eine gewisse Grenze überschritten haben muß, ehe eine Bewegung eintritt. Ewing ver- zichtet auf diese willkürlichen Annahmen von Richtkraft und Reibungswider- stand und gründet seine Anschauung auf den gegenseitigen Einfluß, den die Molekularmagnete eben deshalb, weil sie schon Magnete sind, aufeinander aus- üben, und der natürlich auch in allen Gruppen eine gewisse Richtkraft be- dingt; es ist ersichtlich, daß sowohl diese Richtkraft wie auch die Gleich- gewichtsbedingungen eines Moleküls von der Lage aller benachbarten Mole- küle abhängen. Denken wir uns nun auf die Gesamtheit derartiger Molekular- magnete eine äußere Richtkraft So von zunehmender Stärke einwirken, so werden sich anfangs die Moleküle, deren Achse nicht mit der Richtung von ^ zusammenfällt, etwas aus ihrer ursprünglichen Lage herausdrehen, aber, da ihre Verbindung untereinander nicht gelöst ist (stabiles Gleichgewicht!) nach Aufhören der Kraft wie bei elastischen Vorgängen unterhalb der Elastizitäts- grenze wieder in die ursprüngliche Lage zurückkehren (unterer Teil der Mag- netisierungskurve). Bei weiterem Wachsen der äußeren Kraft werden sich nacheinander immer mehr Moleküle aus dem Gruppenverband lösen und an- genähert in die Richtung der äußeren Kraft umklappen (zweiter, steil anstei- gender Teil der Magnetisierungskurve, labiles Gleichgewicht). Auch nach Be- endigung dieses Umklappens brauchen die Achsen der einzelnen Molekular- magnete noch nicht genau mit der Richtung der äußeren Kraft zusammen- zufallen. Dies wird aber um so mehr eintreten, je stärker die äußere Kraft wird; es wird also noch eine langsame weitere Drehung, ein langsames An- wachsen des Magnetismus bis zur Sättigung stattfinden (dritter Teil der Magne- tisierungskurve). Sinkt nun die äußere Kraft wieder, so wird nur ein Teil der Molekularmagnete in die ursprüngliche Lage zurückkehren, ein anderer Teil aber die Endlage beibehalten, so daß ihre Polarität der anfänglichen ent- gegengesetzt ist. Wir haben also eine Remanenz in Richtung des äußeren Feldes und somit auch die Erscheinung der Hysterese.

Es ist Ewing gelungen, nicht nur eine ganze Anzahl der magnetischen Erscheinungen mit dieser Anschauungsweise theoretisch zu vereinigen, son- dern sie auch experimentell mit Hilfe einer großen Anzahl kleiner Kompaß- nädelchen zu bestätigen. Gleichwohl wird man nicht annehmen dürfen, daß diese etwas groben Bilder zur Versinnbildlichung der magnetischen Vorgänge eine endgültige Lösung der schwierigen Frage geben. Die tatsächlichen Ver- hältnisse eind jedenfalls außerordentlich kompliziert, und es ist eine ganze Anzahl von Physikern, wie Langevin, du Bois, P.Weiß, Gans, Richarz

Erklärungsversuche. Erschütterungen. Andere Beispiele ^^j

11. a. eifrig und zum Teil mit gutem Erfolg bestrebt gewesen, das Dunkel zu lichten, aber gerade in dem besonders schwierigen Gebiet der Hysterese ist die Theorie noch recht unsicher (vgl. Artikel i6).

Wenn es nun als sehr wahrscheinlich angesehen werden darf, daß die mag- Binüafl von netischen Eigenschaften an die Moleküle gebunden sind, so ist es nur natürlich, JTw. aoflur^ daß diese magnetischen Eigenschaften auch durch Vorgänge beeinflußt werden, "y**«'«"- welche die molekulare Beschaffenheit vorübergehend oder dauernd ändern. So ist bereits früher darauf hingewiesen worden, daß der Hystereseverlust von weichem Eisen durch mechanische Bearbeitung, wie Hämmern, Walzen, Ziehen usw., ganz beträchtlich zunimmt.

Erschütterungen des Materials während des Magnetisierungsvorgangs scheinen zu bewirken, daß die Moleküle der Wirkung des magnetischen Feldes leichter folgen; die Permeabilität steigt, Remanenz und Hystereseverlust neh- men ab (Gilbert, Warburg, Ewing usw.). Einen ähnlichen Einfluß haben, namentlich bei kürzeren Stäben und EUipsoiden aus sehr weichem Material, größere Sprünge der magnetisierenden Kraft (Gumlich und Schmidt), wäh- rend bei geschlossenen Ringen und bei Stäben, die im Joch untersucht werden, diese Erscheinung kaum noch merklich ist (Rück er). Schickt man schließlich durch einen in der Achsenrichtung zu magnetisierenden Draht einen elektri- schen Strom und erzeugt dadurch außer dem axialen noch ein kreisförmiges magnetisches Feld, so nimmt wiederum der Hystereseverlust ab, und zwar am wenigsten bei dauerndem Gleichstrom, stärker bei unterbrochenem Gleich- strom, am stärksten bei Wechselstrom; hier kann bei Weichem Eisen der Hy- stereseverlustauf weniger als zwei Prozent sinken. (Gerosaund Finzi.) Neben- bei bemerkt erfährt ein derartiger stromdurchflossener Draht bei der Längs- magnetisierung auch eine Drehung um die Achse, während die Magnetisierung ohne gleichzeitigen Stromdurchgang eine Längenänderung hervorbringt, und zwar bei Nickel und Kobalt eine Verkürzung, beim Eisen in starken Feldern ebenfalls eine Verkürzung, bei schwachen eine Verlängerung.

Die Tatsache der Degradierung eines Teils der aufgewendeten Energie in Andere eine niedrigere Form, die nicht unmittelbar allen Zwecken dienstbar gemacht werden kann, nämlich die Wärme, fällt wohl wegen ihrer starken Wirkungen bei den besprochenen Hystereseerscheinungen ganz besonders ins Auge, und diese sind deshalb auch eingehender besprochen worden; in Wirklichkeit aber sind derartige Vorgänge außerordentlich verbreitet. Ganz allgemein kann man sagen, daß in metallischen Leitern, wie Drähten, Spulen, Platten usw., die in einem inhomogenen magnetischen Felde bewegt oder von einem Wechsel- feld durchflutet werden, stets elektrische Spannungen entstehen, die sich durch Ströme auszugleichen suchen. Ein Teil der hierbei erzeugten elektromagneti- schen Energie setzt sich dabei stets in Wärme, eine meist außerordentlich un- erwünschte Energieform, um und wird so ihrem eigentlichen Zweck entzogen. Eine spezielle und wichtige Aufgabe für den Erbauer elektrischer Maschinen ist es, diese unvermeidlichen Verluste wenigstens möglichst niedrig zu halten.

358 17* £. GUMLICH: Die Energie degradierenden Vorgänge im elektromagnetischen Feld

In naher Beziehung zu dem oben Ausgeführten steht schließlich noch die vielfach beobachtete Tatsache, daß auch Kondensatoren mit flüssigem oder festem Dielektrikum, die von einer Wechselstromquelle geladen werden, sich er- wärmen. Zur Erklärung dieser Tatsache hat man früher unter anderem auch eine Art von Hysterese, ähnlich der magnetischen, angenommen. Neuere Ver- suche haben jedoch gezeigt, daß man es hier wohl nur mit der sog. Jou le- schen Wärme zu tun hat, die in dem Dielektrikum infolge seines, wenn auch nur schwachen elektrischen Leitungsvermögens entsteht, und zwar wird die Wärmeerzeugung um so stärker, je inhomogener die Dielektrika sind (Stein- metz, V. Schweidler, K. W.Wagner).

i8. DIE DRAHTLOSE TELEGRAPHIE.

Von Ferdinand Braun.

Die Bestrebungen nach einer drahtlosicn Telegraphie sind nicht viel jünger HutoTbcbes als die Entdeckung der Drahttelegraphie selber, sofern letztere auf elektro- magnetischer Wirkung beruht. Auf diese Eigenschaft des Stromes gründeten bekanntlich Gauß und Weber ihren Telegraphen, den sie im Jahre 1833 in Göttingen ausführten, indem sie über die Häuser der Stadt hinweg die Sternwarte und das physikalische Institut durch eine hin- und rückführende Drahtleitung miteinander verbanden. Damit wurden zum ersten Male Zeichen, Wörter und Sätze übermittelt. Im Jahre 1835 fangen die Bemühungen des amerikanischen Malers Morse an, welche im Jahre 18/14 zu einer Versuchslinie zwischen Balti- more und Washington führten. Schon im Jahre 1838 fand Steinheil, daß man die Rückleitung durch die Erde könne besorgen lassen. Vielleicht gehen auf eine Erweiterung dieser Tatsache die Versuche von Rathenau am Wannsee Rathenau (1894) und die analogen von Strecker (1895) gedanklich zurück. Sie leiteten"" "**^ ^^' mittels zweier Platten konstanten oder ,, zerhackten** Gleichstrom dem Wasser oder dem feuchten Boden zu und entnahmen in ähnlicher Weise an einer ent- fernten Stelle demselben einen Zweigstrom behufs Zeichenempfanges.

Ein Vorschlag anderer Art wurde 1 849 von W i 1 k i n gs gemacht. Er glaubte, wüking« X849. die englische und französische Küste ohne Verbindungsdraht in Nachrichten- übertragung versetzen zu können, wenn er an jedem Ufer einen 10 bis 20 Meilen langen Draht, parallel und möglichst nahe dem Ufer, zöge; die Drähte sollten (zur Ersparung der metallischen Rückleitung) in Erdplatten enden. In die eine Leitung sollte eine kräftige galvanische Batterie, in die andere empfindliche stromanzeigende Apparate geschaltet werden. Ein Strom in der ersten Leitung sollte sich an den Apparaten der zweiten bemerkbar machen.

Wesentlich mit der gleichen Anordnung (aber durch Induktion) erzielte Pweco. Lodg«. Preece im Jahre 1893 ^^^^ telegraphische Verständigung auf acht Kilometer. Lodge hat ein ähnliches System mit Wechselströmen von Frequenzen, wie sie hörbaren Tönen entsprechen, ausgearbeitet.

Im Jahre 1892 hatte Edison vorgeschlagen, eine am oberen Ende eines B<iiKm 1892. langen Vertikaldrahtes angebrachte Platte durch einen Induktor elektrostatisch zu laden; sie sollte den Geber darstellen und auf eine entfernte zweite, ähnlich angebrachte, den Empfänger, durch elektrostatische Influenz wirken. Beide Platten sind mittels ihrer Drähte gleichzeitig an Erde gelegt; der Sender durch den Induktor hindurch, der Empfänger direkt. Die im Drahte des letzteren ent- stehenden Ströme sollten die Zeichengebung ermöglichen.

36o i8« Ferdinand Braun: Die drahtlose Telegraphie

MaroonL Rein äußerlich genommen unterscheidet sich diese Anordnung nicht wesent* lieh von derjenigen, welche Marconi im Jahre 1897 zuerst benutzte (Fig. i). Der Induktionsapparat ladet den vertikalen Sender; dieser entladet sich aber durch die Funkenstrecke F gegen die Erde. Im ähnlich gestalteten Empfänger befindet sich da, wo im Sender die Funkenstrecke ist, eine empfindliche, wellen- anzeigende Vorrichtung (Kohärer oder Fritter). So ähnlich die beiden Anordnungen sich sehen, so wesentlich unter-

scheiden sie sich in ihrer Wirkung. Bei Edison erfolgt die Ladung und Entladung im Tempo des Unterbrechers, welcher den Induktor versorgt, also höchstens einige hundertn^al pro Sekunde. Bei der Mar conischen Anordnung dagegen entsteht mit jedem Funken nochmals ein Wellenzug sehr schneller elektrischer Oszillationen (von Frequenzen in der Größenordnung einer Million) ; und diese sind das Wirkende. Wir werden auf diesen Unterschied der beiden Versuchsanord- nungen, welcher die prinzipielle physikalische Frage besonders klar W^' darlegt, später zurückkommen (vgl. S. 372). schneUe ^s-z- Wir gchcn zunächst kurz auf diese schnellen elektrischen

^w.'xhS^? Schwingungen ein. Sie sind zuerst bei der Entladung von Leidener Flaschen Feddenen. aufgefunden wordcn; Helmholtz hatte schon 1847 in seiner „Erhaltung der Kraft' ' darauf hingewiesen, aus bereits bekannten Tatsachen folge mit großer Wahrscheinlichkeit, daß eine Leidener Flasche sich oszillatorisch entlade; Sir WilliamThomson hatte 1855 theoretisch diesbezügliche Gesetze abgeleitet und bald darauf (1858) hatte Feddersen sie experimentell nachgewiesen und zahlenmäßig studiert, indem er den Entladungsfunken der Flasche durch einen rotierenden Spiegel zu einem Bande auszog, welches er photographierte. Er ließ 2 bis 16 Leidener Flaschen sich durch einen Kupferdraht von 5 bis 1300 m Länge entladen und erhielt Oszillationen von 25 000 bis 500 000 ganzen Schwin- gungen pro Sekunde (vgl. Artikel 14). Herta 1887. Im Jahre 1887 begann Hertz seine grundlegenden Untersuchungen (vgl. Artikel 14). Sein Fortschritt liegt nach drei Richtungen: i. er erzielte durch Verkleinerung der Dimensionen wesentlich höhere Schwingungszahlen (10 Mil- lionen bis 500 Millionen pro Sekunde) und damit kürzere Wellenlängen; diese gaben die Möglichkeit eines Experimentierens in kleinen Räumen (Laboratorien) ; 2. er machte zum ersten Male überhaupt Schwingungen in offenen Bahnen, z. B. auf zwei durch eine Funkenstrecke getrennten Stäben; diese geben eine stärkere Fernwirkung, sog. Strahlung; 3. er zeigte mittels dieser neuen Hilfs- mittel, daß die elektrischen Schwingungen, wie es Maxwells Theorie verlangte, sich in jeder Beziehung wie Licht verhalten. Sie durchschreiten den Raum mit Lichtgeschwindigkeit, sie werden an Medien anderer Dielektrizitätskonstanten gebrochen wie Lichtstrahlen, sie werden an der Grenzfläche verschiedener Me- dien, besonders stark an Metallen, reflektiert. Hertz konnte durch Benutzung der Reflexion auch stehende elektrische Wellen in Luft herstellen (das opti- sche Analogon dazu fehlte damals noch, es wurde durch Otto Wiener später erbracht). (Vgl Artikel 26.)

Marconi bis Braun ^51

Hertz hatte als Reagens auf die Wellen, welche z. B. durch Luft hindurch sich ausbreiten, die Entstehung eines kleinen Fünkchens benutzt, welches auf- trat, wenn die Wellen auf einen Metalldraht passender Länge (Resonator), der bis auf eine kleine Funkenstrecke zu einem Kreis gebogen war, auffielen, dabei hatte er in seinen Spiegelversuchen den „geschlossenen** Resonator durch einen offenen ersetzt. Das erwähnte Reagens war ziemlich empfindlich. Im Jahre 1 890 entdeckte Branly ein außerordentlich viel empfindlicheres, die Branlysche Röhre (Ko- Bxaniy 1890. härer, Fritter). Sie enthält zwischen zwei Metallstäbchen etwas Metallpulver. C^*»^**"''»^'***®') Dieses ist für gewöhnlich nicht leitend; ein galvanisches Element mit dem Ko- härer und einem Multiplikator zu einem Stromkreis verbunden, bewirkt keinen Ausschlag im Instrument. Fallen aber elektrische Wellen auf die Anordnung derart auf, daß sie an den Polen des Kohärers eine gewisse Spannung erzeugen, so wird dieser „durchschlagen**, er wird leitend; durch eine mechanische Er- schütterung kehrt er aber in den nichtleitenden Zustand zurück.

Mit diesem Detektor experimentierte u.a. A. Lodge; Popoff schaltete Popoff. ihn 1895 in einen Blitzableiter und registrierte damit entfernte Gewitter. Dgj. ^"»p^«»«®'- erregte Kohärer bewirkte Stromschluß in einem Morseapparat und erregte gleichzeitig einen kleinen Elektromagneten, dessen Hammer gegen den Kohärer schlug und ihn wieder nichtleitend machte (entf rittet).

Diesen Kohärer benutzte Marconi, um damit Signale in größerer Ent- fernung (zunächst einige Kilometer) aufzunehmen. Er schloß sich im Sender an- fangs ganz an Hertzsche Anordnungen vergrößerten Maßstabes an, entfernte sich aber, weiter experimentierend, allmählich von denselben, ging zu größeren vertikalen „Antennen** über und fand, daß eine „Erdung** des Fußes der Sen- Antenne. derantenne die Fernwirkung ganz außerordentlich erhöhte und ihn erst prak- tisch brauchbar machte. Längere Zeit hat die Notwendigkeit der Erdung ge- Erdang, wissermaßen als Axiom gegolten, obschon der Verfasser schon 1898 zeigte, daß dieselbe nicht nötig ist, häufig sogar besser durch eine später als „Gegen- Gegengewicht, gewicht** bezeichnete Anordnung ersetzt wird.

Der Marconisender hatte eine Reihe von Übelständen: i. man hatte auf demselben nur verhältnismäßig geringe Ladungen und damit nur kleine Ener- gien zur Verfügung; 2. man konnte dieselben zwar durch Vergrößerung der Funkenstrecke erhöhen, gewann aber von einer bald erreichten Grenze (einige Zentimeter) ab praktisch nichts mehr, weil der vergrößerte Funke fast alle weiter zugeführte Energie verzehrte, so daß sie für die Fernwirkung nicht in Betracht kam; 3. er mußte sehr vollkommen isoliert sein; eine einzige mangel- hafte, z. B. feuchte, Isolationsstelle konnte ausreichend sein, daß man ihn über- haupt nicht mehr laden konnte, er also vollständig versagte. Man hatte im engen Anschluß an die Hertzschen Anordnungen das Gebilde, welches die Wellen ausstrahlte, auch gleichzeitig benutzt, um sie zu erzeugen. Dies war für Laboratoriumsversuche nahegelegen und ausreichend, aber nicht für die hier angestrebten Zwecke.

Die Anordnungen des Verfassers (aus dem Jahre 1898) trennen beide Funk- Braun 1898. tionen und bedingen damit einen prinzipiellen Fortschritt. Die Funkenstrecke

362

i8. Ferdinand Braun: Die drahtlose Telegraphie

Tronnang

▼on Radiator

und Srreger

(Schwingungs«

kreia).

i

£rregtuig

des

Braonschen

Senden.

Allgemeinea

aber

Schwingnngf-

kreise.

Verteilte Leiter (Skineffekt).

wurde aus der Antenne entfernt; die Schwingungen in ihr wurden erregt aus einem geschlossenen „Schwingungskreise**, d. h. aus einem Kreise, welcher

aus Leidener Flaschen (Kondensatoren) und Selbstinduktion be- stand; die in diesen Kreis verlegte Funkenstrecke war weniger schädlich; die Energie konnte durch die Kondensatoren in beque- mer Weise erheblich gesteigert werden; die Isolationsschwierig- keiten waren praktisch entfernt. Während aber der Marconisender stets seine lediglich durch seine Maße bestimmte Schwingungszahl gab, handelte es sich hier um zwei getrennte Systeme und für beste Wirkung mußte die Schwingungszahl des Kreises derjenigen der Antenne angepaßt sein (mit der im allgemeinen einzuhaltenden ^ Nebenbedingung, daß man die Kapazität des Erregerkreises und Fig.aa. damit die Energie möglichst groß machte). Für die Übertragung der Schwingungen auf die Antenne wurden entweder eine direkte (Fig. 2 a) oder eine sog. induktive (Fig. 2 b) oder endlich eine aus beiden gemischte Schaltung benutzt.

Diese Anordnung des Scndergebildes hat erst die Überbrückung großer Entfernungen ermöglicht und ist heutigen Tages fast aus- schließlich in Verwendung.

Da es sich, auch bei den sog. offenen Strombahnen, wie sie die Antenne vorschreibt, um Vorgänge handelt, welche sich in vielen Beziehungen auf die in geschlossenen Kondensatorkreisen stattfin- Fig.2b. denden zurückführen lassen, sosollen zunächst die Eigenschaf ten

des geschlossenen Kreises besprochen werden. Wir haben in einem solchen: i. den Kondensator; seine Kapazität sei C; 2. die Selbst- induktion L des Schließungsbogens; 3. den Ohmschcn Widerstand R des Schließungsbogens. Dieser ist im allgemeinen für die schnel- len Schwingungen wesentlich größer (zehnmal und noch mehr) als für konstanten Strom, weil sich die Stromfäden um so mehr auf die Oberfläche drängen (Skineffekt), je schneller die Schwingungen sind. Nur für sehr dünne Drähte (etwa 0,2 mm Durchmesser) wer- den beide Widerstände praktisch gleich, daher die in der Praxis bei Schwingungen schon lange befolgte Auflösung dickerer Drähte in dünne.

a) Der Kondensator sei statisch geladen und ent- I lade sich durch seine Strombahn (mit ihrer Funkenstrecke).

Fig.ac. Um eine statische Ladung des Kondensators zu erzielen, muß in den Kreis eine Funkenstrecke eingeschaltet sein; ihre Länge bestimmt die mögliche Anfangsladung und ist ihr cet. par. annähernd proportional. Hat die Ladung eine hinreichende Höhe erreicht, so wird die Funkenstrecke durch- brochen. Damit fällt der vorher praktisch unendlich große Widerstand der Luftstrecke auf einen relativ kleinen Wert, es ist so, als wenn jetzt an ihre Stelle ein Widerstand von etwa der Größenordnung eines Ohm eingeschaltet

/

I

I

■r

Braunscher Sender. Schwingungskreis 363

wäre. Von einem konstanten Widerstände des Funkens kann man nicht sprechen, er variiert in komplizierter Weise mit den Bedingungen, ist aber bei Schiießungs- bögen von recht kleinem Widerstand relativ zu diesen sehr erheblich. Der Ent- ladungsvorgang im Schließungsbogen hängt von dessen Beschaffenheit ab; hier interessiert uns nur die sog. oszillatorische Entladung. Sie ist dadurch charakterisiert, daß in der Bahn elektrische Wechselströme J von zeitlich ab- nehmender Intensität (gedämpfte Schwingungen; vgl. Fig. 3) entstehen, d. h. von der Form

y = yo^""sinu)/ wo i die laufende Zeit bedeutet und b die Dämpfungskonstante.

Wir nennen die Maximalwerte des Stromes seine Amplituden (7o wohl auch die Maximalamplitude) und sprechen in demselben Sinn auch von Amplituden der Spannung usw.

Es soll ferner sein T die Zeit für eine ganze Schwingung (Schwingungsdauer), n die Anzahl ganzer Schwingungen pro Sekunde, also n-r=i; u) = 2TTndie sog. zyklische Schwingungszahl.

Die Theorie ergibt dann praktisch hinreichend genau

r=2iTyZc

wenn V^ die anfängliche Ladespannung des Kondensators ist. Die Energie {7, welche zur Verfügung steht, ist

y = T CV^ «. Die Dämpfungskonstante b wird

0 = —jr^

das logarithmische Dekrement _

Man unterscheidet nämlich zwischen Dämpfung (Dämpfungskonstante b) und logarithmischem Dekrement i. Die Dämpfung gibt ein Bild von der Ab- nahme der Amplituden, wenn man die Zeiten, wie üblich, z. B. in Sekunden mißt (Kurve v4, Fig. 3). Das logarithmische Dekrement (b'T), auch schlechtweg Dekrement genannt, gibt ein Bild von der Abnahme der Amplituden während der Zeit einer Schwingung; dies Dekrement wird also bei derselben Dämpfung um so kleiner, je kürzer die Zeit einer Schwingung ist (wie man unmittelbar über- sieht, wenn man in die Exponentialkurven A^ Fig. 3 Schwingungen verschie- dener Schwingungszahl einzeichnet). Eis ergibt sich für die im Kreise entstehen- den Ströme 7 (je nachdem man b oder i einführt) die Schwingungsform

J^J^.e-^^ütiM}i\ b = ^ oder y = ^o^ "'^' sinu)^, i^h-T

364 i^* FBRDlNiiND BRAUN: Die drahtlose Teleg^phie

In allen diesen Formeln sind die Größen je in demselben System (z. B. dem absoluten elektromagnetischen) gemessen gedacht und so in die Rechnung ein- zuführen.

Man redet heute vorzugsweise statt von Schwingungszahlen von den Wel- lenlängen X (in Luft bzw. von den ihr gleichen an Drähten in Luft). Aus der Schwingungszahl n und der Fortpflanzungsgeschwindigkeit v derselben in Luft {= Lichtgeschwindigkeit = 3 10^® cm/sec) ergibt sich X aus der allgemeinen Beziehung t; = n X.

Die Wellenlänge ergibt sich, wenn man Kapazität C und Selbstinduktion L in Zentimetern mißt (anschaulich, aber etwas inkonsequent)

X = 2iryZC

(und daraus ^ ^ x)

Wir geben hier einige Wellenlängen und Schwingungszahlen (elektrischer Wellen) :

Schwingungszahl pro Sek. Wellenlänge

500 Millionen 0,6 Meter Hertz bei seinen Spiegelversuchen 1888,

50 6 Hertz bei seinen ersten Versuchen 1887,

2,5 ,, 120 Etwa die zu Beginn der drahtlosen Telegraphie

I Million 300 benutzten

Die folgende, einem Vortrage von Arco entnommene Tabelle gibt die später in der drahtlosen Telegraphie benutzten (wegen Funkenzahl vgl. weiter unten) :

Jahreszahl Funkenzahl pro Sek. Wellenlänge Schwingungssahlen

1897— 1899 10— 20 100— 300 Meter 3 Millionen bis i Million

1899 1907 20— 100 300 1500 ,, I Million ,t 200000

1907—1912 1000^2000 )

GroBstationen 500 ) 1500-10000 200000 30000

Internat. Welle 300, 450—1600 Meter

Erinnert sei daran, daß die Schwingungszahlen der hörbaren Töne von 40 bis etwa 20000 gehen. Die musikalisch gebrauchten liegen zwischen 40 und 4000.

b) Kondensatorkreis durch eine periodische elektromoto- rische Kraft erregt. Dieselbe habe die Form E = E^sin ujt; die Größe der im Kreise entstehenden Ströme und Spannungen hängen dann außer von seinem Ohmschen Widerstände R im allgemeinen auch noch von seiner Selbstinduktion L und der in ihm befindlichen Kapazität C ab; z. B. ist

Für den Fall der Resonanz, d. h. wenn die Periode der erregenden elektrischen Kraft gleich der Eigenperiode des Kreises ist, (u)* = j-^) erreicht y seinen größ- ten Werty = -^ sin u)/ = J^ sin wt; ^o ist dann nur noch abhängig vom Ohm- schen Widerstand; die Schwächung des Stromes, welche einerseits die Selbst- induktion allein, anderseits ein Kondensator allein bewirken würde, fällt weg;

Welleiilänge. Resonani. Dämpfung ^65

beide Einflüsse heben sich gegenseitig auf. Die elektrische Resonanz ist Eisktri. durch diesen Umstand charakterisiert; die Beziehung gilt auch für offene gfarSr^ Strombahnen.

Hier ist die Amplitude der erregenden elektromotorischen Kraft als zeit- lich konstant gedacht. Dieser Fall kommt in der drahtlosen Telegraphie bis jetzt noch selten vor. Meistens ist die Schwingung gedämpft und fällt von einem Höchstwerte im Verlauf einer größeren oder kleineren Anzahl von Schwin- gungen auf einen praktisch nicht mehr in Betracht kommenden Teil ab. Der be- sonders wichtige Fall ist der, daß eine solche gedämpfte Schwingung einen Kreis erregt, dessen Eigenschwingungen, wenn sie einmal vorhanden wären, auch wieder (infolge des Widerstandes] gedämpft würden. Indemwir betreffs des nähe- ren auf den Artikel „gekoppelte Systeme" verweisen, bemer- ken wir hier nur folgendes: Die erregende Schwingung habe die Frequenz lu und das logarithmische Dekrement di; der erregte Kreis die Eigenfrequenz ui^ das Dekrement d^. Im all- gemeinen entstehen dann in ihm seine Eigenschwingung lu, und die ihm „aufgezwungene" von der Frequenz uii. Je näher ui, an lUf herankommt, desto größer wird die Ampli- tude der erregten Schwingung; sie erreicht für ui^ = m^ (Re- sonanz) ihren größten Wert und fällt dann wieder ab. Dieser Anstieg resp. Abfall erfolgt um so steiler, je kleiner die Summe der beiden Dekremente wird. Dadurch bestimmtsich fI(.5.

die Abstimmschärfe. Ändert man die Schwingungszahl des einen Kreises, z. B. des erregten kontinuierlich, und trägt die experimentell ermittelte, erregte Abi Amplitude graphisch als Funktion der geänderten Scbwingungszahl (Ver- stimmung) auf, so erhält man die sog. Resonanzkurven. Fig. 4 zeigt zweiRmnuik solcher Kurven.^) Die Maximalamplitude liegt da, wo uij =v lUi ist; sie ist gleich 100 in willkürlichem Maß gesetzt. Wird die Eigenfrequenz des einen Kreises um 5 Prozent geändert, so fällt in der Kurve a die Amplitude auf den Wert 10, in Kurve b nur auf 45; a gilt für den Fall relativ kleiner Gesamt- dämpfung (i, + d, = 0,1), b für größere Dämpf ui^ {äi + d^ = 0,28), a ist eine ziemlich scharfe, b eine flache Resonanzkurve.

Je kleiner also die gesamte Dämpfung, desto schärfer ist die Resonanz; um so besser kann also eine abgestimmte Telegraphie erreicht werden.

c) Gekoppelte Kreise. Angenommen, ein geladener Kreis wirke induk- Crkoppei» tiv auf emen zweiten oder beide hätten ein Stück Selbstinduktion gemeinsam '^"' und der zweite sei zunächst stromlos. Man sagt dann, die Kreise seien gekop- pelt. (Fig. 5 zeigt zwei induktiv gekoppelte Kreise.) Man hat zwei schwin- gungsfähige Systeme; das eine gibt dem anderen von seiner Energie ab. Beson-

i) Die Abszissen geben das Verhältnis w, : ui,. Die Ordinatcn stellen die Quadrate der eflektiven Stromstärken dar; diese werden gewöhnlich bei Resonanzversuchen gemessen; ihnen können die meisten DetektorelTekte angenähert piroportional angenommen werden. Die Kurve ist entlehnt dem Werke von Zenneck.

;ekoppelten Kreise eine Leidener Flasche, obschon

366 18. Ferdinand Braun: Die drahtlose Telegraphic

ders wichtig ist der Fall, daß die Eigenschwingungen beider Kreise identisch sind. Ein mechanisches Analogen sind gekoppelte Pendel.

In beiden Fällen überträgt der erregende Kreis I Energie auf den zweiten (II). Angenommen, er hätte seine Energie vollständig abgegeben, so ist in diesem Moment der Kondensator des ersten Kreises ganz entladen, und man sollte denken, er sei nun gewissermaßen aus dem Spiele ausgeschaltet. Dem ist aber merkwürdigerweise nicht so. Die Funkenstrecke, welche vor dem Einsetzen des Funkens praktisch nicht leitend war, ist infolge des Funkendurchganges leitend (ionisiert) geworden; aus diesem Umstände erklärt es sich, daß auch im un- gekoppelten Kreise eine Leidener Flasche, obschon ihre Spannung und damit

ihre normale Schlagweite während der Entladung abnimmt, sich doch ganz oder wenigstens nahezu ganz entladet; und diese Eigenschaft, leitend zu sein, hält noch einige Zeit nach der vollständigen Entladung an; durch sie wird bewirkt, daß die im zweiten Kreise fließenden Ströme wieder rückwärts den ersten Kreis auf- laden, so daß die Energie einige Male zwischen denselben hin- und herpendeln kann. Der Vorgang ist daher der folgende: In dem ersten Kreise fällt die Stromamplitude auf Null ab, steigt dann wieder an, geht wieder auf Null und so ev. einige Male (die Fig. 6 soll dies schematisch erläutern; die Vorgänge auf elektrisch gekoppelten Kreisen folgen aber offenbar nicht diesem einfachen Schema) und auf dem zweiten findet mit einer zeitlichen Verschiebung das gleiche statt. In jedem Kreis entstehen Schwingungen, deren Amplitude peri- odisch zu- und abnimmt, sog. schwebende Schwingungen. Eine solche läßt sich schreiben in der Form: A sin v^ sin ujt (u) Eigenperiode, v Schwebungsperiode). schwinpingt- Das hat zwei praktisch wichtige Folgen, die wir nur an dem speziellen Beispiel

form^derjBffonen ^jjj^j. erregten offenen Scnderantcnnc erläutcm woUcn; die Antenne übernimmt dort die Rolle des zweiten Kreises. Sie sei in ihrer Eigenschwingung erregt und schwinge etwa in dieser aus; die Zeichnung Fig. 2c gibt ein Bild ihres Zustandes; am offenen Ende ist ein Bauch, in der Mitte ein Knoten der Spannung (für die Ausdrücke Knoten und Bauch vgl. Artikel 2). Die Lage des Knotens bleibt dauernd erhalten; die Schwingungsform für die Spannung ist von der Gestalt

F = Ko ^'~" sin 2tt sin wt.

Für den Strom (durch einen Pfeil dargestellt) gilt eine ähnliche Darstellung; er ist aber an den Stellen, wo die Spannung Null ist, im Maximum; ivngekehrt an den Enden (Bäuchen der Spannung) gleich Null. Er hat die Form

y= %e-^^ cos^ 2Tr-cos lu/.

Wenn nun die Amplituden, z. B. der Spannung, selber wieder periodisch wechseln, etwa in der Periode v, so hat dies zur Folge:

I. Daß die Schwingungsform der Antenne komplizierter wird; der Knoten z. B. bleibt nicht rein erhalten, sondern verschiebt sich periodisch (sog. offene Knoten).

Gekoppelte Kreise. Wiensche Stoßerregung. Tönende Funken 367

2. Die Schwingung der Antenne verhält sich so, als ob (da 2 sin vi sin uj< = cos (ui v) < cos (u) + v) ^ ist) zwei Schwingungen von der Periode u) + v und ui V vorhanden wären. Abgestimmte Empfänger müssen daher ent- weder auf u) + V oder auf uj v abgestimmt sein; es kommt daher für einen solchen nur ein Teil der ausgestrahlten Energie zur Geltung.

3. Da die Energie auf den ersten Kreis zurückkehrt, so wird in dessen Funkenbahn ein großer Teil derselben nutzlos in Wärme verwandelt.

Diese Übelstände hatte der gekoppelte Sender. Man hat sich bemüht, die- selben wegzubringen, und es waren für diesen Zweck Blasen der Funkenstrecke oder Einfügen in ein starkes Magnetfeld oder Quecksilberfunken im Vakuum vor- geschlagen worden; sie waren teilweise rein empirisch als Verbesserungen an- wientche gegeben worden, die sich bald bewährten, bald nicht bewährten. In vollkom- ^'°**'"*^°«^* mener Weise wurde der Zweck erst erreicht durch die von W. Wien aufgefun- dene Methode, sehr kleine Funkenstrecken zu verwenden, die aber auch nur dann gut wirken, wenn gleichzeitig der Koppelung ein bestimmter Wert erteilt wird. Dann wird der primäre Kreis tatsächlich, sobald er seine Energie nach einigen Schwingungen abgegeben hat, automatisch ausgeschaltet; die Antenne schwingt jetzt lediglich in ihrer Eigenschwingung schwach gedämpft aus.

Die Gesellschaft für drahtlose Telegraphie hat längere Zeit versucht, die von ihrem damaligen Chefingenieur Rendahl angegebene Idee, eine Queck- silberfunkenstrecke im Vakuum für denselben Zweck zu benutzen, stieß aber auf große technische Schwierigkeiten. Sie nahm die W i e n scheMethode auf, die aber zunächst nur kleine Energiemengen lieferte. Es gelang durch Hintereinander- schalten vieler solcher kleinen Löschfunken, die zwischen planparallelen Metall- wänden spielten, große Energiemengen in Schwingungen umzusetzen. Diese sog. „Stoßerregung mit Löschfunken'' gestattet auch, bis zu 1000 Entladungen des pri- Tönende Fanken. mären Kreises pro Sekunde zu gehen ; das darauf von der Gesellschaf t für drahtlose Telegraphie aufgebaute System wird als das der „tönenden Funken** bezeichnet.

Marconi benutzt statt dessen ein Rad mit vorstehenden Zähnen, von denen der Funke zu einem anderen Metallstück überspringt, wobei das Rad mit 100 bis 200 m Peripheriegeschwindigkeit rotieren muß. Für die langen Wellen relativ niederer Frequenz, wie sie namentlich in Großstationen heute benutzt werden, wirkt dies auch wie eine Löschfunkenstrecke.

Die erste Stoßerregung (in einem rein metallisch geschlossenen Kreise) rührt Biciihoni übrigens her von Eichhorn; die Methode wird heute unter dem Namen Summer- .c^ting. Schaltung namentlich für Messungszwecke benutzt (vgl. S. 371).

Damit sind die Grundlagen für den Sender wie für den Empfänger gegeben.

A. Der Sender besteht aus dem die Antenne erregenden Schwingungskreise sender. und der damit induktiv oder direkt gekoppelten Antenne. Die Antenne kann an ihrem Fuße entweder geerdet sein (bei guter leitender Erde, z. B. Seewasser, eisernen Schiffen); dann liegt an der Erdungsstelle ein Spannungsknoten, am offenen Ende ein Spannungsbauch. Schwingt sie in der Grundschwingung, so bildet sie eine Viertelwellenlänge; dies ist der gewöhnliche Fall; sie wird bis-

368 i8- Ferdinand Braun: Die drahtlose Telegraphie

weilen auch auf dreiviertel Wellenlängen erregt oder sie ist (trockene, steinige Erde) mit „Gegengewicht** versehen, z. B. horizontalem Draht (man denke sich in Fig. 2 b den unteren Teil der Antenne horizontal umgebogen), der ev. in große Platten endet; das ganze „Luftleitergebilde'^schwingt dann im einfachsten Falle (nur Draht) als halbe Wellenlänge. Zweckmäßig ist dann der Spannungsknoten höher als die Erde gelegen; denn das dort befindliche Strommaximum trägt am meisten zur Strahlung, d. h. zur Fernwirkung bei. Diese Fernwirkung nimmt ferner zu mit der vertikalen Länge der Antenne, aber da die Stromstärke nach den freien Enden zu abnimmt so wirken nicht alle Teile proportional ihrer Länge, sondern die oberen in kleinerem Verhältnis. Dies und die prakti- Antonnenformen. schcn Schwierigkeiten, hohe Antennen zu errichten, haben zu den Formen der oben einseitigen (f- Antenne) oder zweiseitigen (T- Antenne) oder der Schirm- antenne (am besten horizontales Dach) oder der geknickten Antenne geführt. Der oberen Führung entsprechend ist gewöhnlich der Fuß der Antenne (Gegen- gewicht bzw. Übergangsform zur Erdung) gestaltet. Man erreicht gleichzeitig mit dieser Form eine größere Kapazität der Antenne, ferner, z. B. bei der Schirm- anlenne, eine größere Fläche und eine Verteilung des Stromes in ihr auf breitere Leiter. Diese Momente sind wesentlich : die größere Kapazität bedingt einen stärkeren Strom im vertikalen Teile; derselbe läßt sich mit Hitzdrahtinstru- menten messen und sein Mittelwert beträgt in großen Antennen 60 und mehr Ampere. Dieser Strom breitet sich im Schirm, wenn ihn oben z. B. zehn hori- zontale Drähte weiterführen, in diesen aus; damit fällt der Energieverlust, der in Form Joule scher Wärme auftritt. Die große Fläche endlich bewirkt, daß die Dichte der freien Elektrizität und damit die Sprühverluste geringer werden. Genau dieselben Erwägungen gelten für den Fuß der Antenne.

Jede solche Antenne laß t sich auffassen wie einKondensatorkreis, aber mi t ver- Änderang teilter Kapazität. Die eine Belegung ist derVertikaldraht, die andere Belegung die achwin^ng Erdc odcr das Gegengewicht. Man ändert die Eigenschwingung der Antenne durch Antennen. Einfügen vou Selbstinduktiou (Spulen); damit „verlängert** man die Welle, d. h. ihre Länge wird größer als die eines gleich hohen Drahtes ohne Spule; man „ver- kleinert** die Wellenlänge, indem man Kondensatoren in den Vertikaldraht fügt; d. h. man schaltet hinter die Luftkapazität eine andere in Serie, vermindert da- durch die resultierende Kapazität und damit die Schwingungsdauer. Empfänger. B. Der Empfänger. Er ist gleichfalls auf die Wellenlänge, die empfangen werden soll, mit Hilfe von Kondensatoren und Selbstinduktion abgestimmt. Er kann wesentlich die direkte Umkehrung des Senders sein, also z. B. aus zwei gekoppelten Systemen, einem offenen und einem geschlossenen bestehen, beide von gleicher Schwingungszahl. Das geschlossene kann induktiv oder direkt ge- koppeltsein. Zweckmäßiger ist eine einfachere Anordnung (sog. Schwung- radschaltung). Die Antenne ist direkt an den Kondensatorkreis angelegt und die Grundschwingung des Systems ist eingestellt auf die ankommende Schwingung. Der abgestimmte geschlossene Kondensatorkreis lokalisiert die von der Antenne aufgenommene Energie; er bewirkt eine vermehrte Strom- stärke daselbst (unter gleichzeitiger Herabsetzung der Spannung).

Yon

Detektoren 36Q

Die Anordnung im einzelnen wird mitbedingt durch die Mittel, welche zum Nachweis der Schwingungen dienen. Könnte man z. B. direkt und möglichst ohne Energievergeudung den Strom messen und einen Strommesser als Re- gistrierapparat benutzen, so würde ein Kondensatorkreis mit großer Kapazität angezeigt sein. Da der Strom aber hochfrequenter und sehr schwacher Wechsel- strom ist, so fehlen uns zurzeit noch geeignete Apparate dafür. Man ist daher auf andere Mittel angewiesen, die sog.

Detektoren. Vom ältesten, dem Kohärer, wollen wir absehen. Er DetektorMi. reagierte vorzugsweise auf Spannung; er hat zurzeit nur noch histo- ^*" "***^ risches Interesse. Man hat mit ihm die früher geforderte Niederschrift als Morsetelegramm verlassen und arbeitet jetzt fast ausschließlich mit Hörempfang, indem man die Unbequemlichkeiten dieses Systems (es muß ein HörempCwig. Telegraphist fortwährend unter Telephon liegen, und diesem Übelstaind ist der unglückliche Ausgang der Titanic- Katastrophe zugeschrieben) hinnimmt gegen- über den großen Vorteilen. Diese sind: kein Entf ritten des Detektors, daher Sicherheit im Arbeiten, schnelles Telegraphieren, sehr bequemes Einregulieren auf stärksten Empfang, Unterscheidbarkeit der Zeichen von anderen, welche z. B. von atmosphärischen Störungen herrühren. Besonders wertvoll haben vortoü sich dafür die „tönenden** Signale (z. B. tönende Funken) erwiesen. Man hört *Faii«/" im Telephon einen hohen, gut charakterisierten Ton (von etwa lOOO Schwin- gungen pro Sekunde), der sich von dem anderer Stationen oder dem knackenden Geräusch atmosphärischer Störungen gut unterscheidet. Ein Punkt des Morse- alphabets ist ein kurzer, ein Strich ein länger anhaltender Ton. Wenn der Punkt etwa Vio Sekunde andauert, so wird er hergestellt durch 100 Entladungen im Send^rkreis, falls er, wie angenommen, mit 1000 Unterbrechungen pro Sekunde arbeitet, also etwa mit Wechselstrom von lOOO Wechseln,

Wir wollen einige Detektoren anführen:

a) Flüssigkeitszelle (Fessenden, Schlömilch usw.); in einen Elektro- Detoktoron lyten, etwa verdünnte Schwefelsäure, tauchen zwei Elektroden, denen Strom Forman* regulierbarer Spannung von einem Element zugeführt wird. Diejenige Elek- Fiü»^koit««oii« trode, an der sich Sauerstoff entwickelt, besteht aus einem äußerst dünnen Platindraht, welcher nur mit seiner Spitze die Flüssigkeit berührt. Durch zu- geführte schnelle Wechselströme ändert sich die Polarisation; ein eingefügtes Telephon tönt. Widerstand etwa 1000 Ohm; zeigt annähernd quantitativ.

b) Gasförmige Unipolardetektoren. Eine Bunsenflamme mit ünsymme- Gasförmige trisch angeordneten Elektroden (z. B. einerseits eine Öse mit Kalisalzen, ander- <^S^en. seits eine reine Öse) zeigt sehr erhebliche unipolare Leitung. Sie kann daher aus einem Wechselstrom die eine Schwingung aussondern und gibt somit einen zer- hackten Gleichstrom, d. h. für jeden Wellenzüg einen Effekt auf einen Strom- zeiger oder ein Telephon, welcher einer mittleren einseitigen Stromstärke ent- spricht. — Auf wesentlich gleicher Wirkung beruht das „Audion". Der Faden

einer Glühlampe macht das ihn umgebende, sehr verdünnte' Gas gleichfalls unipolar leitend. Solche Effekte werden nach Wehnelt durch Bestreichen des Metallfadens einer Glühlampe, der dann als Kathode einer Hilfsbatterie zu

K. d. G.m. m3d i Pbyrik 24

370 i8. Ferdinand Braxw: Die drahtlose Telegraphie

dienen hat, mit den Salzen von Erdalkalimetallen (am besten Ca), sehr er- heblich gesteigert. Der Gasraum ist durch langsame Kathodenstrahlen ionisiert. Dahin gehört auch offenbar das sehr wichtige Anwendungen ver- sprechende Liebenrelais.

Feste Leiter c) Fcstc Unipolar dctcktoren (Kristalldetektoren). Eine große Anzahl

erster sa. j^jj^^j. Zusammengesetzter, aber ohne Elektrolyse leitender Stoffe (z. B. Braun- stein, Schwefel- und Kupferkies, Fahlerze, Glänze usw.), aber auch (schein- bar wenigstens) einfache Stoffe (z. B. Selen, Silizium usw.) zeigen, wie der Ver- fasser früher gefunden hat, die Eigenschaft, bei ungleicher Größe der Elektroden (namentlich wenn die eine sehr klein ist) oder unsymmetrischer Beschaffenheit des Materiales in der Nähe derselben einen konstanten Strom in einer Richtung leichter hindurchzulassen als in der anderen, und daher aus einem Wechselstrom einen Gleichstrom zu machen. Wegen dieser Eigenschaft habe ich sie als Detek- toren in die drahtlose Telegraphie eingeführt und sie haben sich gut bewährt. Alle diese Stoffe sind verwendbar und verwendet worden. Immerhin möchte ich heutigen Tages die Frage, worauf ihre Wirksamkeit bei den sehr schnellen Schwingungen beruht (ob primäre Gleichrichterwirkung oder sekundäre Thermo- effekte), offen lassen.

Anwendung d) Detcktorcn auf Änderung der magnetischen Hysteresis durch Wechsel-

^*'*'**"*' Strom beruhend. Dahin gehört der früher von Marconi benutzte. Ein frisch magnetisierter Eisendraht liegt in einer Spule, durch welche die elektrischen Schwingungen hindurchgeschickt werden. Dann ändert sich seine Magnetisie- rung und gibt in einer Spule, die zu einem Telephon führt, ein Knacken.

Schaltung Die Schaltung der Detektoren ist nun im allgemeinen die folgende: Man

***'"** habe einen Sammelkreis, bestehend aus Kapazität und Selbstinduktion. Von einem Stück der Selbstinduktion zweigt man ab zum Detektor, hinter den man einen „Sperr-* 'Kondensator gelegt hat. Die Schwingungen durchfließen den Sperrkondensator und den Detektor, der im allgemeinen einen großen Wider- stand — meist mehrere hundert Ohm und mehr hat; sie bewirken beim Durchgang durch den Detektor eine Gleichstromladung des Kondensators, welche durch das Telephon abfließt. Das Telephon tönt dann im Rhythmus der Wellenzüge (also z. B. mit looo Schwingungen pro Sekunde). Man sucht für jeden Detektor die günstigste Abzweigung (die man wohl auch ver- ständlich, aber nicht sehr zweckmäßig als Koppelung bezeichnet) aus. Man erhält keineswegs die stärkste Erregung, wenn man z. B. von der ganzen Selbstinduktion abzweigt. Der Detektor verbraucht nämlich Energie; dadiirch wird das System gedämpft und in seiner Resonanzschärfe herabgesetzt, und dies um so mehr, je mehr Energie man im Detektor verbraucht. Wo diese Energie, die zur Erregung nötig ist, abgenommen wird (ob man also z. B. den Detektor in einen Kreis für sich legt), ist für den Effekt gleichgültig, da sie in allen Fällen aus dem Sammelkreise stammt. E^ findet sich immer ein Optimum für eine gewisse Koppelung des Detektors. WeUenmewer. Es ist hier der Ort, einige Worte über den „Wellenmesser** zu sagen. Die Form, in welcher er aus Versuchen, die wir im Sommer 1902 auf Straßburger

Wellenmesser. Dämpfungsbestimxnungen. Abstimmen 3^1

Forts ausführten, entstanden ist, ist die folgende: Er stellt einen geschlossenen, möglichst schwach gedämpften Kondensatorkreis (Resonanzkreis) vor, dessen Eigenschwingung rasch und bequem in weiten Grenzen variiert werden kann. Es sind in ihm bekannte Kapazitäten mit berechneten Selbstinduktionen kom- biniert. Die Kapazität ist ein geeichter Köp seischer Drehkondensator d. h. ein Kondensator, dessen Kapazität durch Drehen eines mit einem Zeiger versehenen Knopfes bequem und kontinuierlich veränderlich ist; ihre Größe ist für jede Stellung des Zeigers und damit die Eigenschwingung des Kreises bekannt. Soll eine Schwingungszahl, etwa die in einer Antenne herrschende, ermittelt werden, so versetzt man die Antenne in Schwingungen und läßt dieselbe (etwa induktiv) auf die Selbstinduktionsspule des Wellenmessers einwirken; soll die Amplitude der in letzterem entstandenen Schwingungen gemessen werden, so wird mit dem Wellenmesser ein Hitzdrahtinstrument gekoppelt; man dreht den Knopf des Kondensators so lange, bis das Meßinstrument einen gewissen Ausschlag zeigt. Erreicht derselbe bei geänderter Kapazität für eine gewisse Stellung des Kondensators einen Maximalwert, so ist damit die Resonanzstelle gefun- den, d. h. die bekannte Eigenschwingung des Wellenmessers ist gleich der ge- Dämpfung«, suchten Schwingungszahl. Verstimmt man den Meßkreis durch Änderung ""™»- der Kapazität in bekannter Weise, so fällt der Ausschlag des Meßinstrumen- tes, man kann eine Resonanzkurve (vgl. Fig. 4) aufnehmen und daraus die Dämpfung berechnen.

Will man nur die Schwingungszahl ermitteln, so ersetzt man das Meß- instrument bequemer durch einen Detektor mit Telephon. Die Bestimmung ist dann sehr schnell gemacht; die Genauigkeit geht bei steilen Resonanzkurven bis auf etwa Vio Prozent; man bekommt aus dem Abfall der Tonstärke bei ge- änderter Kondensatorstellung gleichzeitig ein qualitatives Bild von der Re- sonanzkurve, d. h. von der Dämpfung.

Instrumente, welche keine Manipulation seitens des Beobachters erfordern, Dinkt Mixende sondern direkt an einer Skala die Wellenlänge ablesen lassen, sind von Mandel- ** mower. stamm und Papalexi angegeben worden.

Umgekehrt kann man den Wellenmesser benutzen, um andere Gebilde Abttimmen auf (z. B. Antennen, Kondensatorkreise usw.) auf eine vorgegebene Schwingungs- ** schSirgi^i^.'* zahl, sagen wir 100 000, einzustellen. Man wählt eine passende Selbstinduk- **"' tionsspule (gewöhnlich sind fünf von verschiedener Größe dem Apparat bei- gegeben) und entnimmt aus Tabellen diejenige Stellung, die man dem Konden- sator geben muß, damit der Meßkreis die Eigenschwingung looooo bekommt. Man erregt dann den Wellenmesser selber zu Schwingungen, die nur sehr schwach zu sein brauchen und für deren Herstellung man bequeme Methoden besitzt. Diese Schwingungen läßt man umgekehrt auf das abzustimmende Gebilde induktiv wirken; Detektor und Telephon kommen jetzt in letzteres; man ändert die elek- trischen Größen des zweiten Kreises so lange, bis das Telephon maximale Laut- stärke zeigt; dann hat umgekehrt der zweite Kreis die gewünschte Eigen- schwingung 100 000.

24

372 i8. Ferdinand Braun: Die drahtlose Telegraphie

vorteüder Warum arbeitet man gerade mit Schwingungen? Diese Frage führt

c '^««»«•»- zurück auf die Natur derselben. Wir wollen uns, der Einfachheit halber, eine ein- fache vertikale Antenne vorstellen. Denken wir uns dieselbe (etwa wie beim Edisonschen Vorschlag, vgl. S. 360) statisch geladen, so haben wir auf der- selben oder richtiger nach unserer heutigen Auffassung in dem dieselbe um- gebenden, von den Kraftlinien durchzogenen Raum ein gewisses Quantum elektrischer Energie. Da diese auf einen großen Raum ausgebreitet ist, so ist die in der Volumeinheit enthaltene (sog. Energiedichte), namentlich in weit ent- fernten Teilen des Feldes, sehr gering. Nur mit diesem Bruchteil der in der Nähe des Empfängers gelegenen Raumenergie könnte letzterer arbeiten. Wenn da- gegen, wie es bei schnellen Schwingungen der Fall ist, die elektrischen Ladungen auf dem Senderdraht rasch oszillieren, so geht die Energie während einer solchen kurzen Zeit nur bis zu einer, durch die Geschwindigkeit der Ausbreitung be- stimmten Raumstelle fort. Ihre Energiedichte ist also relativ groß. Sie kehrt, infolge ziemlich komplizierter Vorgänge, wenn der Sender sich umgeladen hat, nicht zu ihm zurück; es „schnüren sich** vielmehr Kraftlinien von ihm ab, und diese in einem verhältnismäßig kleinen Raumteil angesammelte Energie wan- waadarnng dert von der Quelle aus weiter. Ihr folgt ein ebensolches Raumgebilde in der ergio. jj^^jjg^gjj Halbschwingung usf. Diese vom Sender ausgehende Energie wird sich wie Licht, welches von einem Punkte ausstrahlt, räumlich ausbreiten. Nehmen wir, der Einfachheit der Vorstellung zuliebe, aber einmal an, man könne das, was wir optisch mittels eines Hohlspiegels (Scheinwerfers) leicht und ziemlich genau erreichen können, auch hier machen, so wäre die räumliche Zerstreuung der Energie vermieden. Wenn keine Absorption unterwegs stattfindet, so würde einfach die Energie, die zu einer bestimmten Zeit, in einem gewissen Raumteil vorhanden ist, sich auf andere immer gleich große Raumteile übertragen und wir würden die Energie ohne Änderung ihrer Dichte auf beliebige Entfernungen fortleiten können.

Dieses Ziel ist wegen der großen Länge der elektrischen Wellen bisher un- erreicht. — Kehren wir nun zum allseitig strahlenden Sender zurück, so über- trägt sich zunächst von ihm ein Teil seiner Energie auf einen die Antenne ring- förmig umgebenden Raum, dieser gibt sie an einen größeren Ring ab usf., die Energiedichte nimmt also ab. Aber auch jetzt noch bleibt als das Wesentliche erhalten, daß die vom Sender sich ablösende Energie in relativ kleinen Raum- stücken zusammenbleibt und so mit großer Raumdichte weiterwandert. Es verhält sich ähnlich wie in folgendem grob mechanischen Beispiel. Wenn man durch mechanische Kräfte, z. B. den Druck der Pulvergase, einer Kanonenkugel die ganze Energie der Explosion mitteilt, so durchzieht diese den Raum mit großer Energiedichte und hat daher, auf ein Hindernis auftreffend, große Effekte. Wollte man aber den Druck der Pulvergase auf den ganzen umgebenden Raum übertragen, so wäre die Wirkung schon in geringer Entfernung ver- schwindend klein. Die Kanonenkugel entspräche dem Hohlspiegel. Eine all- seitig strahlende vertikale Antenne verhält sich so, als wenn nach allen Seiten, vorzugsweise aber in horizontaler Richtung, Kugeln weggeschleudert würden.

Wanderung der Energie. Strahlung. Induzierende Wirkung 373

Da die elektrischen Oszillationen in der Antenne Wechselströme darstellen, Die iodtmerende so entstehen um sie herum gleichzeitig magnetische Kraftlinien, welche sich um fortsd^dtendon die Antenne ausbreiten wie die Wellen um einen in Wasser geworfenen Stein. weUen. Auch sie wandern mit Lichtgeschwindigkeit weiter. Schneiden sie bei ihrem Fortschreiten einen vertikalen Leiter, so induzieren sie in ihm elektromotorische Kräfte; diese sind im Maximum, wenn eine Kraftlinie maximaler Stärke den Leiter schneidet, sie sind gleich Null, wenn die Kraftlinie den Wert Null hat, d. h. sie sind gleichphasig mit den Magnetkraftlinien. Sie entstehen auch im Dielektrikum, geben aber dort nur ein Feld, einen sog. Verschiebungsstrom (keinen Leitungsstrom) (vgl. Artikel 15). Die Phase (vgl. Artikel 2) derimLeiter entstehenden Ströme ist, wie aus analogen Fällen der Elektrotechnik bekannt, im allgemeinen gegen die Phase der elektromotorischen Kraft verschoben.

Mit diesen elektromotorischen Kräften arbeitet der Empfänger.

Denken wir uns die Antenne ganz frei im Räume, so geht die „Strahlung" Strahlung vorzugsweise in der Äquatorialebene vor sich; in Richtungen nach oben und unten nimmt sie ab, in der Richtung der Antenne selber wird sie Null.

Elektrische Strahlung läßt sich für Punkte, deren Entfernung groß gegen Analogie die Wellenlänge ist, wie optische behandeln. Jedem Stromelement entspricht ^ "* *"* ein leuchtender Punkt, welcher polarisiertes Licht aussendet. Die elektrische Schwingung dieses Lichtes ist parallel dem Stromelement; die Amplitude des Strahles ist proportional der Länge des Stromelementes und der Amplitude des in ihm fließenden Stromes; bildet der Strahl den Winkel 0 mit dem Strom- element, so ist die Amplitude proportional mit sin 6, also ein Maximum senk- recht zum Element, Null in der Richtung desselben. Umkehrung des Stromes

wirkt wie eine Phasenänderung von 180® (= Wegdifferenz von --).

Nach diesen Sätzen übersieht man: ein geschlossener Stromkreis von über- all merklich gleicher Stromstärke (quasistationäre Strömung) hat praktisch keine Strahlung, wenn seine Dimensionen klein gegen die Wellenlänge sind. Eine gerade, offene, vertikale Antenne strahlt in einer Horizontalebene am stärksten; der Strombauch trägt für die gleiche Länge der Strombahn mehr bei als der Strom in der Nähe des Endes. Für einen hinreichend weit entfernten Punkt addieren sich aber alle Amplituden. Bei einer Schirmantenne mit horizontalem Dach ist der Strom im aufsteigenden Teil nahezu örtlich konstant; ihre Strahlung ist daher proportional der Länge des aufsteigenden Teiles und der Stromstärke darin. Es ist für die Strahlung unzweckmäßig, das Schirmdach wieder nach unten zu führen; der Schaden wird aber vermindert durch die Abnahme des Stro- mes im Dach, eventuell überkompensiert durch die Vergrößerung der Kapazität.

Im allgemeinen steht die Antenne direkt auf dem Boden oder endet wenig- Einfluß stens (Gegengewicht) in der Nähe desselben. Es fragt sich nun, welchen Einfluß ** ° *°** dieser Umstand hat.

Nehmen wir eine geradlinige, vertikale, zunächst frei im Raum befindliche

Antenne an (— ). Dieselbe werde nun in der Mitte geerdet. Wäre der Boden ein vollkommener Leiter, so würde derselbe die Äquatorialebene der frei im Raum

374 *^- Ferdinand Braun: Die drahtlose Telegraphie

gedachten Antenne ersetzen, und sich im Luftraum oberhalb des Bodens alles so abspielen, wie dort im Raum oberhalb der Äquatorialebene der freien Antenne. Wir hätten damit den Vorgang, wie er sich um eine geerdete Antenne abspielt,

deren Höhe h gleich ist, auf den Fall einer ganz freien Antenne (/ = )

4 2

zurückgeführt.

Der Erdboden hat aber günstigstenfalls nur eine mäßige Leitfähigkeit; die Vorgänge werden dadurch viel komplizierter. Es kann hier auf dieselben nicht näher eingegangen werden; wir wollen uns mit einigen Resultaten begnügen. Aus den Tatsachen (Überwindung der Erdkrümmung) kam man (Lecher) zu

der Vorstellung, daß die Erdoberfläche ge- wissermaßen die Fortleitung der Wellen über- e^^,. , ,fc nimmt : sie haften am Boden, gleiten über ihn

hinweg und gehen daher nicht in der Richtung der Aquatorialebene des Senders weiter; es übernimmt vielmehr jedes neue Stück Erdoberfläche, auf welches die Welle kommt, die Rolle der früheren Äquatorebene. Die zenneck. Theorie wurde später von Zenneck und in strenger Form von Sommerfeld durchgeführt; sie kommtu. a. zu dem praktisch wichtigen Resultat, daß für große Entfernungen lange Wellen viel günstiger sind als kurze; die Erfahrung hatte schon aus anderen Gründen sich den langen Wellen für diesen Zweck zu- gewendet; sie bestätigt das Ergebnis der Theorie. Dabei ist gleiche ausgesendete Energie vorausgesetzt; zu berücksichtigen ist aber, daß die Energiestrahlung mit der Wellenlänge abnimmt. Sommerfoidsche Die Sommerf eldsche Theorie stellt den „Raumwellen**, wie sie sich um Prakti!!*© einen frei im Raum strahlenden Sender ausbilden würden, gegenüber „Ober- ErgebntMc. flächenwellen**, wie sie durch den Einfluß des Bodens entstehen und über ihn hinweggleiten. Die Ergebnisse seiner Theorie bezüglich der Reichweite werden erläutert durch die Fig. 7. In den Raumwellen sollte die Amplitude des Fel- des umgekehrt proportional dem Abstand r vom Sender werden, also r X Am- plitude = Konstante sein; diese Konstante gibt die gerade, der Abszissenachse parallele Linie der Figur an. Die Figur zeigt aber in ihren unteren Kurven, wie die Amplitude in Wirklichkeit abfällt, wenn Wellen von verschiedener Länge sich über Seewasser oder über Süßwasser ausbreiten. Wellen von 2 km Länge verhalten sich über Seewasser noch praktisch wie Raumwellen; für klei- nere Wellenlängen aber fällt die Amplitude viel stärker; über Süßwasser ver- halten sich auch 2 km- Wellen ganz anders als Raumwellen.

Die wirklichen Amplituden unterscheiden sich von denen der Raum- wellen um 10 Prozent für

Seewasser und X = 2 km in einer Entfernung von ca. 20 000 km

»I ^^ ^ >> tt 11 >> >i >i 5 000 ,,

>> ^^ ^i3 i> i> II II ii jOO ,,

II

Süßwasser . . . = 2 4

Aus Zenneck: Lehrb. d. drahtl Telegraphie.

Raum- und OberflächenweUen. Reichweiten

375

Auf den Einfluß des Bodens werden auch Anomalien der Reichweite zu- Anomalien rückgeführt, von denen z. B. Arco in einem Vortrage auf der Naturforscher- (^ saUbod^* Versammlung in Münster (191 2) berichtete. ""*'**^-

Wenn ein Schiff im Mittelmeer von Westen nach Osten fährt, so bleibt es mit der Station Norddeich des Reichspostamts in dauerndem Verkehr. Tritt dasselbe in das Gebiet der Rhonemündung ein, so werden die Telegramme 10 bis 100 mal stärker, um sofort wieder dahinzuschwinden, wenn die Mündung passiert ist. Ähnliche Verhältnisse hat man an einer Kette von Stationen fest- gestellt, welche am Amazonenstrom gelegen sind. Trotz des dazwischen ge- legenen Urwaldes und der 6000 m hohen Kordillerenkette sind die Telegramme zwischen den über 1000 km voneinander entfernten Stationen Lima, Manaos, Para so stark wie sonst kaum über freiem Wasser.

Die Reichweiten sind bei Tag fast immer wesentlich kleiner als bei Nacht. Reichweiten Man rechnet daher mit einem „Sicherheitskoeffizienten'* für garantierte Reich- weiten (2 34 bis 3). Die Reichweite fällt gewöhnlich stark bei Eintritt der Däm- merung und steigt dann wieder. Es scheint auch so, als ob die Wellen eine be- sonders starke Schwächung erführen, wenn sie auf ihrem Wege aus einem noch hellen Gebiet in ein bereits dunkeles eintreten. Auch einen Einfluß der Richtung gegen den Meridian (es soll leichter in der Richtung desselben sich telegraphieren) hat man beobachtet. Die Erscheinungen sind noch nicht genügend erklärt.

Beobachtungen während einer totalen Sonnenfinsternis haben keine wi- Einfloß derspruchsfreien Resultate gegeben (bei vielen freilich größere Reichweite ^fi^j^^"' während der totalen Verfinsterung). Die folgenden Zahlen über Reichweiten und die dazu erforderliche Energie verdanke ich der Gesellschaft für drahtlose Telegraphie.

Normale garantierte Reichweiten. Normale

«... ^,, i. 1 . N Reichweiten.

Primarenergie (Wechselstrom) 0,5 KW Primärenergie 150 km (Helligkeit) 250 km (Dunkelheit)

2,5 600 1200

Kommerzielle Station für größere Personen- und Handelsdampfer:

5 KW 1000 km (Helligkeit) 2000 km (Dunkelheit)

(Station für große Post- und Schnelldampfer)

10 KW 1500 km (Heiligkeit) 3000 km (Dunkelheit)

(Größte kommerzielle Schiffstype)

Landstation Flachland Freie See

HeUigkeit Dunkelheit HeUigkeit Dunkelheit

0,5 KW 30 km 50 km 60 km 80 km

2,5 .... 200 300 350 700

5 . . . . 450 600 6cx) 1200

10 . . . . 650 1000 900 1800

20 . . . . 1200 1800 1500 3000

(Küsten- und Land- Großstationen)

60 KW .... 2500 km über Land 4000 km über freie See

250 ,f .... 5500 »9 i> i> 7500 »» i>

376 i8. Ferdinand Braun: Die drahtlose Telegraphie

Loftwrhiffe. Füf Luftschiffe kommeii zwei Stationen zur Verwendung mit 25 km resp. 100 km garantierter Reichweite. Geleistet wird das Drei- bis Vierfache. Man hat von Luftschiff zu Luftschiff mit einem halben Kilowatt Senderenergie schon 600 km Entfernung erreicht, stonmgvfreiiieit Bei gleicher Energie des Senders und des Störers wird von der Gesellschaft ^gcWLrfor' ^^^ drahtlose Telegraphie Störungsfreiheit garantiert, wenn der Unterschied der Schwingungszahlen beider Geberstationen 3 Prozent beträgt. Anomale Wir fügen dem Vorigen einige anomale Reichweiten hinzu. Landsta-

wei en. ^.^^ Manila, Masthöhe 45 m, verkehrte mit Dampfer Sheridon auf 3200 km. Dampfer Bosnia empfing von Nauen auf 5000 km. Dampfer Kleist verkehrte mit Scheveningen auf 1675 km. Dampfer Kleist hat eine normale Schiffs- station, 1,5 TK^), und befand sich vor Sizilien. Dampfer Holger vor Lima verkehrte mit Kap Vilano vor Rio de Janeiro 4000 km. Dampfer Holger vor Lima verkehrte mit Dampfer Heluan auf 3400 km über freie See. Alle drei Dampfer haben normale Schiffsstationen. Dampfer Kongharald verkehrte mit Norddeich auf ca. iioo km. Kongharald hat die kleinste Stationstype mit einer Masthöhe von 25 m. Dampfer Corcorado verkehrte mit Norddeich auf 2400 Seemeilen. Die Landstationen Sydney und Freemantle verkehren auf ca. 4000 km über Land. Dampfer Berlin verkehrt mit der Landstation Sayville auf 5800 km. Gerichtete Gerichteter Empfang. Man denkt sich zwei vertikale Antennendrähte

Zwei* A^tomen *^ einigem Abstände voneinander; beide seien durch einen Horizontaldraht mit- au Empfänger, einander verbunden, in dessen Mitte sich etwa der Detektor befinde. Fallen ebene Wellen darauf, welche fortschreiten senkrecht zur Ebene der beiden An- tennen, so wird der Detektor nicht erregt. Bewegen sich die Wellen aber in der Ebene der Antennen, so werden die beiden Vertikaldrähte mit einer Phasen- differenz erregt, und der Detektor wird bei hinreichender Stärke der Erregung ansprechen. Mit solcher Anordnung läßt sich also die Richtung, in welcher eine gebende Station liegt, ermitteln. Am günstigsten ist ein Abstand der Drähte gleich einer halben Wellenlänge. Zwei Antennen Umgekehrt kann ein solches Gebilde, welches zusammen mit den Verti- als Sender, j^^ldrähtcn eine ganze Wellenlänge ausmacht, zum orientierten Senden dienen. Solche Vorschläge sind schon im Jahre 1899 (wenn auch damals in nicht aus- führbarer Form) gemacht und später wiederholt praktisch ausgeführt worden, namentlich von Blondel, sowie von Bellini und Tosi. Sie haben die An- ordnungen erweitert und zu einer praktisch bequemen Form gebracht, zenneck In diese Kategorie gehören auch die Versuche von Z e n n e c k (1900) ; er fand,

innnng . ^^^ ^.^^ Hilf santcnuc, welche von der sendenden Antenne in einem gewissen Abstände lag und auf sie abgestimmt war (also phasenverschoben schwang), abschirmte, wenn die empfangende Station in der Richtung der Antenne lag, nicht aber nach anderen Richtungen.

i) 1,5 TK bedeutet 1,5 KW Energie, gemessen in der Antenne; sie wird erzeugt mit einem 3 KW Gleichstrommotor, heißt daher auch bisweilen 3 KW Station. Dies ist die „normale" SchiÜsstation. Für kleinere Schiffe dient eine 0,5 TK Station.

Anomale Reichweiten. Gerichtete Telegiaphle. Erdantennen 377

Eine andere Art gerichteten Empfanges ist, wie der Verfasser 1902 zeigte, sduftgeAAteiuie. mit einer unter schwacher Neigung gegen den Boden gezogenen Antenne von nahezu einer halben Wellenlänge möglich. Sie nimmt am stärksten auf, wenn ihre Vertikalebene nach der Quelle hinzeigt, aber nichts nach 90® Drehung.

Eine gerichtete Sendung und gerichteter Empfang sind, wie der Verfasser Mahrore 1905 zeigte, auch möglich mittels dreier in den Ecken eines gleichseitigen Drei- (Dreieck phLeo. ecks angeordneter Antennen. Zwei derselben werden gleichphasig, die dritte ▼•»cho^°)- (an der Spitze des Dreiecks) phasenverschoben erregt. Die maximale Strahlung erfolgt dann in der Linie, welche den Winkel an der Spitze halbiert. Diese Richtung läßt sich in einfacher Weise um 120® nach rechts und links verschieben.

Zum gerichteten Empfang gehören auch die sog. Erdantennen, mit wel- Erdaatonneii. chen Kiebitz in den letzten Jahren sehr beachtenswerte und viel diskutierte Versuche gemacht hat. Man bezeichnet mit „Erdantennen" lange horizontale Drähte, welche in geringer Höhe über dem Boden gespannt und an den Enden gewöhnlich mittels Kondensatoren an Erde gelegt sind; in den Drähten be- finden sich noch ein variabler Kondensator und Selbstinduktionsspulen zum Abstimmen. Sie empfangen am stärksten, wenn die Drahtrichtung in die Fort- pflanzungsrichtung der Welle fällt. Kiebitz hat mit solchen Antennen von 240 bis 300 m Länge die Zeichen von Stationen mit vertikaler Antenne auf- genommen, welche 1000 km und mehr entfernt waren, anderseits auch auf 200 km nach solchen Depeschen versenden können.

Anordnungen ähnlicher Art waren schon 1904 und 1905 von Zehnder vorgeschlagen worden; seine Vorschläge fanden aber seitens der Praxis kein Entgegenkommen; entscheidende Versuche wurden nicht gemacht.

Ungedämpfte (kontinuierliche) Schwingungen. Bei den ersten Sen- un«ed&mpfte dem wurde ein großes Energiequantum während einer sehr kurzen Zeit ■— ge- ««««> wissermaßen stoßweise in den Raum geschickt. Bei dem damals benutzten Detektor (Kohärer) war dies auch angebracht (vgl. Tabelle S. 364). Nachdem man sich aber überzeugt hatte, daß man unter Ausnutzung der Resonanz auch mit weniger stark aber kontinuierlich schwingenden Sendern in einem ent- fernten Sammelkreis hinreichend große Energiemengen aufspeichern könne und die Detektoren auch in eine für diesen Fall geeignetere Form übergegangen waren, richtete man auf Erzeugung kontinuierlicher Schwingungen sein Augen- merk. Elektromagnetische Maschinen, welche ausreichende Leistungen bei hohen Frequenzen lieferten, scheinen aber in der Ausführung auf zu große tech- nische Schwierigkeiten zu stoßen. Man hat daher andere Wege eingeschlagen. Diese sind wesentlich:

I. a) Lichtbogenmethode. Dudell zeigte zuerst folgendes. Schließt Lichtbogen man an einen Lichtbogen, der mit einer Gleichstromquelle hoher Spannung (200 und mehr Volt) verbunden ist, einen aus Kapazität und Selbstinduktion ge- bildeten Schwingungskreis an, so entstehen in diesem die elektrischen Eigen- schwingungen des Kreises (der Lichtbogen brennt dann mehr als leuchtender Punkt, er muß klein sein). Die Schwingungszahl, die bei den Dudellschen

378 iS* Ferdinand Braun: Die drahtlose Telegraphie

Versuchen etwa bis zu 40000 pro Sekunde lag, ließ sich zwar noch bis zu looooo und 400000 steigern, aber die Schwingungen wurden sehr schwach und die Erscheinung sehr labil. Entzog man dem Kreise einigermaßen Energie, so setzte der Schwingungsvorgang aus. Poulson hat diese Methode sehr wesent- lich verbessert durch zwei Kunstgriffe: i. er ließ den Bogen in einer wasser- stoffhaltigen Atmosphäre brennen und er benutzte 2. als eine Elektrode ein, am besten durch einen innen fließenden Wasserstrom, gekühltes Metall.

Mit dieser Anordnung ließen sich stärkere Schwingungen von ausreichend hoher Frequenz erzielen; auch ließ sich dem System mehr Energie entziehen als bei der Dudel Ischen Art.

Man setzte auf sie sehr große Hoffnungen, die sich aber doch nicht in dem gewünschten Maße erfüllten. Einmal war auch jetzt noch die Energie, welche man entziehen konnte (und welche für die Ausstrahlung und zur Deckung der sonstigen Verluste in der Bahn notwendig ist), relativ gering, und ferner zeigte sich, daß die Schwingungszahl mit der Bogenlänge sich änderte. Man mußte also diese fortwährend kontrollieren und regulieren. Trotzdem ist die Methode, namentlich durch die Firma Lorenz und deren Ingenieure zu einem hohen Grade von Brauchbarkeit gebracht worden. Goldschmidt 2. Die Goldschmidtsche Methode (Frequenzerhöhung) beruht auf der folgenden Erwägung. In einer gewöhnlichen Wechselstrommaschine entstehen Wechselströme, etwa von der (zyklischen) Frequenz idj, durch Rotation in einem konstanten Felde. Der Strom hat daher, als Zeitfunktion gedacht, die Form

A sin (jJx t Dabei ist A proportional dem Magnetfelde, in dem die Spule rotiert. Nimmt man statt eines konstanten Feldes ein wiederum selber periodisches von der Frequenz iwj, so wird A von der Form

B sin UJ2 1

und daher der im rotierenden Teil induzierte Strom von der Form

B sin Uli t * sin u), t

Dies stellt sich aber (vgl. S. 367) dar als die Summe zweier periodischen

Ströme von den Frequenzen Wi + u)2 und uü^ u),. Ist lUi = id^ so fällt das

letzte Glied weg, und man erhält nur eine Schwingung von der Frequenz 2 w^.

Mit diesem Strome kann man wieder das Magnetfeld erregen und erhält so

Ströme von der Form ^ . ^ .

C sm 2u)i t ' sm dü^ t

d. h. zwei Sinusströme von den Frequenzen 3u)]^ und Wj.

Die Ströme lassen sich, da es nur auf die relative Bewegung ankommt, so- wohl dem Stator als dem Rotor der Wechselstrommaschine entnehmen. Die zur Benutzung gewünschten werden durch Resonanz in auf sie abgestimmten Kondensatorkreisen angesammelt und lokalisiert.

Die Goldschmidtsche Maschine, welche damit nur in großen Zügen ge- geben ist, geht natürlich aus von schon möglichst hohen Frequenzen; sie arbeitet mit sehr fein unterteiltem Eisen. Bei einer Frequenz von 30 000 (X = lO km)

Ungedämpfte Schwingungen. Tikkerempfang ^yg

lieferte eine Maschine 12 KW mit einem Wirkungsgrad von 80 Prozent, bei der doppelten Frequenz 8 bis 10 KW mit etwa 60 Prozent Wirkungsgrad.

3. Verdoppelung der Wechselzahl. Eine Methode unter Benutzung von Ventilzellen (Graetzsche Aluminiumzelle) hat Zenneck 1898 angegeben. Eine andere Epstein und später Joly; alle aber nur für niedere Frequenzen. Die Ep st einsehe beruht auf folgender Überlegung: Man habe einen durch Gleichstrom ganz oder sehr nahezu gesättigten Elektromagneten. Legt man ihn in eine von Wechselstrom durchflossene Spule, so wird derselbe für die Stromrichtung, welche im selben Sinne magnetisiert wie der konstante, seinen Magnetismus nicht mehr ändern, wohl aber für die entgegengesetzte. Ein da- durch bedingter periodischer Induktionsfluß enthält, in Fouri ersehe Reihe zerlegt, schon die zweite harmonische Schwingung; man kann sie aber, indem man denselben Wechselstrom nochmals in einer der ersten entgegengesetzt geschalteten Wickelung um den magnetisierten Eisenkern gehen läßt, direkt verstärken und erhält daher in einer über den Kern geschobenen Sekundär- spule Strom doppelter Frequenz. Dies kann wiederholt werden. Durch die zweite, der ersten entgegengesetzt magnetisierende Wechselstromspule wird aber gleichzeitig auch das sehr wesentliche Resultat erzielt, daß der primäre Wechselstrom gar keine Induktionswirkung auf die Sekundärspule im magne- tischen Kreise mehr ausübt, so daß in dieser kein Strom der Ausgangs- frequenz mehr entsteht. Dies bedingt einen sehr guten Wirkungsgrad der Anordnung. Der Vorteil der Methode ist u. a., daß die Frequenz sich bei jeder Operation verdoppelt, nicht wie bei Goldschmidt nur um je eine Frequenz steigt.

Ar CO hat gezeigt, daß dieser Gedanke auch für die Erzeugung von Hoch- Arcot frequenz durchführbar ist; ihm gebührt das Verdienst, die recht erheblichen gen^to" Schwierigkeiten überwunden zu haben.

Auch hier fängt man mit mechanisch hergestellten, möglichst hohen Fre- quenzen an. Man kommt mit der wesentlich einfacheren und billigeren Arco- schen Methode bei guten Wirkungsgraden zu sehr hohen Frequenzen und enor- men Leistungen (bis mehrere hundert Kilowatt).

Eine Schwierigkeit scheint noch darin zu liegen, daß man die Ausgangs- frequenz, d. h. die Rotationsgeschwindigkeit des Wechselstromgenerators bis auf Bruchteile eines Prozentes konstant muß halten können. Sonst machen die dadurch eintretenden Periodenschwankungen, ebenso wie bei der Poulsonlampe, die erzielte Konstanz der Amplitude illusorisch.

Der Empfänger für ungedämpfte Schwingungen muß nach ande- Tikkenchaitung. ren Prinzipien gebaut sein; Poulson hat dies mit seiner Tikkerschaltung er- reicht. Ein Kondensator, der in dem abgestimmten Empfängerkreis liegt, ladet sich durch die kontinuierlichen Schwingungen. Eine schnell schwingende Saite gibt aber pro Sekunde etwa 100 Kontakte von diesem Sammelkreise an ein Tele- phon.^) Die Wirkungsweise mag folgendes Zahlenbeispiel klarmachen. Die

i) Durch diese Überlegung ist er entstanden; der Kontakt wirkt aber in Wahrheit wohl als variabeler Widerstand.

3 So iS- Ferdinand Braun: Die drahtlose Telegraphie

elektrische Schwingungszahl sei loo 000 pro Sekunde. Die Zeit, um einen Punkt zu geben, sei Vio Sekunde; dann wird in dieser 2^it der Kontakt ungünstigen- falls achtmal angelegen haben, das Telephon macht also für einen Punkt acht Schwingungen, d. h. ein Punkt stellt sich als acht in sehr kurzen Intervallen folgende Stöße der Telephonmembran dar. Dem Sammelkreis bleibt zum Aufsammeln neuer Energie etwas weniger als je eine hundertstel Sekunde; auf diese Zeit entfallen je looo elektrische Schwingungen, und ein solcher Wellenzug ist ausreichend, um den Sammelkreis so weit zu laden, als es auch mit einer viel länger andauernden Erregung möglich wäre. Ein Vorteil dabei ist, daß der Sammelkreis während des Aufladens fast gar keine Energie verliert und daher sehr scharfer Abstimmung fähig ist.

Ein Übelstand haftet aber dem Tikker an er operiert mit den Unter- brechungen an der Empfangsstelle, nimmt also jede Individualität der an- kommenden Wellen weg; er reagiert daher auch in gleicher Weise auf at- mosphärische Störungen und täuscht je nach deren Dauer Punkte und Striche vor.

Die hauptsächlichste praktische Bedeutung der ungedämpften Schwin- gungen liegt zurzeit wohl noch darin, daß erst mit ihrer Hilfe eine drahtlose Telephonie ermöglicht wurde. Die Antenne befindet sich für diesen Zweck Dniitiote in stetiger Erregung. Ein mit Detektor versehenes und in einem Resonanzkreis ^ ** gelegenes Telephon folgt diesen schnellen Schwingungen nicht, es tönt nicht. Wird jetzt aber die Amplitude der Senderschwingungen in dem langsamen Tempo von akustischen Schwingungen geändert, so gibt in der Empfangs- antenne ein mit ihr erregter Detektor diese Schwankungen als Ton im Telephon an. Die Schwankungen der Senderamplitude werden durch eine Anzahl parallel geschalteter Mikrophone, welche in die Antenne gelegt werden können oder zu einem Teil der Antennenselbstinduktion parallel oder in verschiedenen anderen Arten geschaltet werden können, hervorgebracht.

Die Empfangsstation ist wesentlich die gleiche wie für drahtlose Telegra- phie: Detektor mit Telephon. Es hat sich aber gezeigt, daß es zweckmäßig ist, die Dämpfung des Empfangssystems groß zu machen. Dies entspricht auch der Natur des Vorganges; die Schwingungsform des Senders wird wieder von der

Gestalt . .

A sm nt sm u)^

wo n die Frequenz des Tones, u) die Frequenz der elektrischen Schwingung be- deuten soll (also n klein gegen uj). Man erhält also wieder zwei elektrische Schwingungen von den Frequenzen u) + n und tu n; im Empfangskreis än- dert sich mithin die Stärke der (dauernden) Erregung des Detektors infolge mehr oder weniger vollkommener Resonanz; für ein möglichst gleichmäßiges An- sprechen auf die verschiedenen akustischen Frequenzen ist es daher zweck- mäßig, die Resonanzkurve ziemlich flach zu halten, so daß den Werten ui ± n noch ziemlich hohe Werte in derselben zukommen.

Die Übertragung der Sprache wird als sehr rein angegeben. Auch die erziel- ten Entfernungen sind recht erheblich.

Drahtlose Telephonie 381

Die Poulsonstation in Kalifornien soll bei einer Antennenhöhe von 90 m eine Reichweite von 550 km besitzen. Die Gesellschaft für drahtlose Tele- graphie hat von Nauen nach Norddeich gesprochen; nach kürzlichen Berich- ten (Ende Mai 19 13) mit neuen Senderanordnungen, über welche aber noch keine Mitteilungen vorliegen, in sehr vollkommener Weise von Nauen nach Straßburg und nach Wien. Es wurden eine halbe Stunde lang Zeitungsnach- richten vorgelesen. Die Lautstärke an der Empfangsstation sei noch unnötig groß gewesen.

Weitere Literatur.

Jahrbuch der drahtlosen Telegraphie und Telephonie, herausgegeben von Dr.G.£iCHHORN; Leipzig, Barth. Jährlich 2 Bände ä 6 Hefte, monatlich erscheinend. Enthält außer wissenschaftlichen und praktischen Originalarbeiten Referate über fast alle wichtigen Publikationen auf dem Gebiete, über praktische Fragen, Patentschau usw.

J. Zenneck, Lehrbuch der drahtlosen Telegraphie. 2. Auflage. Stuttgart, Enke, 19 13.

M. Dieckmann, Leitfaden der drahtlosen Telegraphie für die Luftfahrt (zwar diese spezi- eller berücksichtigend, aber eine gute einfache Darstellung des ganzen Gebietes enthaltend, München und Berlin, R. Oldenböurg, 1913.

19. SCHWINGUNGEN GEKOPPELTER SYSTEME.

Von

Max Wien.

Elektrische Auf die Schwingungcn gekoppelter Systeme wurde die Aufmerksamkeit

gekoppelte * Weiterer Kreise erst durch die Einführung des Braun sehen Senders in die Systeme, drahtlose Telegraphie gelenkt, und zweifellos sind die elektrischen Schwin- gungen auch sonst ihr wichtigstes Anwendungsgebiet. Die ersten Beobach- tungen gekoppelter Schwingungen geschahen jedoch an mechanischen und akustischen Systemen, die Erscheinungen und ihre theoretischen Grundlagen sind hier wie dort die gleichen, die Lehre von den gekoppelten Systemen hat sich auf beiden Gebieten gleichzeitig unter gegenseitiger Anregung und Befruchtung entwickelt, so daß es einseitig und historisch unrichtig wäre, die Darstellung auf die elektrischen Systeme zu beschränken. Es sollen deshalb im folgenden die Koppelungsgesetze zunächst an mechanischen und akusti- schen Beispielen erläutert und dann auf die Elektrizität übertragen werden ein Weg, der auch deshalb vorteilhaft erscheint, weil dem Nicht-Physiker die sichtbaren und hörbaren Vorgänge leichter verständlich sein werden als die elektrischen, die nur indirekt durch ihre Wirkungen der Beobachtung zugänglich sind. Mitschwingen Resonauz und Rückwirkung eines resonierenden Systems.

▼onAbstiifnLig, Um die Mitte des vorigen Jahrhunderts wurde vor allem durch Helmholtz KoTOdnng ^^^ Lehre des Mitschwingens in die Physik eingeführt: alles, was mit einem schwingenden System in Verbindung steht, schwingt mehr oder weniger stark mit, am stärksten, wenn die Schwingungszahlen des erregenden und des erreg- ten Systems übereinstimmen: die Systeme „in Resonanz'* sind; so schwingen einzelne Saiten des Klaviers besonders stark mit, wenn man hineinsingt, es klingen Gläser und Metallteile bei bestimmten Tönen mit, wenn laut im Zimmer gesprochen wird, usw. Außer von der Übereinstimmung der Schwingungszahlen hängt die Stärke des Mitschwingens noch von der Dämpfung der Systeme und dann vor allem davon ab, ob die Verbindung die „Koppelung** zwischen dem erregenden und erregten System eine „lose** oder „enge** ist. Eine sehr lose Koppelung besteht z. B. bei dem bekannten Resonanzversuch mit den beiden Stimmgabeln: die durch die einzelnen Schallwellen auf die zweite Stimm- gabel übertragene Energie ist nur äußerst gering. Trotzdem vermag die Über- einanderlagerung der Wirkung sehr vieler genau gleichgestimmter Schallwellen die schwere Stimmgabel in merkliche Schwingungen zu versetzen. Eine sehr viel engere Koppelung besteht zwischen der Stimmgabel und ihrem Resonanz-

Rückwirkung eines resonierenden Systems

383

fcems.

kästen. Ganz eng ist die Koppelung bei der Zungenpfeife zwischen der Metallzunge und der mitschwingenden Luftsäule.

Sehr kräftig ist das Mitschwingen, wenn die beiden Systeme gleichzeitig Kückwirknnff eng gekoppelt sind, genau in Resonanz stehen und geringe Dämpfung besitzen. ,esoSewid©n Ein starkes Mitschwingen des erregten Systems absorbiert natürlich einen be- ^y^ trächtlichen Teil der Schwingungsenergie des erregenden Systems und muß da- her eine Rückwirkung auf dieses System ausüben, d. h. die Art und die Stärke der Schwingung eines Systems ist eine andere, wenn es ein zweites System zum Mitschwingen bringt, es also mit einem zweiten System gekoppelt ist, als wenn es für sich allein schwingt.

Als die Bedeutung der Resonanz in Wissenschaft und Technik immer mehr hervortrat, als immer neue Beispiele gekoppelter Systeme auf den verschie- denen Gebieten der Physik auftauchten, da wurde es notwendig, die Rückwir- kung der mitschwingenden Systeme

näher zu untersuchen, und so bildete sich allmählich die Lehre von den koppelten Schwingungen" aus.

Um in das Wesen der gekoppelten Schwingungen einen tieferen Einblick tun zu können, muß man eigentlich ihre Gesetze aus den Differentialgleichungen der Bewegung ableiten und sie gleichzeitig an einer Reihe von Versuchen aus verschiedenen Gebieten der Physik studieren : sie bilden eines der schönsten Bei- spiele für das Ineinanderarbeiten vonTheorie und Versuch in der neueren Physik.

Da hier jjsdoch von einer mathematischen Behandlung des Problems ab- gesehen werden muß, so sei zur Einführung ein mechanisches Modell der ge- koppelten Schwingungen näher beschrieben, bei dem die Vorgänge im einzelnen verfolgt werden können. Dies Modell: die gekoppelten oder sympathischen Pendel, rührt ursprünglich von A. Oberbeck^) her; die hier beschriebene Form*) ist etwas weiter durchgebildet, vor allem kann auch die Dämpfung der Pendel variiert werden.

Die gekoppelten Pendel. An dem Gestell G (Fig. i) schwingen die Doppeipendei. beiden Pendel I und II in der Ebene der Zeichnung. Die Schwingungsdauer ,^^ E^Sfutenuig der beiden Pendel kann durch Verschieben der beiden Laufgewichte P^ und P, ^*' ^mu^^^' geändert werden. Durch die Spiralfeder F sind die beiden Pendel miteinander

ge-

I) Der Apparat wird von der Firma B. Schilling in Dresden angefertigt. Zum Studium der einfachsten Grunderscheinungen genügt es auch, wenn man zwei Fadenpendel an einen ausgespannten Draht hängt. Da der elastische Draht die Bewegungen des einen Pendels auf das andere überträgt, ist eine Koppelung vorhanden. Es kann nur empfohlen werden, sich die Erscheinungen durch ein derartiges einfaches Modell beim Lesen des vorliegenden Aufsatzes zu erläutern. Andere Modelle, an denen man die Theorie noch eingehender verfolgen kann, die jedoch komplizierter in der Konstruktion sind, haben Mandelstamm und Anfinger angegeben.

384

19. Max Wien: Schwingungen gekoppelter Systeme

verbunden (gekoppelt). Die Koppelung wird „enger** oder „loser** gemacht, indem die Feder mittels der Hülsen Hi und H, auf den Stangen der Pendel herunter - oder heraufgeschoben wird. Die Dämpfung der Pendel kann dadurch vergrößert werden, daß man eine am Ende des Pendels angebrachte Blechscheibe in eine Wanne mit Wasser oder Öl taucht. Schwingungsdauer und Dämpfung der „ungekoppelten** Einzelsysteme erhält man, indem man das eine der Pendel

schwingen läßt, während man das andere festhält. Folgendes sind die cha- rakteristischen Versuche mit den gekoppelten Pen- deln:

Versuch i. Vorherr- schende Koppelung. Man macht die Schwin- gungsdauer beider Pendel gleich und die Dämpfung gering (Luftdämpfung) . Nun regt man eines der Pendel (I) an, während das andere (II) zunächst in Ruhe ist. Dann wird in- folge der Koppelung all- mählich die Bewegung auf das Pendel II übertra- gen, während I zur Ruhe kommt. Darauf geht die Bewegung allmählich wie- der von II auf I über usw. Jedes Pendel macht für sich Schwebungen, als ob es von zwei periodi- schen Kräften in Bewegung gesetzt würde, von denen die eine eine etwas höhere, die andere eine etwas tiefere Schwingungszahl als die der Pendel be- säße. Jedes Pendel niacht also gleichzeitig zwei Schwingungen von verschie- dener Schwingüngsdauer und Dämpfung. Sie seien „Koppelungsschwingun- gen** genannt, im Gegensatz zu den „Eigenschwingungen der ungekoppelten Einzelsysteme**. Diese Grunderscheinung der gekoppelten Schwingungen ist in Fig. 2A I und II dargestellt.

Versuch la. Man zeigt durch Herunterschieben der Feder F, daß die Schwebungen um so schneller werden, je enger die Koppelung ist.

Versuch ib. Bei gleichzeitigem Anregen beider Pendel sind die Schwebungen nur unvollkommen ausgebildet. Gar keine Schwebungen treten ein, wenn bei gleicher Amplitude die beiden Pendel mit gleicher oder entgegen- gesetzter Phase angeregt werden.

Versuch ic. Bei Verstimmung der beiden Pendel tritt die Erschei-

Sympathische Pendel 385

nung ebenfalls nur unvollkommen auf, vor allem kommt Pendel I, von dem die Bewegung ausging, nicht ganz zur Ruhe, sondern seine Ampli- tude erreicht nur abwechselnd Minima und Maxima (unvollkommene Schwe- bungen).

Versuch id. Ersetzt man bei Versuch i das Pendel II durch ein leich- teres Holzpendel, so ist der Verlauf im übrigen der gleiche wie bei Ver- such I, nur ist die Amplitude von II jetzt wesentlich größer als die von I.

Versuch 2. Vorherrschende Dämpfung. Vermehrt man die Dämp- fung des Pendels II bei Versuch i durch Eintauchen der Blechscheibe in Wasser oder Ol, so erhält man bei nicht zu enger Koppelung keine Schwebungen mehr, sondern, nachdem Pendel II ein Maximum erreicht hat, schwingen beide Pen- del gleichmäßig mit gleicher mittlerer Dämpfung ab.

Versuch 3. Hält man bei Versuch i in dem Augenblick, in welchem ge- rade alle Energie auf Pendel II übergegangen ist, Pendel I also in Ruhe ist, Pendel I fest, so geht keine Energie mehr von Pendel II auf I zurück, und II schwingt für sich mit eigener Frequenz und Dämpfung als ungekoppeltes Ein- zelsystem ab (Fig. 2B). Diesem Versuch entspricht die „Stoßerregung** elek- trischer Schwingungen (S. 401).

Geschichtliche Entwicklung. „D.Bernouilli beschreibt 1715 ein Ente Experiment, das er in bezug auf die Bewegung von Pendeln angestellt hatte, ^^w^ Als er zufällig eine Schale einer etwas schwerfälligen Wage beiseite schob, d^^^^*^Si bemerkte er, daß sie sofort hin und her zu schwingen begann, während die andere Schale nicht gestört wurde. Kurz nachher aber fing die zweite Schale an sich zu bewegen und immer größere Schwingungen zu machen, während die erste allmählich ihre schwingende Bewegung einstellte. Zuletzt schienen beide ihre Bewegung vertauscht zu haben, indem die zuerst gestörte sich fast in Ruhe befand, während die andere ihre größte Schwingungsweite erreichte. Dasselbe wiederholte sich dann in umgekehrter Ordnung, bis die erste Schale ihre ursprüngliche Bewegung wieder angenommen hatte und die zweite sich in Ruhe befand** (Routh, Dynamik, Deutsch von Schepp II, S. 72).

Offenbar war dies die erste wissentliche Beobachtung gekoppelter Schwin- gungen mechanischer Systeme von der Art des Pendelversuches i.

Über die gegenseitige Einwirkung akustischer Systeme hat E. War- warburgs bürg*) im Jahre 1869 eine Reihe von Versuchen veröffentlicht. Er findet, ^^J^^,^^„ daß, wenn zwei Körper A und B miteinander verbunden sind, B auf A so- Systemen. wohl eine tonverändernde als auch eine dämpfende Wirkung ausübt, von denen bald die eine, bald die andere mehr hervortritt. In der Umgebung der Resonanz erhält Warburg unter Umständen auch zwei Töne gleichzeitig. „Strenggenommen müßte man daher in diesem Falle sagen, daß der Körper A und der resonierende Körper B zusammen ein System bilden, dessen Töne nach ihrer Dauer und nach ihrer Höhe sowohl von dem Körper A wie von dem Körper B abhängen.** Eigentliche Schwebungen, be- sonders auch langsame Schwebungen lose gekoppelter Systeme traten bei

K.d.G.m.ixi|BdzPh7tik 2$

386 19' Max Wien : Schwingungen gekoppelter Systeme

diesen Versuchen nicht zutage : sie entsprechen ihrer Natur nach meistens dem Pendel versuch 2. Botwickeimig Die allgemeine Theorie der gekoppelten Schwingungen hat Rayleigh

aufgestellt, indem er sie unter das weite Gebiet der „Systeme mit niehreren Freiheitsgraden'' unterordnete. Er behandelt sowohl die freien wie die er- zwungenen Schwingungen und wendet seine Ergebnisse auf eine Reihe von Bei- spielen an (vgl. unten S. 387 und 393). Auf die maßgebende Rolle der Dämpfung, besonders bei in Resonanz befindlichen gekoppelten Systemen ist Rayleigh nicht näher eingegangen.

A. Oberbeck verdanken wir das oben geschilderte Fendelmodell zur Demonstration der gekoppelten Schwingungen (1888). Später übertrug Oberbeck die Theorie auf gekoppelte elektrische Systeme und berechnete auch in erster Annäherung die Wirkung der Dämpfung.

In die gleiche Zeit fallen noch eine ganze Reihe von Einzelbeobachtungen gekoppelter Schwingungen auf mechanischem, akustischem und elektrischem Gebiete, von denen weiter unten noch die Rede sein wird. Hierdurch angeregt hat dann M.Wien (1897)') das ganze Problem zusammenfassend bearbeitet. Auf Grund der Rayleighschen Auffassung werden zwei gekoppelte Systeme als ein System von zwei Freiheitsgraden behandelt, es wird das Ineinander- greifen der Verstimmung, Dämpfung und Koppelung der beiden Systeme klar- gelegt. Es wird der Begriff der „Koppelung** eingeführt und definiert, und da- bei je nach der Art der Übertragung „Kraft**-, „Beschleunigungs*-- und „Rei- bungs*'-Koppelung unterschieden. Ein Beispiel für die Kraftkoppelung bieten die oben besprochenen durch die Kraft einer elastischen Feder miteinander ver- bundenen sympathischen Pendel, ein Beispiel für Beschleunigungskoppelung ein an einem Pendel aufgehängtes zweites Pendel, dessen Masse durch die Be- wegung des ersten Pendels eine Beschleunigung erfährt, ein Beispiel für Rei- bungskoppelung würde etwa in zwei nahe beieinander befindlichen, sonst un- abhängigen Pendeln zu finden sein, von denen das eine infolge der Strömungen der Luft in Mitschwingungen versetzt* wird, die das andere bei seiner Bewegung durch Reibung mit sich reißt.

Die allgemeinen Ergebnisse der Theorie seien hier kurz zusammengestellt und durch einige charakteristische Beispiele erläutert.

Ergebnisse der Theorie. Werden zwei Systeme mit den Schwingungs- zahlen n^undn^ und den Dämpfungen h^ undh^ miteinander gekoppelt, so sind die freien Schwingungen des gekoppelten Systems der Art, daß in beiden Systemen zwei voneinander unabhängige Schwingungen a und ß vorhanden sind mit im allgemeinen verschiedenen Frequenzen (n^, n^) und verschiedenen Dämpfungen {h^ hX Allgemeines Prinzip ist, daß die Koppelung die Differenz der Frequenzen vergrößert |n„ n-| > jw^ 1*2!, hingegen die Differenz der Dämpf ungen verringert Iä« Ä^l < l^i Aal- ^^ unterscheiden ist vor allem, ob die „Koppelung oder die Dämpfung vorherrschend** ist.

Vorherrschende Koppelung. In diesem Falle haben die Koppelungs- schwingungen niemals gleiche Frequenz (f(o^^/f)i ^uch dann nicht, wenn die

Frequens.

Theorie. Vorherrschende Koppelung 387

beiden Einzelsysteme ungekoppelt die gleiche Frequenz besitzen (n^ = n^. BeiToriwmchan- £s entstehen dann Schwebungen, die um so schneller sind, je enger die Kop- bliden^i^tomen pelung ist. Bei sehr enger Koppelung gehen die Schwebungen in zwei völlig sch^ M^'en voneinander getrennte Schwingungen über. Die Schwebungen dauern bei ▼encwiidoner genauer Einstimmung der beiden Einzelsysteme die ganze Schwingung hin- durch an; ob die Schwebungen voll ausgebildet sind, d.h. die Minima die Amplitude Null haben, hängt von der Art der Anregung ab; sie sind voll ausgebildet, wenn ein System plötzlich in Schwingungen versetzt wird, während das andere völlig in Ruhe ist. Sind die Systeme gegeneinander ver- stimmt und ist ihre Dämpfung ungleich, so treten nur zu Beginn Schwe- bungen auf, die um so schneller verschwinden, je größer die Verstimmung und je verschiedener die Dämpfung der Einzelsysteme ist. Offenbar entspre- chen diese Ergebnisse der Theorie den durch die Pendelversuche l bis i d dar* gestellten Erscheinungen.

Die besonders charakteristische und auffallende Eigenschaft derartiger ge- koppelter Systeme ist die, daß ein vollständiges Unisono bei ihnen überhaupt nicht zu erreichen ist, auch wenn die Schwingungs- zahlen der Einzelsysteme völlig übereinstimmen, sondern statt einer einzigen Schwingung mit gleicher Periode treten in beiden Systemen eine^ höhere und eine tiefere zugleich auf. Unter Umständen muß dies bei der Ein- stimmung zweier Systeme aufeinander zu Schwierigkeiten Veranlassung geben. R. König versuchte die beiden Transversaltöne eines Klangstabes von quadratischem Querschnitt zur Übereinstimmung und damit die Stoßtöne (Schwebungen) zum Verschwinden zu bringen. König beschreibt die Er- scheinung folgendermaßen: „Als ich bei einem Stab, welcher die Töne if"" und df"" gab, den höheren Ton auch auf c^"" zu stimmen versuchte und zu diesem Zwecke die größere Dimension mehr und mehr verringerte, sank der Stoßton, welcher ursprünglich ungefähr ^' gewesen war, zuerst ganz regel- mäßig. Er ging durch die eingestrichene und dann durch die kleine Oktave, ohne daß dabei etwas Besonderes zu bemerken gewesen wäre. In der großen Oktave wurde er aber dann mehr und mehr von einem sehr starken und ver- worrenen Stoßgerassel begleitet, und war er ungefähr auf F oder £, also bis auf einige 40 Doppelschwingungen gesunken, so fing er wieder an zu steigen, statt noch tiefer zu werden, sich dann in Stöße aufzulösen und schließlich ganz zu verschwinden, wie man dies hätte erwarten sollen.**

Ein anderes Beispiel führt Rayleigh an: Wenn man ein Monochord durch einen Steg halbiert, und eine der beiden Hälften zupft, so gerät, da der Mittelpunkt nicht absolut fest ist, auch die andere in Mitschwingungen; jedoch macht jede der beiden Hälften Schwebungen. Es gelingt nun nicht, durch all- mähliches Verschieben des Steges diese Schwebungen zum Verschwinden zu bringen, sondern man gelangt nur zu einem Minimum, beim weiteren Ver- schieben des Steges werden sie dann wieder schneller.

Bei sehr enger Koppelung gehen die Schwebungen in zwei getrennte Schwingungen (Töne) über, wie dies Warburg zuerst an .akustischen Sy-

25*

388

19. Max Wien: Schwingungen gekoppelter Systeme

/v

i*a

t>«#

$temen beobachtet hat. Er verband z. B. mit dem Schwingungszentrum eines transversal schwingenden Stabes I einen zweiten Stab II. Waren die Eigen - töne der beiden Stäbe gleich, so erhielt er zwei rasch verklingende Töne, von denen der eine tiefer, der andere höher war als der Ton der isolierten Stäbe. Verlängerte er jetzt den Stab II, so wurde der tiefere Ton schwächer und schneller gedämpft, der höhere Ton jedoch wurde stärker und weniger gedämpft, gleichzeitig sank seine Tonhöhe etwas und näherte sich beim weiteren Verlängern

des Stabes II immer mehr dem Eigen- ton des isoliert schwingenden Stabes I. Obgleich in der Akustik sehr häufig Resonanz zweier gekoppelter Systeme angewandt wird, beobachtet man doch verhältnismäßig selten diese soeben beschriebenen Schwebungen bzw. Dop- peltöne. Das liegt daran, daß eines der Systeme meistens stark gedämpft ist und nun die Dämpfung bei nicht allzu enger Koppelung vorherrscht. ErgeimisMi Gekoppeltes System mit vor-

'o"ber«cSl:nS:t herrschender Dämpfung. Ist Sy-

Dämpftmg. 3tem II Stärker gedämpft als System I und die Koppelung nicht zu eng, so tritt eine schwach gedämpfte Schwingungsart a und eine stark gedämpfte ß in beiden Systemen auf. Die Schwingungszahl von a liegt in der Nähe der Schwin- gungszahl des weniger gedämpften Systems I. Die Schwingungszahl der stark gedämpften Schwingung ß liegt in der Nähe der Schwingungszahl des stark gedämpften Systems IL Vorherrschend, weil länger andauernd, ist die Schwingung a. Wenn der Ton von System II tiefer ist als der von I, so ist der Ton von a höher wie der von System I, und zwar um so mehr, je geringer die Differenz der Eigenperiode JH^ «,| der beiden Systeme ist. In der Nähe der Resonanz {tty = n^) verschwindet jedoch diese Erhöhung von a schnell und geht durch Null hindurch (vgl. Fig. 3). Wenn System II etwas höher ist wie I, tritt eine etwa ebenso große Vertiefung von a auf, die dann wieder mit wachsender Differenz der Eigentöne kleiner wird. Schwingung ß ist stets stark gedämpft, nur in der Nähe der Resonanz wird die Dämpfung etwas kleiner. Schwingung a ist stets schwach gedämpft, nur in der Nähe der Re- sonanz wächst die Dämpfung und hat für % = n^ ein ausgeprägtes Maximum (vgl. Fig. 3) ; gleichzeitig hat die Amplitude der Schwingung a in System 1 1 ein Maximum. Im allgemeinen ist die Wirkung des Systems II auf die Fre- quenz von I, die „tonverändernde** Wirkung, hier sehr gering, sehr viel stärker ist die Änderung der Dämpfung. Rftckwirkaagdea Das klassische Beispiel für derartige Systeme bildet die Stimmgabel mit ^"■^^a^Jir^^^'R^söö^^^^kasten; die Stinmigabel ist das schwach gedämpfte System I, die Stimm gabaL Luft im Resouauzkasteu das infolge der Übertragung der Schwingungsenergie an den umgebenden Raum stark gedämpfte System II. Die Koppelung wird durch

Vorherrschende Dämpfung

389

Tabelle.

das Holz des Resonanzkastens bewirkt. Wegen des großen Unterschiedes in den Dämpfungen ist die ganz schnell abklingende Schwingung ß überhaupt nicht wahr- nehmbar, und man hört ausschließlich den lang andauernden Ton a, dessen Ton- höhe stets sehr nahe demTon der ohne Resonator schwingenden Stimmgabel liegt. R. König*) hat lange vor Ausarbeitung der Theorie eingehend den Ein- fluß eines Luftresonators auf die Tonhöhe der Stimmgabel untersucht; er er- hielt beim Variieren der Tonhöhe des Luftresonators folgende Resultate: „Schon wenn der Resonatorton eine kleine Terz tiefer als die Stimmgabel war, ließ sich eine kleine Ver- ringerung der Hörbarkeits- dauer und gleichzeitig eine ge- ringe Erhöhung der Schwin- gungszahl, etwa um 0,005 Schwingungen, wahrnehmen. Je mehr von hier ab dann der Eigenton des Resonators sich dem der Stimmgabel näherte, je mehr nahm die Hörbarkeitsdauer der Gabel ab und ihre Höhe zu, bis ganz

Tonhöhe

Hörbarkeitsdauer

Änderung

des Resonatoxs

der Gabel

der Gabelfrequenz

«•

Sosek.

0,005

ats^

60

0,008

^

30

0,016

234.5

20

0,035

256

8—10

0

264

.•

- 0,035

cts

22 »

- 0.029

ä.

45 H

-0.015

dis^

70

0,008

nahe zu dem vollständigen Einklang beider Töne; war dieser jedoch wirklich erreicht, so verschwand plötzlich die Erhöhung der Schwingungszahl der Gabel ganz und gar, und sie zeigte dieselbe Stimmung, als wenn sie ganz frei ohne Resonator vibrierte. Der Ton war dabei mächtig angeschwollen, nahm jedoch sehr schnell an Intensität ab und dauerte im ganzen nur 8—10 Sekunden. Nach einer geringen Erhöhung des Resonatortones trat dann wieder eine gleich große, aber entgegengesetzte Verstimmung der Gabel ein, d. h. sie zeigte sich nun um ebensoviel tiefer geworden, als sie bei etwas tieferem Resonatortone vor der Erreichung des reinen Einklanges höher gewesen war, und diese Ver- tiefung wurde dann bei immer größerer Höhe des Resonatortones immer ge- ringer, während die Hörbarkeitsdauer der Gabel schließlich wieder bis zu 80 und 90 Sekunden anwuchs/' In der vorstehenden Tabelle sind die Zahlen- ergebnisse Königs für eine Gabel von 256 Schwingungen (c^) angegeben die exakte Beobachtung der sehr kleinen Tondifferenzen stellt der Experimentier- kunst des genialen Akustikers ein glänzendes Zeugnis aus. Die kleine Unsym- metrie zwischen der Verstimmung nach oben und nach unten ist nicht zu- fällig, sondern theoretisch begründet. '

Offenbar entspricht die Beschreibung und die Tabelle genau dem Verlauf der Kurven (Fig. 3). Besonders charakteristisch ist die starke Dämpfung und die eigentümliche Labilität der Tonhöhe in unmittelbarer Nähe der Resonanz. Obgleich die dadurch bedingten Änderungen des Tones der Stimmgabel nur Bruchteile eines Promilles betragen, hat König bei der Herstellung seiner Stimmgabeln diese Labilität vermieden, indem er absichtlich den Luftreso- nator gegen die Stimmgabel verstimmte.

390 19* Max Wien: Schwingungen gekoppelter Systeme

vcwacii© In dasselbe Gebiet gehört auch ein Teil der Warburgschen Versuche,

von Warburg. . . o f

nämlich diejenigen, bei denen die tonverändernde Wirkung des resonierenden Systems sich der Wahrnehmung entzog, hingegen sich um so deutlicher die dämpfende Wirkung zeigte. Auf ein Schwingungszentrum eines transversal tönenden Stabes befestigte Warburg senkrecht eine Spirale aus Metall. Bei passender Länge derselben konnte durch Anschlagen oder Anstreichen des Stabes kaum eine Spur von einem Ton wahrgenommen werden, während der- selbe sofort mit der größten Leichtigkeit ansprach, wenn die Spirale durch Auf- kleben eines Stückchen Wachses verstimmt wurde. Ähnlich war die Wirkung eines gleichgestimmten Stäbchens auf den Ton einer Stimmgabel, an deren Stiel es senkrecht aufgekittet war.

Diesen letzten Warburgschen Versuch kann man leicht mit einer Stimm- gabel (System I) und daran befestigter, kleiner, gleichgestimmter Metallfeder (System II) wiederholen. Besonders auffallend ist dabei die dämpfende Wir- kung, welche die kleine mitschwingende Feder auf das schwere System der Stimmgabel ausübt.

Offenbar liegt in diesem Prinzip ein Mittel, um unerwünschte Resonanz- schwingungen zu beseitigen oder zu vermindern. Erawniigene Erzwungenc Schwingungen mechanischer und akustischer

goiwppeiSr" gekoppelter Systeme. Auf den ersten Blick erscheint es nicht wahr- systeme. schcinlich, daß erzwungene Schwingungen zweier gekoppelter Systeme irgend häufiger vorkommen: außer den beiden gekoppelten Systemen muß dabei eben noch ein drittes vorhanden sein, von dem die periodische Kraft ausgeht, so daß wir es dann eigentlich mit drei gekoppelten Systemen zu tun haben.

Nachdem man es aber durch Helmholtz gelernt hatte, mit Hilfe re- sonierender Systeme eine periodische Kraft oder Bewegung zu analysieren und zu studieren, da lag es nahe, die Wirkung der Resonanz zu erhöhen, in- dem man mehrfache Resonanz anwandte, und so kam man ganz von selbst dazu, periodische Kräfte auf resonierende gekoppelte Systeme wirken zu lassen. Scheu vor der Dabei Zeigte es sich bald, daß der Erhöhung der Resonanzwirkung durch etonanc. j^Qppßjujjg mehrerer gleichgestimmter Systeme durch die Koppelungsgesetze eine Grenze gesetzt ist; es tritt eine eigenartige ,, Scheu vor der Resonanz'* hervor, so daß man, wie wir sogleich sehen werden, unter Umständen gerade bei völliger Resonanz, wo man eigentlich ein Maximum erwartet hätte, sogar ein Minimum des Mitschwingens beobachtet.

Das Verhalten gekoppelter Systeme bei Änderung der Frequenz der perio- dischen Kraft entspricht durchaus den Eigenschaften ihrer freien Koppelungs- schwingungen. Zwei gleichgestimmte gekoppelte Systeme haben bei „vor- herrschender Koppelung**, wie wir gesehen haben, gleichzeitig zwei freie Eigen- perioden, von denen die eine höher, die andere tiefer liegt als die Schwingungs- zwei Maxima Zahl, auf die sie beide eingestimmt sind. Diesen beiden Eigenperioden ent- für%^hiedene sp'^®^^®'^ ^ei crzwungencn Schwingungen zwei Maxima der Amplitude Perioden fQ^ Verschiedene Perioden der Kraft.

der Kraft.

Erzwungene gekoppelte Schwingungen

391

/nogekoppal^

/ gekoppelt, // gekoppelt.

Die Theorie der erzwungenen Schwingungen ist ebenfalls von Rayleigh im Prinzip angegeben und von M. Wien weiter durchgeführt worden. Für den vereinfachten Fall, daß die beiden gekoppelten Systeme in Resonanz stehn (n^ = nj), sind die Ergebnisse der Theorie kurz folgende: Bei schwacher Dämp- fung der beiden Systeme zeigen beide zwei ausgesprochene Maxima für zwei Schwingungszahlen der Kraft, von denen die eine niedriger, die andere um ebensoviel höher ist als ihre gemeinsame ungekoppelte Eigenperiode. Das Minimum zwischen den beiden Maximis tritt ein, wenn die Periode der Kraft gleich der gemeinschaftlichen Eigen- periode der Einzelsysteme ist. Dieses Minimum ist sehr niedrig, besonders bei System I, dessen Amplitude annähernd den Wert Null besitzen kann (Fig. 4). Die Lage der Maxima stimmt nicht ge- nau mit den Frequenzen der freien Kop- pelungsschwingungen überein: die bei- den Systeme sind nicht mehr gleichwer- tig, wie bei den freien Schwingungen, sondern eines derselben ist bevorzugt, indem auf dieses die Kraft direkt wirkt, während das andere nur indirekt durch die Koppelung in Schwingungen gerät. Bei steigender Dämpfung oder ver- minderter Koppelung werden die Maxima und Minima flacher, bis zunächst System II nur noch ein Maximum zeigt. Steigt die Dämpfung oder sinkt die Koppelung noch weiter, so gehen die beiden Maxima des Systems I auch in eines über. Von da ab haben beide Systeme nur noch ein Maximum für ihre gemeinsame Eigenperiode.

Die Maximalamplituden der beiden Systeme verhalten sich caeteris pari- Da« leichtere bus wie die Wurzeln aus den Massen der Systeme. Dies gewährt die Möglich- „jacht'i^öflero keit, sehr geringe Amplituden eines schweren Systems sichtbar zu machen, in- Amplituden. dem man es mit einem ganz leichten System koppelt. Der ganze Verlauf läßt sich bequem an dem obenerwähnten System: Stimmgabel (I) nebst eingestimm- ter Metallfeder (II) verfolgen, da man ja die Koppelung durch Verschieben der Feder auf einer der Zinken der Stimmgabel beliebige Werte geben kann. Auf die Stimmgabel wirkt als periodische Kraft ein Elektromagnet, durch den ein Wechselstrom fließt, dessen Periode in der Umgebung des Tones der Stimm- gabel variiert wird.

Ein sehr charakteristisches Beispiel für erzwungene Schwingungen zweier gekoppelter Systeme ist das optischeTelephon.^) Es besteht aus einem Te- optisches lephonelektromagnet, dem eine Membran mit Eisenkern System I gegen- ^""^^p^**"- übersteht. In der Mitte der Membran ist ein Stift angebracht, der auf eine eingeklemmte Feder mit darauf gekittetem Spiegel System II wirkt. Membran und Feder sollten auf den gleichen Ton eingestimmt werden, damit die Bewegung der Feder für einen Wechselstrom derselben Schwingungszahl

392 19* Max Wien: Schwingungen gekoppelter Systeme

möglichst groß wird und ein möglichst schwacher Strom durch die Drehung des Spiegels gemessen werden kann. Bei dem Versuch, diese Einstimmung zu be* l wirken, stieß man auf eine eigentümliche Schwierigkeit: statt eines Maximums für den gemeinschaftlichen Eigenton treten rechts und links davon zwei durch ein breites tiefes Minimum getrennte Maxima auf. Erst sehr viel später wurde erkannt, daß dies nicht etwa in einer mangelhaften Einstimmung, sondern im Wesen der Koppelung seine Ursache hat. Der Abstand dieser Maxima ist ziemlich groß: bei einem Instrument waren z. B. die Schwingungszahlen der beiden Maxima 286 und 315. Die Empfindlichkeit des Instruments be- - ruht, abgesehen von der Resonanz, darauf, daß die Masse des Systems II, Feder nebst Spiegel, sehr klein ist neben der der Membran nebst Eisen- kern, weßhalb die Amplituden der Feder entsprechend der Theorie sehr viel größer werden.

Eine besondere Gattung erzwungener Schwingungen gekoppelter Systeme ziuffeBpfeife.wird durch die Zungenpfeifen Metallzunge System I, Luftsäule System II repräsentiert. Der Ton wird durch eine ursprünglich gleichförmige Kraft unterhalten, die erst durch die Schwingungen der Zunge in eine periodische verwandelt wird. Die Periode der Kraft wird dabei durch die Periode der schwingenden Systeme bedingt. Letztere werden jedoch wieder durch die Kraft beeinflußt und verändert, so daß hier wesentlich kompliziertere Verhält- nisse vorliegen, die noch näherer Untersuchung bedürfen. Weber hat zwar in seinen klassischen Arbeiten die Zungenpfeifen eingehend studiert, jedoch naturgemäß noch nicht unter dem Gesichtspunkte der gekoppelten Schwin- gungen.

In diese Kategorie gehören außer den durch Anblasen angeregten gekop» pelten Systemen auch alle Musikinstrumente, die durch einen Bpgen ange« strichen werden: also z. B. die Violine mit ihrem Resonanzkasten. Es springt in die Augen, welche Bedeutung die Lehre von den gekoppelten Schwingungen für die Theorie der Musikinstrumente besitzt ein Anwendungsgebiet, das noch gar nicht in Angriff genommen ist und das musikalisch und phy- sikalisch reiche Ausbeute verspricht.

Beispiele gekoppelter mechanischer Systeme. Nachdem einmal die Aufmerksamkeit auf die Erscheinungen der gekoppelten Schwingungen gelenkt und ihr Wesen klargestellt war, wurden sie auf den verschiedensten Gebieten beobachtet und angewandt, auch wurden ältere Versuche auf sie zu- rückgeführt. Außer den schon oben besprochenen mögen hier noch einige weitere Beispiele angeführt sein.

Mitschwingra Eine besondcre Anwendung der Schwingungen gekoppelter Pendel

M p^Ii- ^^^^ ^^ ^^^ Geodäsie bei der absoluten Bestimmung der Schwerkraft aus Pen-

■chwingiingen. delbeobachtungen gemacht. Um dabei eine den sehr hochgespannten Anfor- derungen der Geodäten genügende Sicherheit zu erzielen, muß bei der Bestim- mung der Schwingungsdauer des Pendels das Mitschwingen des Statives genau berücksichtigt werden. Dazu wird ein zweites gleiches Pendel an demselben Stativ aufgehängt; die beiden Pendel sind nun durch das mitschwingende

Beispiele aus der Mechanik 3q3

Stativ gekoppelt und müssen gekoppelte Schwingungen machen. Furtwäng- 1er hat 1902 aus den Koppelungsgleichungen in elegantester Weise eine ganze Reihe von Methoden abgeleitet, wie man aus der Beobachtung der Amplituden oder auch der Schwingungsdauer der beiden Pendel auf ihre Koppelung und damit auf das Mitschwingen des Statives schließen kann.

Sommerfeld gibt eine interessante Methode zur Bestimmung der sog. BestimmmiK Poissonschen Konstanten des Verhältnisses der elastischen Q^^r- ^^^^^^^ kontraktion zur Längsdehnung •— mittels gekoppelter Schwingungen an. Eine Spiralfeder wird an dem einen Ende aufgehängt und trägt an dem anderen Ende ein zylindrisches Gewicht. Die Feder kann sowohl vertikale Schwingungen \

machen, iT^obei sich das Gewicht auf und ab bewegt, als auch horizontale, wo- '

bei es sich um seine Achse hin und her dreht. Wenn man durch passende Wahl der Größe und Form des Gewichtes die Periode der beiden Schwingungen gleich macht, so treten dabei Koppelungsschwebungen gemäß Pendelversuch i auf: die ganze Schwingungsenergie steckt einmal ganz in den Horizontalschwin- gungen, während die Vertikalschwingung Null ist, das andere Mal hat die Vertikalschwingung ein Maximum, während die Amplitude der Horizontal-^ Schwingung Null wird. Aus der Periode dieser Schwebungen kann durch einen einfachen, aus der Theorie abgeleiteten Ausdruck die Poissonsche Konstante des Drahtmaterials der Feder berechnet werden.

Koppelungsschwingungen eigentümlicher Art treten bei aufgehängten, cyro^tiscbe schnell rotierenden Kreiseln auf, wobei der Kreisel einerseits, die Auf- ^°pp*^"°«f- hängevorrichtung anderseits die beiden gekoppelten Systeme bilden. Die theo- retischen Ansätze dieses Problems hat Lord Kelvin bei Besprechung seines Gyrostaten gegeben, und zwar führen sie zu Gleichungen, die im Prinzip den Bewegungsgleichungen zweier miteinander gekoppelter Systeme entsprechen. Lord Kelvin hat sie allerdings nur so weit entwickelt, als sie für Aufstellung der Stabilitätsbedingungen von Kreiselsystemen notwendig waren. Praktische Bedeutung haben diese Dinge in neuester Zeit bei dem Schiffskreisel und beim Kreiselkompaß bekommen.

Rayleigh gründete auf die erzwungenen Schwingungen gekoppelter Anormale Systeme eine Theorie der anormalen Dispersion (vgl. Artikel 26), wobei "p*"***"* er 1877 noch auf der elastischen Theorie des Äthers fußte. Christi- ansen und Kundt hatten entdeckt, daß Substanzen mit einer starken Absorptionsbande unmittelbar vor dieser Bande anormal zuviel brechen, un- mittelbar dahinter anormal zuwenig. Die Absorption erklärt Rayleigh wie Sei Im ei er und Helmholtz durch Mitschwingen der Moleküle die Elektronentheorie war damals noch nicht entwickelt der absorbieren- den Substanz: dies Mitschwingen ist besonders stark, wenn genaue Reso- nanz zwischen der eintreffenden Schwingung und der Eigenperiode des Mole- küls besteht, und bewirkt eine starke Absorption des Lichtes der betreffen- den Frequenz die Banden des Absorptionsspektrums. Für Licht von etwas größerer Periode, als sie der Eigenschwingung der Moleküle der absorbieren- den Substanz entspricht, muß die Wirkung der in den Äther eingebetteten

394 ^9' Max Wien: Schwingungen gekoppelter Systeme

mitschwingenden Moleküle dieselbe sein, ,,wie eine Verringerung der natür- lichen Elastizität des Äthers, und eine solche Verringerung offenbart sich in einer langsameren Fortpflanzung und vergrößerter Brechung. Auf der anderen Seite der Absorptionsbande muß ihr Einfluß in der entgegen- gesetzten Richtung auf treten (also eine verringerte Brechung bewirken)**. Rayleigh folgert aus der Theorie eine gewisse Labilität der Frequenz bei völlig genauer Resonanz also schon ein Hinweis auf die ,, Scheu vorder Resonanz**: die mitschwingenden Systeme die Moleküle suchen, falls die erzwungene Schwingung zu tief oder zu hoch ist, diese Abweichung noch zu vergrößern (vgl. oben die Rückwirkung des Resonanzkastens auf die Stimmgabel). Giocka Bei der sog. Kaiserglocke in Köln machte es anfangs Schwierigkeiten,

and K10PIML gj^ zum Töueu zu bringen, weil der Klöppel nicht gegen die Glocke schlug. Glocke und Klöppel bilden offenbar gekoppelte Systeme, die Glocke wird durch eine periodische Kraft in Bewegung gesetzt und diese Bewegung durch die Koppelung auf den. Klöppel übertragen, der relativ gegen die Glocke schwin- gen und schließlich den Glockenrand treffen muß. Die speziellen Bewegungs- gleichungen, die den Gleichungen der gekoppelten Schwingungen analog gebaut sind, stellte H. Lorenz auf und zog aus ihnen den Schluß, daß die Art der Kop- pelung an der Schwierigkeit schuld war: die relative Bewegung zwischen Glocke und Klöppel ist Null und damit wird die Glocke unbrauchbar, wenn ihr Schwin- gungsmittelpunkt in der Ruhelage mit dem des Klöppels zusammenfällt.

Eine technische Anwendung der erzwungenen Schwingungen gekoppelter

Systeme bildet die Beruhigung der Schwankungen eines Schiffes durch den

Fnhmscher Frahmschcu Schlingertank. Die Rollbewegung eines Schiffes kann ganz

scbUnKOftaiik. begon^jers gj-Qß -v^rerden, wenn die Periode der Meereswellen mit der Eigenperiode

der Rollbewegung übereinstimmt. Man beobachtet häufig, daß die Neigung des Schiffes bei jeder Welle zunimmt, bis sie nach sieben, acht oder noch mehr Wellen ihr Maximum erreicht. Diese Vermehrung des Rollens durch Resonanz kann nach Fr ahm aufgehoben oder vermindert werden, indem im Innern des Schif- fes ein Tank eingebaut wird, dessen Form so gewählt ist, daß das hin und her schwingende Wasser darin dieselbe Eigenperiode hat wie das Schiff. E^ ent- spricht nun das Ganze der oben beschriebenen Erscheinung (Fig. 4, S. 391): Die Meereswellen sind die periodische Kraft, System II das Wasser in dem Tank gerät in heftige Schwingungen, während das System I das Schiff nur kleine Rollbewegungen macht.

Freie Schwingungen gekoppelter elektrischer Systeme. Die bei weitem wichtigsten Anwendungen der Lehre von den gekoppelten Systemen liegen auf dem Gebiet der elektrischen Schwingungen.

Hertz hatte gezeigt, wie man die Schwingungsform eines ,, Oszillators**

mit Hilfe eines „Resonators** untersuchen kann. Bjerknes*) hatte auf An-

Meanmg reguug von Hcrtz eine Theorie dieser Resonanzschwingungen gegeben, wobei

^eiekSuSl^' er jedoch die Rückwirkung des resonierenden Systems als nicht merklich, die

sdiwingQiigMi Koppelung zwischen Resonator und Oszillator also als „extrem lose** voraus-

rMoniereaden Syitaiitt.

I

Gekoppelte elektrische Schwingungen 3Q5

setzte. Im primären System sind daher die Schwingungen merklich dieselben wie vor der Koppelung. Im Sekundärsystem traten im allgemeinen zwei Schwingungen auf:

1, eine Schwingung von der Frequenz und der Dämpfung des Primär- systems: die „erzwungene Schwingung";

2. eine von der Frequenz und der Dämpfung des Sekundärsystems:. die , , Eigenschwingung* ' .

Sind die Frequenzen von Oszillator und Resonator verschieden, so treten mehr oder weniger ausgebildete Schwebungen im Resonator auf. Sind sie gleich, so haben auch die erzwungene Schwingung und die Eigenschwingung gleiche Frequenz, und man kann beide Schwingungen als eine einzige auffassen. Die Amplitude dieser Schwingung im Resonator steigt von Null zu einem Maxi- mum an, um dann nach Art einer gedämpften Schwingung abzufallen. Anstieg und Abfall der Amplitude hängen in ziemlich komplizierter Art von den Fre- quenzen und Dämpfungen der beiden Systeme ab.

Bjerkneshat dann weiter gezeigt, wie man aus der „Resonanzkurve" die Dämpfungen von Oszillator und Resonator bestimmen kann (Bjerknes- sche Methode zur Dämpfungsmessung).

Bei der praktischen Ausführung derartiger Messungen wurde naturgemäß, um eine größere Energie in den Resonator zu bekommen, der Abstand zwischen Oszillator und Resonator gelegentlich vermindert, also die Koppelung ver- größert. Dabei blieb dann die Rückwirkung nicht mehr unmerklich und man erhielt „gekoppelte Schwingungen". Der Einfluß dieser Rückwirkung auf Einflos Dämpfungsmessungen nach der Bjerknesschen Methode wurde erst ver- " "der'""* hältnismäßig spät von M. Wien experimentell festgestellt und theoretisch "^'^^^*" abgeleitet, wie eng die Koppelung sein darf, ohne daß sie das Meßresultat beeinflußt. Ausgebildete Koppelungsschwingungen, wie bei Pendelversuch i, also Schwebungen bei zwei in Resonanz befindlichen Systemen, wurden wohl zuerst von J. Trowbridge bei Funkenphotographien Hertzscher Schwin- gungen beobachtet; allerdings war ihm der wahre Grund der Schwebungen nicht bekannt: ,»With periods ranging from o,ooooi to 0,000001 of a second, I have found it impossible to tune two circuits in wich spark occurred to perfect resonance. There were always indications of beats due, I believe, to the capacity not rising immediately to its füll value."

Im Jahre 1895 haben J. v. Geitler, Fürst Galitzin, Domalip und Schwingungen Koläcek, A. Oberbeck') unabhängig voneinander theoretisch nachge- *°fiektriScw' wiesen, daß, wenn zwei ungedämpfte elektrische Schwingungssysteme aufein- System©. ander einwirken, jedes derselben nicht mehr eine, sondern zwei Eigenperioden hat, auch wenn die Eigenperioden der ungekoppelten Einzelsysteme dieselben sind. Domalip und Koläcek und Oberbeck haben auch die Wirkung der Dämpfung näherungsweise berechnet, v. Geitler wies das Vorhandensein der beiden Schwingungen experimentell an Lech ersehen Systemen nach und er- weiterte die Theorie auf den Fall einer beliebigen Anzahl (n) Systemen. Er er- hält dabei folgendes Resultat:

396 i9- Max Wien: Schwingungen gekoppelter Systeme

„Ein System von n beliebigen einfachen Erregern, welche einander gegen- seitig beeinflussen, erzeugt gleichzeitig höchstens n voneinander und von den I n Eigenschwingungen der unbeeinflußten n Erreger verschiedene Schwin- gungen. * Ein Ergebnis, welches im Grunde genommen schon in der R a y 1 e i g h - sehen Theorie der Schwingungen von Systemen mit mehreren Freiheitsgraden enthalten war.

Eine ganz besonders große Anregung erhielt die Lehre von den gekoppel- ten Schwingungen durch die Einführung der gekoppelten Sender in die Brannsche drahtlose Tclcgraphie (Braun 1898). Das Braun sehe System besteht im för (h^üote wesentlichen in einer Koppelung der Antenne mit einem gleichgestimmten ge- Teiegraphie. schlosscuen Schwingungskrcis, der aus einem Kondensator, einer Selbstinduk- tionsrolle und einer Funkenstrecke gebildet ist.

Offenbar waren hier die Vorbedingungen für ausgebildete Koppelungs- schwingungen vorhanden, da die Dämpfung der beiden Systeme meistens nicht allzu groß war und die Koppelung ziemlich eng gemacht wurde. Aber, ob- gleich die Theorie der gekoppelten Schwingungen schon bekannt war, brach sich die Erkenntnis, daß derartige Sender im allgemeinen zwei Wellen aussen- den, erst langsam in der Praxis Bahn. 1902 übertrug M. Wien^) die Theorie der gekoppelten Systeme, die er früher im wesentlichen auf akustische und mechanische Probleme angewandt hatte, auf elektromagnetische Schwingungen und zog eine Reihe von Folgerungen für die Praxis der drahtlosen Telegraphie, speziell über die „Einwelligkeit** und „Mehrwelligkeit** der verschiedenen Sen- derformen und ihre Dämpfung. Etwa gleichzeitig wurde die Mehrwelligkeit auch von F. Braun'^) und seinen Schülern experimentell im Laboratorium und bei Antennenversuchen festgestellt. Aber auch dann noch sträubte sich mancher Praktiker gegen die ihm nicht geläufige Erklärung der Mehrwellig- keit aus den Koppelungsgesetzen.

Im folgenden soll nicht etwa die weitere Entwicklung der drahtlosen Telegraphie geschildert werden, da dies ja im Artikel 18 der „Kultur der Gegenwart** von anderer, berufenster Seite schon geschehen ist, sondern es sollen nur die rein physikalischen Eigenschaften der gekoppelten elektrischen Schwingungen, wie sie im Laufe der Jahre herausgebildet wurden, näher er- örtert werden. AosarbeitaaK Entsprechend der Beschleunigungs-, Kraft- und Reibungskoppelung

bei mechanischen Systemen unterscheidet man bei elektrischen Systemen magnetische, elektrische und galvanische Koppelung; die magnetische Koppe- lung beruht auf beiden Systemen gemeinsamen magnetischen Kraftlinien, die elektrische auf gemeinsamen elektrischen Kraftlinien, die galvanische auf ge- meinsamem Widerstand. Alle diese Koppelungsarten lassen sich im Gegensatz zu den mechanischen Systemen meistens klar übersehen und die Koppelungs- koeffizienten vor allem bei geschlossenen Systemen rechnerisch oder experimen- tell bestimmen.

Während Wien die allgemeinen Beziehungen der Koppelungsschwingun- gen abgeleitet und eingehender nur die elektrische Koppelung berechnet hatte.

Anwendungen in der drahtlosen Telegraphie

397

Ci

TUE

hat Drude^) die Theorie der wichtigen magnetischen Koppelung genauer durchgeführt, welche einige Abweichungen von der elektrischen Koppelung auf- weist. Später hat sich dann noch besonders B. Macku mit der Theorie der ge- koppelten elektrischen Systeme beschäftigt und sie in einigen Punkten präziser gestaltet und erweitert.

Die experimentelle Untersuchung der elektrischen Schwingungen in den beiden Systemen muß, da wir sie nicht wie die mechanischen oder akustischen mit dem Auge oder Ohr verfolgen können, auf indirektem Wege geschehen; dazu dient entweder diePho- tographie des Funkens . .

im rotierenden Spiegel ^ 1 1 n.

oder die Darstellung ^ ^

des Schwingungsver- ^ £^

laufs mittels Braun- v. yf

scher Röhre (vgl. Arti- kel 21) bzw. Oszillo- graph, oder schließlich die Aufnahme der Resonanzkurve nach der Bjerknesschen Methode.

Um eine Vorstellung von dieser letztgenannten wichtigen Meßmethode zu satwickeiung geben, sei der übliche experimentelle Aufbau für die Untersuchung gekoppel- Meßm^de. ter Schwingungskreise hier kurz skizziert (vgl. Fig. 5).

Der Primärkreis (I) besteht aus einem Kondensator von der Kapazität C^ und einer Induktionsspule von der Selbstinduktion Z^, der Kondensator wird aufgeladen, bis die Schlagweite der Funkenstrecke F erreicht ist, und nun die Entladung in Form von Schwingungen erfolgt. Das sekundäre System (II) ist entweder ebenfalls ein geschlossener Kondensatorkreis mit der Kapazität C^ und der Selbstinduktion L^, es kann aber auch aus einem offenen Oszillator, einer Antenne oder irgendeinem anderen schwingungsfähigen System bestehen. Selbstinduktion oder Kapazität eines der beiden Systeme muß variabel sein, damit man die beiden Kreise aufeinander einstimmen kann (L^C^ = 1^2 ^2) (vgl. Artikel 18).

Die Koppelung zwischen den beiden Kreisen ist meistens eine magnetische, bei der man leicht die verschiedensten Koppelungsgrade erzielen kann, indem zwei dem Primär- und dem Sekundärkreis angehörige Induktionsrollen in ver- schiedene Entfernung voneinander gebracht werden.

Zur Beobachtung der Schwingungen dieser gekoppelten Systeme dient ein mit dem Sekundärkreis in extrem loser Koppelung befindlicher Meß- kreis (Af), dessen Frequenz durch einen „Drehkondensator" in weiten Grenzen verändert werden kann. Der „Stromeffekt** in diesem Meßkreis wird durch ein mit einem Galvanometer verbundenes Thermoelement be- obachtet. Bei Variation der Frequenz des Meßkreises beobachtet man ein Maximum des Galvanometerausschlages, wenn der Meßkreis mit der Schwin- gung des Sekundärkreises in Resonanz steht. Treten im Sekundärkreis infolge enger Koppelung mit dem Primärkreis Koppelungsschwingungen mit zwei

39«

19. Max Wien: Schwingungen gekoppelter Systeme

A

r

f

»

■^

^

r

1

1

11

1

J_

1

/

t

r

T~

\'

/

J

f

V

/

v

^

^

/

1

^

»-

»_

-

^tf

«

A^

zs

Fig. 6.

4^

4^

verschiedenen Fre- quenzen auf, so be- obachtet man im .Meß- kreis zwei Maxima (vgl. Fig. 6). Lage und Gestalt dieser „Reso- nanzkurve** gibt Auf- schluß über die Art der gekoppelten Schwin- gungen in den beiden jfT!^ Systemen.

Für derartige La- boratoriumsversuche und vor allem für die Zwecke der drahtlosen Telegraphie ist in kurzer Zeit ein ganzes Arsenal von Apparaten und Instrumenten heraus- gebildet worden, die zur Erzeugung, zur Untersuchung und zum Nachweis elek- trischer Schwingungen dienen. Die alten ungenügenden Leidner Flaschen wur- den abgeändert, neue Arten von Kondensatoren wurden geschaffen, die einmal auf kleinem Räume große Kapazitäten vereinigen, das andere Mal große Spannungen aushalten, die Verluste im Dielektrikum wurden herabgedrückt, damit nicht zwecklos die Dämpfung der Schwingungen vermehrt würde, wieder andere Kondensatoren die Drehkondensatoren erlaubten, in be- quemer Art die Kapazität kontinuierlich zu ändern. Die Induktionsrollen wurden ebenfalls so hergestellt, daß sie möglichst geringen Energieverlust be- saßen, dazu wurden z. T. statt des massiven Drahtes in besonderer Art ver- flochtene Litzen angewandt. E^ wurden Apparate zum Variieren der Selbst- induktion gebaut, ähnliche Anordnungen dienten zum Variieren der Kop- pelung. Zur Erzeugung der Schwingungen wurden neue Formen von In- duktorien, von Wechselstromgeneratoren konstruiert, zur Beobachtung der Schwingungen besondere Wellenmesser, Thermoelemente, Thermodetektoren, Thermogalvanometer, Bolometer, Baretter, Dynamometer usw.; alles in allem betrachtet: eine glänzende Leistung der in engster Beziehung mit den wissenschaftlichen Laboratorien arbeitenden Technik.

Nach den genannten Methoden und mit den geschilderten Hilfsmitteln sind im Laufe der letzten Jahre ungekoppelte und gekoppelte elektrische Sy- steme, geschlossene und offene Schwingungskreise nach den verschiedensten Richtungen hin eingehend durchforscht worden. Ohne auf Einzelheiten ein- zugehen, sei hier nur als 'Resultat bezüglich der gekoppelten Systeme angegeben, daß bis auf eine durch den Funken bewirkte, weiter unten besprochene Abwei- chung die Resultate der Theorie genau durch die Versuche wiedergegeben »JuawTThroria wurden; die Prüfung konnte um so schärfer erfolgen, als hier die gründlegen- undVewach. j^jj Größen: die Kapazität, die Selbstinduktion, die Koppelung sehr viel sicherer gemessen werden können, als die entsprechenden Größen bei den mechanischen und akustischen Systemen; bei zunehmender Koppelung er- hielt man genau der Rechnung entsprechende verschiedene Grade der Rück-

Über-

Gekoppelte Sender ^qq

Wirkung: eine eben merkliche Änderung der Dämpfung, langsame Schwe- bungen und endlich zwei völlig getrennte Schwingungen in beiden gleich- gestimmten Schwingungskreisen.

Unzweifelhaft sind der experimentelle Aufbau und der Verlauf der Schwin- Vorteile gungen in gekoppelten Systemen viel komplizierter als in einfachen Systemen. ^/^^t!iag. Warum werden nun so häufig gekoppelte elektrische Systeme verwandt? Welches sind die Vorzüge der Koppelung?

Der wesentlichste Mangel eines einfachen Oszillators oder Senders liegt auf dem Energiegebiet: die zugeführte Energie ist bei ihm durch seine oft sehr kleine Kapazität begrenzt. Indem man ihn nun mit einem primären Kondensatorkreis koppelt, der bei gleicher Frequenz {Cil^ = C^L^ eine kleine Selbstinduktion I^ und eine große Kapazität C^ besitzt, kann man dem Sekundärsystem sehr viel größere Schwingungsenergie zuführen (vgl. Artikel i8).

Der zweite Vorteil der Koppelung liegt darin, daß durch sie die Funkenstrecke mit ihrem Energieverlust und ihren sonstigen schädlichen Eigenschaften aus dem Oszillator fortgeschafft ist. Dafür tritt sie im Primärkreise natürlich wieder auf und wirkt durch die Koppelung doch auf die Schwingungen des Oszillators ein. Wie auch dies durch die „Stoßerregung** vermieden wird, soll weiter unten besprochen werden.

Ein weiterer Vorteil der Koppelung besteht darin, daß man die Dämpfung der Schwingungen in einem stark gedämpften Oszillator, etwa einer stark strahlenden Antenne, in weiten Grenzen dadurch regeln kann, daß man ihn eng oder lose mit einem Kondensatorkreis koppelt. Bei enger Koppelung wird die große Energie der Primärschwingung plötzlich im Sekundärkreis in Wärme umgesetzt bzw. explosionsartig ausgestrahlt, bei loser Koppelung wird sie ganz langsam dem Oszillator zugeführt, so daß man trotz starker Dämpfung des Sekundärsystems in ihm ganz schwach gedämpfte, sehr resonanzfähige Schwingungen erhält; in der Sprache der Akustik je nach der Koppelung: ein Kanonenschuß, der weithin alles in Erschütterung versetzt, oder ein sanfter, langsam abklingender Stimmgabelton, der, so schwach er ist, eine genau gleich- gestimmte schwere Stimmgabel in merkliche Schwingungen zu bringen vermag, aber wirkungslos vorüberzieht, sowie eine kleine Dissonanz vorhanden ist.

Schließlich befreit man Oszillatoren durch Koppelung mit einem Konden- satorkreis von seinen Oberschwingungen, da der geschlossene Kondensatorkreis nur eine Grundschwingung besitzt und nur diese auf das Sekundärsystem über- trägt. Auf der anderen Seite besteht ein Nachteil der Koppelung darin, daß die besprochenen Komplikationen des Schwingungsverlaufs durch sie hervor- gerufen werden.

Abgesehen von den vielseitigen Anwendungen in der drahtlosen Tele- graphie, bezüglich deren wieder auf den Aufsatz von F. Braun (Artikel i8) hingewiesen sei, werden gekoppelte Systeme auch sonst in der Physik sehr vielfach bei der Erzeugung elektrischer Schwingungen benutzt. So koppelte Tesla einen Kondensatorkreis mit einer Sekundärspule von vielen Windungen

400 i9- Max Wien: Schwingungen gekoppelter Systeme

und erzielte dadurch außerordentlich hohe Spannungen, die prachtvolle Lumi- neszenzerscheinungen an dem Ende der Spule und an mit ihr verbundenen Drähten hervorriefen. Drude zeigte auf Grund der Theorie, wie man durch Aus- nutzung der Resonanz den Teslatransformator noch rationeller konstruieren kann. Seibt rief nicht nur die Grundschwingung auf der Sekundärspule hervor, sondern durch Erhöhung der Frequenz des Primärkreises auch die höheren Oberschwingungen, wobei durch Glimm- und Büschelentladungen die Bäuche der Spannung deutlich hervortraten.

Lecher^*) erzeugte stehende Schwingungen an zwei parallelen Drähten, wobei er große Intensität und Reinheit der Schwingungen durch Koppelung mit einem geschlossenen Kondensatorkreis erzielte (vgl. Artikel 14). Drude^^) hat später die Art der Koppelung noch weiter vervollkommnet und die Methode schließlich zu einem der exaktesten Hilfsmittel zur Untersuchung des Verhaltens flüssiger Dielektrika gegenüber schnellen elektrischen Schwingungen heraus- gestaltet. Eine Anzahl weiterer Beispiele soll weiter unten besprochen werden. Der Funke stBrt Störungen durch den Funken. Bei Untersuchung der elektrischen schX'^^- Schwingungen mit Hilfe der B j erknesschen Methode zeigten sich geringe Ab- ▼eriauf. wcichungen von der Theorie, auf die man anfangs nicht achtete; sie erwiesen sich jedoch als regelmäßig wiederkehrend und waren prinzipieller Natur: die Gestalt der Resonanzkurve eines Schwingungskreises mit Funkenstrecke ent- sprach nicht genau der berechneten Kurve; ferner ergab sich bei gekoppelten Systemen, daß die Dämpfung der beiden Koppelungsschwingungen im Primär- und Sekundärsystem nicht so verteilt war, wie die Theorie es verlangte.

Allmählich erkannte man, daß diese Unregelmäßigkeiten dem Einfluß der Funkenstrecke zuzuschreiben sind, und daß sie völlig verschwinden, wenn man die Funkenstrecke aus dem Primärkreis fortschafft. Der Grund dieses Ein- flusses der Funkenstrecke ist der, daß für den Energieverbrauch im Funken nicht die Beziehungen gelten wie für den Energieverbrauch durch einen 0hm- schen Widerstand, sondern ähnliche wie für den Lichtbogen. Der Abfall der Amplitude erfolgt daher auch nicht, wie in der Theorie vorausgesetzt, nach einer Exponentialkurve, sondern nähert sich, wie J. Zenneck^*) nachgewiesen hat, um so mehr einer Graden, je mehr der Energieverlust im Funken denjenigen durch Joulesche Wärme (vgl. Artikel 20 und 32) überwiegt. Die Dämpfung ist zunächst klein, steigt dann schnell an, bis schließlich überhaupt keine Elektrizität mehr durch die Funkenstrecke geht: sie „erlischt** infolge von „Selbstentionisierung**.

Diese Komplikation, die anfangs bei exakten Versuchen störend empfun- den wurde, führte, wie so häufig in der Geschichte der Physik, schließlich nach näherer Durchforschung zu einem bedeutsamen Fortschritt, nämlich der Stoß- erregung elektrischer Schwingungen durch Löschfunken.

Stoßerregung durch Löschfunken. Die Erzeugung der Eigenschwin- gungen elektrischer Systeme wäre eine ideale, wenn es gelänge, Schwingungen von beliebiger Frequenz, beliebiger Stärke und beliebiger Dämpfung so an- zuregen, daß die Anregung selbst den Verlauf der Schwingungen nicht stört,

Stoßerregung durch Löschfunken 401

sondern die Amplitude entsprechend der einfachen Theorie nach einer Expo- nentialkurve abfällt.

Bei der Anregung mechanischer oder akustischer Systeme, z. B. eines Pen- dels durch einen Stoß, einer Stimmgabel durch einen Schlag ist dies Ideal an- nähernd erreicht. Bei der gewöhnlichen Anregung elektrischer Schwingungen durch eine Funkenstrecke jedoch durchaus nicht. Der Funke verzehrt Energie, und die dadurch bewirkte Dämpfung ist, wie soeben besprochen wurde, un- regelmäßig und entspricht nicht der Theorie. Die Erregung der Schwingungen durch Koppelung in einem zweiten System ohne Funkenstrecke bringt zwar manche Vorteile, wenn man aber in dieser Art ungestörte Schwingungen im System II erregen will, so muß man System I stark dämpfen oder sehr lose koppeln, und dann ist die übertragene Energie sehr gering. Bei enger Koppe- lung erhält man zwar genügende Energie, aber es entstehen die komplizierten Koppelungsschwingungen, die durch den Pendelversuch I illustriert werden, wo- bei die Schwingungsenergie zwischen den beiden Systemen hin und her pendelt.

Sehr viel näher würde man dem Ideal kommen, wenn man das System I Prinzip gerade in dem Moment, wenn es seine Schwingungsenergie zum ersten Male stoBe^egung ganz an das System II abgegeben hat (vgl. Fig. 2 A und 2B, S. 384), fortschaffen könnte, so daß die Schwingungsenergie nicht mehr rückwärts auf das System I zurückgehen kann, sondern von dem Augenblick ab das System II, wie es oben verlangt wurde, für sich allein mit eigener Dämpfung und Frequenz abschwingt.

Wie oben beschrieben (Pendelversuch 3), kann man bei den Pendeln dies ganz einfach dadurch erreichen, daß man das Pendel I, wenn es seine Energie auf Pendel II übertragen hat und in Ruhe ist, festhält.

Bei elektrischen Schwingungen könnte man dasselbe durch rechtzeitiges Öffnen des primären Schwingungskreises erzielen. Nur ist es schwie- rig, den richtigen Augenblick für das öffnen abzupassen bei Vorgängen, deren Dauer nur nach Millionsteln von Sekunden zählt. Trotzdem hat Braun tat- sächlich versucht, wie er in seinem Nobelvortrag erzählt, dieses öffnen des Pri- märkreises durch Durchbrennen einer Sicherung zu erzielen, allerdings ohne Erfolg.

Glücklicherweise geben uns gerade die störenden Eigenschaften des Fun- stoBerregung kens selbst ein Mittel in die Hand, die Aufgabe zu lösen. M. Wien*^) fand 1906 da« Erlöschen bei Untersuchung gekoppelter Systeme mit sehr kurzen Funkenstrecken im ^** ^^J^*"* Primärsystem, daß im Sekundärsystem neben den beiden Koppelungswellen, die der Theorie entsprechen (vgl. Fig. 7 Kurve ft), eine dritte Schwingung auf- tritt, mit der Schwingungszahl und Dämpfung des ungekoppelten Sekundär- systems (Kurve c).

Der Grund der Erscheinung ist die starke Zunahme des Funkenwider- standes während der Entladung, welche bewirkt, daß die Schwingungen im Primärsystem bald ganz verschwinden und dann das jetzt ungekoppelte Sekundärsystem mit eigener Frequenz und Dämpfung abschwingt.

Ein Umstand kommt der ganzen Erscheinung noch sehr zustatten: die Energieentziehung durch das Sekundärsystem beeinflußt rückwärts den Fun-

E. d. G. m. m, Bd, X Physik 26

402

i9- Max Wien: Schwingungen gekoppelter Systeme

ken, so daß die Entionisierung der Funkenstrecke und damit die Zunahme der Dämpfung noch schneller erfolgt. Unter günstigen Umständen „reißt** der Funke in dem Augenblick, wenn alle Energie auf das Sekundärsystem überge- gangen ist, „ab**, so daß gerade im richtigen Moment der jetzt nur noch stö- rende Primärkreis ausgeschaltet wird: die Funkenstrecke tut also automa-

tisch das, was wir beim Pendelver- dels I bewirken. Dann erhalten und Fig. 7 Kurve a). Photographi- rotierenden Spiegel zeigen, daß trischen Schwingungen durchaus Offenbar nähert man sich um regung, je kürzer die Zeit ist, in koppelt schwingen, je kürzer also Schwebungen sind aber Pen- je enger die Koppelung ist. Bei aber auch die Zeit des Minimums Entionisierung der Fun- muß, sehr kurz. Es han- Funkenstrecken mit be- 1er Lösch wir - zufinden, und Seilschaft Tele- eifrigste Labo-

o

Fig. 7.

such 3 durch Festhalten des Pen- wir „reine Stoßerregung'* (Fig.2B sehe Aufnahmen des Funkens im der tatsächliche Verlauf der elek- dieser Theorie entspricht, so mehr dem obigen Ideal der An- der die beiden Systeme noch ge- die Zeit einer Schwebung ist. Die delversuch i um so schneller, den schnellen Schwebungen ist und damit die Zeit, in der die kenstrecke vor sich gehen delte sich also darum, sonders guter und schnel- kung heraus- hier hat die Ge- funken durch ratoriumsar-

beit sehr bald hervorragende Erfolge erzielt, die es ihr ermöglichten, eine neue

Methode der drahtlosen Telegraphie auf die „Stoßerregung durch Löschfunken**

zu begründen. In bezug hierauf verweise ich wieder auf den Aufsatz von

F. Braun (Artikel 18).

Ältere Sichcr ist schon früher, lange ehe die Koppelungsgesetze und die Stoßer-

A^wendOT^n T^g^ng bekannt waren, bei vielen Versuchen Löschwirkung benutzt worden,

der Löschfunken, j^ man kann sie eigentlich gar nicht vermeiden, da ja, wie gesagt, stets eine

Selbstentionisierung und damit schließlich ein Abreißen des Funkens erfolgt. Bei Resonanz der beiden Systeme, fester Koppelung, kurzen Funkenstrecken, ist die Löschwirkung nur besonders groß.

Aus Teslas allerdings nicht ganz durchsichtiger Darstellung scheint her- vorzugehen, daß «r bei einem Teil seiner Versuche ausgesprochene Stoßwirkung gehabt hat. Sicher ist auch, daß bei den zur Erzeugung sehr schneller elektri- scher Schwingungen dienenden gekoppelten Systemen von Lecher, Blond- lot, Drude, Coolidge Stoßerregung mit im Spiele ist. In neuerer Zeit hat Mie zur Erzeugung ganz kurzer, sehr wenig gedämpfter Schwingungen be- wußt Löschwirkung mit bestem Erfolg benutzt. Die zu überwindenden Schwie- rigkeiten sind bei diesen sehr schnellen Schwingungen recht große, aber gerade hier erscheint die Methode der Stoßerregung noch entwicklungsfähig und aus- sichtsvoll.

Die Vorteile der Stoßerregung beruhen auf der Einwelligkeit trotz

Erzwungene elektrische Schwingungen 403

enger Koppelung, auf der dadurch bedingten Möglichkeit, große Energie vorteüe auf das Sekundärsystem zu übertragen, ohne daß dabei komplizierte Koppe- *" der lungsschwingungen entstehn. Diese Schwingungsenergie kann noch dadurch stoßerregung. gesteigert werden, daß man die Zahl der Funken pro Sekunde bis zu 2000 (Telefunken) erhöhen kann, da wegen des schnellen Erlöschens der Funken die Gefahr der Lichtbogenbildung sehr viel geringer ist als bei gewöhn- lichen Funken.

Diesen Vorteilen stehen auch Nachteile gegenüber: Das Abreißen des Frimärfunkens soll nach der ersten halben Schwebung erfolgen, oft tritt je- doch ein Wiederzünden der Funkenstrecke ein, und das definitive Abreißen des Funkens erfolgt erst im zweiten oder dritten Minimum, also nach ly, oder 2Yj Schwebungen (Rau). Diese Labilität der Löschwirkung bewirkt Un- regelmäßigkeiten in der Intensität der Schwingungen. Die Sicherheit des Lö- schens hängt oft von dem richtigen Koppelungsgrad und der Genauigkeit der Einstimmung der beiden Schwingungskreise ab (Riegger). Ferner wer- den gerade bei enger Koppelung und kurzem Stoß nicht nur in dem Sekundär- system Schwingungen erregt, sondern in jedembenachbarten schwingungsfähigen System: Metallstück, Drahtende usw.; dadurch wird Energie verzehrt und es werden vor allem bei exakten Messungen Störungen hervorgerufen (S. Loewe).

Die Methode der Stoßerregung durch Löschfunken ist noch jung, es be- steht daher die Hoffnung, daß es über kurz oder lang gelingen wird, sie von diesen ihr noch anhaftenden Schlacken zu befreien; die Hauptsache ist jeden- falls erreicht, nämlich, daß der Funken mit all seinen störenden Eigenschaften aus den elektrischen Schwingungen eliminiert worden ist.

Erzwungene Schwingungen gekoppelter elektrischer Systeme. Enwungeno Wenn eine periodische elektromotorische Kraft genügend hoher Frequenz, wie ^^p^u«" sie z. B. durch eine Wechselstromsirene oder Hochfrequenzmaschine geliefert «^ii^*^»«^«' wird, auf einen Stromkreis mit Selbstinduktion und Kapazität wirkt, so wird der Strom ein Maximum, wenn die Periode der elektromotorischen Kraft mit der Eigenperiode des Stromkreises übereinstimmt. Koppelt man nun mit die- sem Kreis einen zweiten Schwingungskreis, der ebenfalls auf die gleiche Schwin- gungszahl eingestimmt ist, so kann man dieselben Erscheinungen hervorrufen, wie sie die Theorie (Fig. 4, S. 391) ergibt und wie wir sie schon bei mechanischen und akustischen Systemen kennen gelernt haben. Ist die Dämpfung der Systeme groß und die Koppelung lose, so erreicht der Strom in beiden Systemen ein Maximum, wenn die Periode der elektromotorischen Kraft mit der gemein- samen Eigenperiode übereinstimmt. Bei engerer Koppelung erhält man aber in beiden Systemen zwei Maxima und dazwischen für ihre gemeinsame Eigen- periode ein Minimum, das besonders bei System I sehr tief sein kann, so daß gerade bei völliger Resonanz der Strom verschwindend klein wird.

Da man häufig in der Lage ist » z. B. für Erzeugung möglichst reiner Sinusströme mit dem primären ein wenig gedämpftes Sekundärsystem zu koppeln, so ist für derartige Versuche die Kenntnis und Beachtung der Gesetze der gekoppelten Schwingungen durchaus notwendig.

26*

404 ^9* Max Wien: Schwingungen gekoppelter Systeme

Resonanz- Eine wichtige Anwendung der erzwungenen Schwingungen gekoppelter or. gyg^^jj^g jg^ jgj. Resonanzinduktor oder Resonanztransformator (Seibt, 1904). Ein Wechselstrom von einer Frequenz, die zwischen 50 und 1000 liegen kann, wird durch die primäre Spule eines Transformators gesandt (Fig. 8) ; die sekundäre Spule ist mit einem Kondensator verbunden, so daß sie ein schwingungsfähiges System bildet. Die Selbstinduktion der Sekundärspule und die Kapazität des Kondensators werden so gewählt, daß das Sekundärsystem mit der Periode des Wechselstromes in Resonanz steht, und infolge der Resonanz Strom und Spannung im Sekundärkreis sehr hohe Werte erreichen. Schaltet man nun zu dem Kondensator eine Funkenstrecke parallel, so erhält man entweder

viele kurze Funken, oder wenn man die Fun- kenstrecke vergrößert, wenige starke, in- dem nach einem Funkenübergang die Span- nung sich allmählich erst wieder „herauf- schaukeln'' muß, bis das Funkenpotential * erreicht ist (Fig. 9). Der Nutzeffekt der- artiger mit Wechselstrom betriebenen Resonanzinduktoren ist sehr viel besser wie der der gewöhnlichen mit unterbrochenem Gleichstrom arbeitenden Induktorien. Lichtbogen- Eine besondere Art der Erzeugung schneller ungedämpfter Schwingungen

Schwingungen. jg^ die uach der Llchtbogcnmethode, wie sie von Duddell erfunden und von Poulsen für Hochfrequenz ausgearbeitet wurde. Eigentlich liegen hier keine richtigen erzwungenen Schwingungen vor, sondern es wird ähnlich wie bei der angeblasenen Pfeife oder der gestrichenen Saite eine ursprüng- lich konstante Spannung durch die Schwingungen des Systems unter Mitwir- kung des Lichtbogens in eine periodische verwandelt (Blondel, Simon, Barkhausen). Der Schwingungskreis, in welchem durch den Lichtbogen die schnellen Wechselströme entstehen, wird zwar häufig mit einem zweiten Schwingungssystem, z. B. einer Antenne gekoppelt, aber die Koppelung ist nicht das eigentlich Charakteristische der Methode wie etwa bei dem Braun- schen Sender oder bei der Stoßerregung. Es soll daher nicht näher darauf ein- gegangen werden; nur so viel sei erwähnt, daß hier gerade bei engerer Koppelung mit einem zweiten gleichgestimmten System recht komplizierte labile Ver- hältnisse vorliegen, die noch nicht genügend geklärt sind; vor allem fehlen ge- nauere Untersuchungen über den Einfluß der Koppelung auf die Frequenz; die Angaben aus der Praxis der drahtlosen Telegraphie lauten ebenfalls recht unsicher. Zenneck schreibt darüber in seinem Lehrbuch: ,,Die Koppelung zwischen Primärkreis und Antenne war in der Poulsenstation Knockroe in- duktiv und lose. Gelegentlich wurde aber auch mit sehr fester Koppelung ge- arbeitet. Eine mittlere Koppelung soll ungünstig sein, weil dann leicht die Frequenz der Schwingungen zwischen zwei Werten hin- und her- springt. Eis wird meist angegeben, daß „von den beiden Koppelungswellen bald die eine, bald die andere auftrete*'. Perioden- Schließlich sei noch auf die ganz eigentümliche Art erzwungener Schwin-

verdoppeinng. g^jg^j^ gekoppelter Systeme hingewiesen, welchebeider Perioden»Verdoppe-

Technische Anwendungen

405

lung oder -Verdreifachung entsteht, wie sie in neuester Zeit durch Gold- schmidt, Graf Arco, Zenneck in Angriff genommen ist. So verschieden die einzelnen Methoden sind, sie haben das Gemeinsame, daß in einem ge- koppelten Kondensatorkreis Schwingungen von der zweifachen, dreifachen, mehrfachen Frequenz des ursprünghchen Wechselstromes erzeugt werden. Das ebenso schwierige wie interessante Koppelungsproblem besteht nun darin, die Rückwirkung dieser starken Schwingungen ganz anderer Periode auf den Pri- märkreis und auf die Energiequelle zu studieren.

Anwendun- gen auf die

Lichtschwin- gungen. Außer den elektrischen

Schwingungen, die wir selbst ex- perimentell erzeu- gen, deren Fre- quenz, Dämpfung und Koppelung wir in der Hand

haben, gibt es noch elektrische Schwingungen, auf die wir nur aus ihren Fern- wirkungen schließen, und die wir nur sehr wenig beeinflussen können: die Schwingungen des Lichtes. Sie gehen aus von schwingenden Elektronen, die winzige in das Molekül eingebaute Oszillatoren bilden ; ihre Eigenfrequenzeo j, treten zutage, wenn die strahlenden Körper gasförmig sind und werden als ' Spektrallinien beobachtet. Bei gleichartigen Molekülen sind stets die Frequenzen der Schwingungen einander genau gleich, so genau, daD man vorgeschlagen hat, unsere Längeneinheit auf die Wellenlänge von Spektrallinien zu basieren, als der sichersten in der Natur vorkommenden, immer wieder reproduzierbaren Länge. Von den elektrischen Oszillatoren unserer physikalischen Laboratorien unterscheiden sie sich, abgesehen von der Höhe ihrer Schwingungszahl darin, daß ihre Dimensionen sehr klein sind gegen die von ihnen ausgesandten Wellen- längen; damit im Zusammenhange steht ihre ganz außerordentlich geringe Dämpfung, auf die man auch aus den Interferenzen bei großem Gangunter- schiede schließen kann.

Die sehr genaue Übereinstimmung der Schwingungszahlen, die sehr geringe Dämpfung prädestinieren diese Oszillatoren zu Koppelungsschwingungen, auch wenn die Koppelung zwischen ihnen eine sehr lose ist. Für gewöhnlich ist allerdings in einem Gase der Abstand der Moleküle allzu groß, so daß über- haupt keine merkliche gegenseitige Einwirkung zwischen ihnen vorbanden sein kann. Nach der kinetischen Gastheorie sind die Moleküle jedoch in schnel- ler Bewegung und stoßen aufeinander. Daher muß nach der Wahrscheinlich-

^.o6 19* Max Wien: Schwingungen gekoppelter Systeme

keit ein Teil der Moleküle dabei stets einander so nahe sein, daß eine Wirkung der Koppelung merklich ist. Dann entstehen statt einer Frequenz zwei be- nachbarte Frequenzen in zwei einander nahen Oszillatoren, deren Differenz von der Koppelung, d. h. von der Entfernung abhängt, in der sich die Mole- küle gerade befinden. Fürst Galitzin gab von diesem Standpunkt aus eine Theorie der Verbreiterung der Spektrallinien und der Zunahme der Verbreiterung mit der Dichte des Gases. V. W. Ekman hat dann diese Theorie noch weiter ausgearbeitet und vertieft. Er stellt sogar quanti- tative Berechnungen der Verbreiterung an und kommt dabei zu dem Schluß, daß bei Benutzung solcher Werte der Dämpfung der Lichtoszillatoren, wie sie mit den Beobachtungsergebnissen über hohe Interferenzen vereinbar sind, die tatsächlich beobachteten Linienbreiten erklärt werden können; ferner, daß wahrscheinlich auch die „Selbstumkehr'' der Spektrallinien als eine Wirkung der intramolekularen Resonanz aufgefaßt werden muß.

Die große Anzahl' der Spektrallinien die Zahl erreicht bei manchen Elementen viele Tausende allein im sichtbaren Spektrum beweist, daß jedes Molekül nicht nur ein schwingungsfähiges Elektron hat, sondern viele. Auf dem engen Raum eines Moleküls sind daher viele Oszillatoren eingebaut, die not- wendigerweise Koppelungserscheinungen zeigen müssen. Einen Einblick in diese Schwingungen und ihre Verkoppelung können wir nur dann gewinnen, wenn es gelingt, durch einen experimentellen Eingriff in gesetzmäßiger Weise diese Schwingungen zu beeinflussen. Diese Möglichkeit wurde gegeben durch die Entdeckung der Wirkung eines Magnetfeldes auf die Frequenz der Licht- schwingungen durch Zeeman (1896).

Die einfachste Form des Phänomens, die Zwei- bzw. Dreiteilung der Spek- trallinie, erklärte Lorentz sogleich nach der Entdeckung in glücklichster Weise durch die Annahme, daß schwingende Elektronen die Quellen des Lichtes seien Theorie des Und schuf damit eine der Hauptstützen der Elektronentheorie. Das Zeeman- ^c"^ffekte. Phänomen tritt jedoch nur sehr selten in dieser einfachsten Form auf, die Auf- teilung der Linien ist in den allermeisten Fällen eine viel mannigfaltigere. Auch hierfür fand Lorentz eine theoretische Erklärung, indem er die soeben be- sprochene Koppelung zwischen den verschiedenen, einem Molekül angehörigen Oszillatoren in die Gleichungen einführte, eine Theorie, die von Voigt dann weiter ausgebaut und besonders auf die Absorptionsspektren ausgedehnt wurde. Bezüglich alles Näheren über den Zeemaneffekt, der durch die gegenseitige Befruchtung und das glückliche Zusammenarbeiten von Theorie und Experi- ment eine der schönsten Errungenschaften der modernen Physik bildet, ver- weise ich auf den von Zeeman selbst herrührenden Artikel 30 über Magnetoptik in der Kultur der Gegenwart.

Diese als letzte besprochene Anwendung der Theorie der gekoppelten Schwingungen ist zugleich ihre vornehmste und aussichtsreichste. Vorläufig gibt sie uns ja nur einige mathematische Beziehungen über die Art der Kop- pelung zwischen den einzelnen Oszillatoren im Molekül, deren physikalische Deutung noch nicht möglich ist. Aber immerhin liefert sie ein neues Mittel zur

Gekoppelte Schwingungen in der Optik ^.07

Erforschung der inneren Struktur der Moleküle und bestärkt dadurch unsere Hoffnung, daß es dereinst gelingen wird, dieses größte Rätsel der exakten Naturwissenschaften zu lösen.

Literatur.

Zusammenfassende Werke:

Lord Rayleigh: „Theory of sound" (deutsch von Neesen, Braunschweig 1880) enthält die Grundlagen der Theorie.

A. Kalähne : ,,Grundzüge der mathematisch-physikalischen Akustik " (Leipzig-Berlin 1 9 1 o) enthält eine ausführliche Darstellung der Theorie.

J.Zennbck : „Lehrbuch der drahtlosen Tel^^aphie'* (Stuttgart 19 13) enthält eine eingehende Darstellung der gekoppelten Schwingungen elektrischer Systeme.

Wichtigere Einzelveröfientlichungen :

1. A. Oberbeck, 1888: „Versuche über das Mitschwingen zweier Pendel '^ Wied. Ann. 34. S. 104 1.

2. £. Warburg, 1869: „Ober tönende Systeme". Pagg. Ann. 1 36. 8.89.

3. M.Wien, 1897 : „Über die Rückwirkung eines resonierenden Systems". Wied. Ann. 61. S. 151.

4. R. König, 1880: Wied. Ann. 9. S. 404.

5. M. Wien, 1891: Wied Ann. 44. S. 681,

6. V. Bjerknes, 1885: „Über elektrische Resonanz". Wied. Ann. 55. S. 128.

7. J. V. Geitler: „Schwingungsvorgang in komplizierten Err^em Hertzscher Wellen'\ Wied. Ann. 55, S. 120. 1895. Fürst Galitzin: Wied. Ann. 56. S. 78. 1895. Domaup und KoLACEK: Wied. Ann. 57: S.731. 1896. A. Oberbeck: Wied. Ann. 55. S. 623. 1895.

8. M. Wien, 1902: „Über die Verwendung der Resonanz in der drahtlosen Telegraphie" Ann. d. Ph. 8. S. 686.

9. P.Drude, 1904: Ann. d. Ph. 13. S. 512. IG. £. Lecher, 1890: Wied. Ann. 41. S. 850.

11. P.Drude: Wied. Ann. 61. S. 466. 1897; Ann. d. Ph. 8. S. 336. 1902.

12. J.Zenneck, 1904: Ann. d. Ph. 13. S. 832.

13. M.WIEN, 1906: Phys Ztsch. S.872.

20.

DAS ELEKTRISCHE LEITUNGSVERMÖGEN.

Von

H. Starke.

Binieitang. !• Allgemeines. Im Gegensatz zum magnetischen Feld zeigt das elek- trische Feld in der Materie im allgemeinen die Eigentümlichkeit, mehr oder weniger rasch zu zerfallen, wenn es nicht durch äußere Energiequellen aufrecht- erhalten wird.. Der Feldzerfall ist dem Vorhandensein einer Leitungsfähigkeit der Materie für Elektrizität zuzuschreiben. Ähnlich wie in einer Flüssigkeit Druckdifferenzen durch eine Strömung sich ausgleichen, so verschwinden in der leitenden Materie die Spannungen des elektrischen Feldes infolge einer ein- tretenden elektrischen Strömung. Je nach dem Grade des Leitungsvermögens einer Substanz ist diese Strömung von verschiedener Stärke und infolgedessen der Feldzerfall ein schnellerer oder langsamerer. Es kommen in der Natur fast alle Abstufungen des Leitvermögens vor, vom Isolator und der fast iso- lierenden Materie ohne bemerkbare Leitfähigkeit, in der ein elektrisches Feld sich fast dauernd im Gleichgewicht halten kann, oder, wie man wohl sagt, die Relaxationszeit des Feldes außerordentlich, im Grenzfall unendlich groß ist, durch den Halbleiter hindurch bis zum guten und zum fast vollkommenen Lei- ter, in welch letzterem das elektrische Feld fast momentan verschwindet, und die Relaxationszeit unmeßbar klein wird. In allen drei Aggregatzuständen kann die Materie Leitfähigkeit zeigen. Während aber feste und flüssige Stoffe ein zwar von äußeren Bedingungen wie z. B. Temperatur, Druck, Struktur u. a. abhängiges, aber unter gegebenen Umständen ein für die Substanz charakte- ristisches Leitvermögen aufweisen, sind Gase und Dämpfe im gewöhnlichen Zustande gute Isolatoren und erhalten erst durch äußere energetische Einwir- kungen wie Temperaturerhöhung, Bestrahlung oder Einfluß stärkerer elektri- scher Felder die Eigenschaft, Elektrizität zu leiten. Gase zeigen darum ein auch bezüglich der allgemeinsten Gesetze sehr abweichendes Verhalten der Leit- fähigkeit, die bei festen und flüssigen Leitern die Grundgesetze des Galvanis- mus stets (bis auf einige besondere Fälle bei sehr schlecht leitenden Körpern) erfüllt, obgleich der Mechanismus der Leitung auch bei diesen ein sehr ver- schiedenartiger sein kann. Metallische nnd Die Elcktrizitätsleitung geht, wie eben bemerkt, nicht in jeder Art von **i^i^2*''^* fester und flüssiger Materie gleichartig vor sich, man unterscheidet vielmehr zwei große Gruppen von Substanzen, die sog. Leiter erster und zweiter Art. Die Leiter der ersten Gruppe, deren Hauptrepräsentanten die Metalle sind, vermitteln den elektrischen Strom, ohne daß an ihnen irgendwelche stoffliche

Arten der Elektrizitatsleitung ^09

Veränderungen wahrzunehmen wären. Dies ist insbesondere durch E. Riecke (1901), sowie durch Robert s Aus ten (1900) festgestellt worden, von denen der erstere im Laufe eines Jahres die Elektrizitätsmenge von 958 Ampere- Stunden durch eine Grenzschicht von Kupfer und Aluminium passieren ließ, und der letztere starke Ströme durch eine geschmolzene Goldbleilegierung sandte. Beides geschah, ohne daß eine Spur einer materiellen Veränderung hätte bemerkt werden können. Außer den Metallen und deren Legierungen gehören in diese Gruppe auch manche Metalloxyde und-sulfide. Die zweite Gruppe wird gebildet durch die sog. Elektrolyte, in welchen die Elektrizitätsleitung mit einem chemisch oder durch Wägung leicht nachweisbaren Massentransport verbunden ist. Elektrolyte sind alle Salze, Säuren und Basen im gelösten und geschmolzenen, zum Teil auch im festen Zustand. Der Aggregatzustand spielt für diese Klassifikation keine Rolle, indem es sowohl feste als flüssige Leiter erster wie auch zweiter Art gibt. Ein weiterer Unterschied zwischen den Leitern der beiden Arten besteht noch inso- fern, als die metallischen Leiter das Voltasche Gesetz der Spannungsreihe be- folgen, während die elektrolytischen Leiter sich nicht in die Reihe einordnen. Die Leitung durch Gase kann man im allgemeinen weder eine metallische noch eine elektrolytische nennen.

Die Unterscheidung der metallischen von der elektrolytischen Leitung durch das Vorhandensein oder Nichtvorhandensein eines Massentransports läßt sich nach den neuen Anschauungen nicht aufrechterhalten, und die metallische Leitung wurde darum als eine solche definiert, bei welcher stoff- liche Veränderungen nicht wahrnehmbar sind. Auch die metallische Leitung wird nach unseren jetzigen Kenntnissen durch die Bewegung von materiellen Teilchen vermittelt, die, von kleinerer Größenordnung noch als die chemischen Atome, als deren Bausteine aufzufassen sind, und denen man nach dem Vor- gange von Johnstone Stoney den Namen Elektronen gegeben hat.

Das Grundgesetz für die Lehre vom elektrischen Strom hat 1826 G. S. Du ohmtche

Gesetz.

Ohm aus Experimenten abgeleitet. Er zeigte, daß die Intensität / eines elek- trischen Stromes und die ihn erzeugende Spannung V in einem gegebenen Lei- terstück einander proportional sind. Die Proportionalitätskonstante R in der Gleichung des Ohm sehen Gesetzes

V= IR ist die elektrische Spannung zwischen den Enden des Leiterstücks, wenn in diesem die Stromstärke Eins fließt; sie ist also eine für das Leiterstück charak- teristische Konstante, deren Größe von der Wahl der Maßeinheiten für Strom- stärke und Spannung abhängt. Sie ist bei gegebenem Maßsystem um so größer, je kleiner / für ein bestimmtes V ist, bildet also ein Maß für die stromhindernde Wirkung des Leiterstücks. Man nennt R darum den Widerstand des Leiter- stücks. Mißt man V in Volt, / in Ampere, so erhält man den Widerstand als den Quotienten aus den beiden Größen in der jetzt allgemein gebräuchlichen Einheit des Ohm, welch letztere ein Leiter demnach dann besitzt, wenn ein Volt Spannung zwischen seinen Enden den Strom ein Ampere in ihm hervorruft. Wie ein Wasserstrom, anstatt durch Verbindung zweier Reservoire verschie-

Alo 20. H. Starke: Das elektrische Leitungsvermögen

denen Niveaus mit einem Leitungsrohr, auch in einem in sich geschlossenen Rohre erzeugt werden kann, indem man in die geschlossene Leitung ein trei- bendes Pumpwerk einschaltet, so kann man auch in einem geschlossenen Draht durch eingeprägte treibende, sog. elektromotorische Kräfte (Elemente, Induk- tion) dauernde elektrische Ströme erhalten. Diese treibenden elektrischen Pumpwerke sind, wie das hydraulische, Apparate, die auf Kosten von Arbeit anderer je nach ihrer Art verschiedener Energiequellen elektrische Stromarbeit liefern. In den galvanischen Elementen ist es chemische, in den Thermoelemen- ten Wärmeenergie, bei den Induktionsvorgängen elektromagnetische und me- chanische Energie, welche in Stromarbeit verwandelt werden. Wie sich bei dem Pumpwerk, wenn der Wasserstrom, etwa durch Schließen eines Hahnes, unter- brochen wird, zwischen beiden Seiten des Hahnes eine Druckdifferenz ausbil- det, die der inneren Druckkraft der Pumpe gleich ist, so stellt sich zwischen den Polen eines offenen Elements oder zwischen den Enden einer induzierten an einer Stelle unterbrochenen Drahtschleife sogleich eine elektrische Spannung her, die der inneren elektromotorischen Kraft gleich ist. Durch diese Spannung V kann man also die innere elektromotorische Kraft E messen.

Das Ohmsche Gesetz wurde von G. Kirchhoff 1845— 1848 auf einen aus mehrfachen Zweigen zusammengesetzten geschlossenen und solche strom- liefernde Quellen enthaltenden Stromkreis erweitert. Eslautet in dieser Form: ,, Bildet man für jeden einzelnen Teil eines geschlossenen Leiterkreises das Pro- dukt aus Stromstärke und Widerstand, so ist die Summe aller dieser einzelnen Produkte für den geschlossenen Kreis gleich der Summe aller in ihm enthal- tenen elektromotorischen Kräfte. Es ist:

Dieses Gesetz, das zunächst nur für zeitlich unveränderliche (stationäre) oder wenigstens nur für solche Ströme gilt, welche in der zur Fortpflanzung des Stro- mes durch das stromführende System benötigten Zeit sich nur unmerklich wenig ändern (quasistationäre Ströme), hat auch allgemeinere Gültigkeit, wenn in den Wert von E die Spannungen einbezogen werden, die in der In- duktion und in örtlich veränderlichen Ladungen des Leiters ihre Entstehungs- ursache haben.

Der Widerstand eines Leiterstücks ist in seiner Abhängigkeit von den Dimensionen und vom Stoffe der Leiter bereits vor Aufstellung des Ohmschen Gesetzes durch H. Davy (1821) bestimmt worden. Seine Resultate sind so- dann einige Jahre darauf von A. C. Becquerel (1828) und von G. S. Ohm (1826) bestätigt worden. Der Widerstand eines Drahtes ergab sich für statio- nären Strom als proportional der Länge, umgekehrt proportional dem Quer- schnitt des Drahtes. Er blieb derselbe, wenn ein runder Draht bei konstanter Länge flach gewalzt und gebogen wurde, was Unabhängigkeit des Widerstan- des von Form des Querschnitts und Gestalt des Drahtes beweist. Bedeuten / die Länge, q den Querschnitt des Drahtes, so ist der Widerstand

Q

Ohmsches Gesetz

411

Die für jede Substanz verschiedene, ihr charakteristische Proportionalitäts- konstante ö dieser Formel ist der Widerstand eines Leiters mit der Einheit von Länge und Querschnitt. Man nennt 6 unter Zugrundelegung des Zentimeters als Längen- und des Ohm als Widerstandseinheit den spezifischen Wider- stand des Materials, den reziproken Wert desselben

I

K =

6

die spezifische Leitfähigkeit desselben. Ea ist also ö der Widerstand eines Würfels von i cm Seitenlänge zwischen zwei g^enüberli^enden Flächen, gemessen in Ohm. Durch Multiplikation mit lOCXX) erhält man den Wider- stand einer Säule von i m Länge und l qmm Querschnitt. Für Quecksilber von C ist dieser letztere beispielsweise 0,9407 Ohm.

Eine veraltete Einheit des Widerstandes, die Siemens- Einheit, war als der Widerstand dieser eben genannten Quecksilbersäule gewählt worden, es ist also:

I S.E. = 0,9407 Ohm; i Ohm = 1,063 S. E.

Das Gesetz der Proportionalität von Strom und Spannung, d. h. der Kon- stanz des Widerstandes, besteht naturgemäß nur so lange, als der physikalische Zustand des Leiters unverändert bleibt. Da Druck, Temperatur usw. auf den Widerstand im allgemeinen verändernd einwirken, so ist natürlich Erwärmung oder anderweitige Veränderung des Leiters durch den Strom experimentell auszuschließen. Das Ohmsche Gesetz und die aus ihm folgende Spannungs- verteilung in stromdurchflossenen Leitern sind von einer großen Reihe von Forschern genauen experimentellen Prüfungen unterworfen worden. Unter vielen anderen sind neben den Ohmschen selbst insbesondere die Arbeiten von G. Th. Fechner (1831), R. Kohlrausch (1848), A. Gaugain (1860), F. Kohlrausch (1869), L. Clark (1872) zu nennen. Wegen der großen Wichtig- keit des Gesetzes ist dasselbe im Auftrage der British Association von einer aus J. Cl. Maxwell, D. Everett, A. Schuster bestehenden Kommission und speziell von G. Chrystal (1876) nach von Maxwell vorgeschlagenen Methoden geprüft worden. Es hat durch alle Untersuchungen in Metallen und Elektrolyten Gültigkeit des Gesetzes bis zu den höchst erreichbaren Spannungen sich ergeben. Ein Versagen des Ohmschen Gesetzes, wie es beispielsweise F. Braun 1874 an Metallsulfiden gefunden hat, ist vermutlich auf Inhomogenitäten des Materials zurückzuführen, welche vielleicht thermoelektrische Erscheinungen ins Spiel treten lassen.

Fließt in einem Leiter vom Widerstand R Ohm unter der treibenden Span- Gesetz nung V Volt ein Strom / Ampere, so wird dauernd elektrische Arbeit im Se- ^°" '^°^*

kundenbetrage jy ^ PR Volt-Ampere oder Watt

geleistet. Diese Arbeit geht nicht verloren, sondern tritt als Wärme im Leiter auf, die den Sekundenbetrag

ß = 0,239. /*Äg- Kai.

hat. Die Größe 0.239 g-Kal. ist die der elektrischen Sekundenarbeit i Volt- Am- pere oder dem mechanischen Effekt i Watt äquivalente Wärmemenge. Das

^12 20. H. Starke: Das elektrische Leitungsvermögen

Gesetz für die Stromwärme in einem Leiter ist 1841 von J. P, Joule gefunden . und genaue Bestimmungen des Wärmeäquivalents sind außer von ihm noch von E.Lenz (1841), Qu. Icilius (1857), H. F.Weber (1878), C. Dieterici (1888) ausgeführt worden. (Für die theoretische Begründung des Gesetzes vgl. Ar- tikel 32.) Charakteristik Infolge von Veränderungen im physikalischen Zustand des Leiters, die der

eine« Loiters. Durchgang jgg Stromcs selbst veranlaßt, kann, wie bereits erwähnt, der Fall ein- treten, daß, obwohl der Leiter an und für sich das Ohmsche Gesetz befolgt, doch Stromstärke und Spannung nicht proportional sind. "Es heißt dies, daß der Widerstand des Leiters sich mit dem Stromdurchgang verändert. In erster Linie sind es Temperaturänderungen, welche dies veranlassen, aber auch andere Vor- gänge, wie beispielsweise in Elektrolyten die Entstehung elektromotorischer Gegenkräfte durch Polarisation der Elektroden oder Konzentrationsänderungen können die Ursache sein. In solchen Fällen kann man entweder den Widerstand, d. h. den Quotienten aus Spannung und Stromstärke als Funktion der letzteren bestimmen, oder direkt die Spannung selbst in ihrer Abhängigkeit vom Strom durch eine Kurve darstellen. Eine solche Kurve nennt man die Charakteristik des Leiters. Dieselbe ist für eine Metallfaden- Glühlampe wegen der starken Zunahme des Widerstandes mit der Temperatur eine steile Kurve, während sie für eine Kohlenfadenlampe flach verläuft, nämlich wegen der Abnahme des Widerstandes mit steigendem Strom und wachsender Temperatur unterhalb der dem Ohmschen Gesetz entsprechenden geraden Linie bleibt, die Spannung und Stromstärke bei konstant erhaltener niedriger Temperatur darstellen würde. Bei einer Nernstlampe kann wegen der rapiden Widerstandsabnahme die Charakteri- stik sogar fallen, d. h. eine Spannungsabnahme für steigenden Strom anzeigen. Die Darstellung des Verhaltens eines Leiters durch die Charakteristik spielt eine große Rolle bei der Leitung durch Gase, die im allgemeinen das Ohmsche Gesetz gar nicht befolgt. Allgemeine IL Metallischc Elektrizi tätslcitung. Die rein phänomenologische

Geschidttu'cher'I*^®^^^^ der Elektrizitätslcitung, dazu bestimmt, das rein äußere gesetzmäßige überbuck. Verhalten des elektrischen Stromes in Leitern zu erklären, baut sich auf den bisher besprochenen Grundgesetzen auf. Sie dient dazu, die Stromverteilung in verschiedenartigen Leitergebilden rechnerisch zu verfolgen. Aufschlüsse über die Natur des Leitungsvorganges konnte erst eine von bestimmten Hypo- thesen ausgehende Theorie liefern. Nur ein unvollkommenes, mehr zur Unter- stützung der Anschauung dienendes als Fortschritte verheißendes Bild gaben die alten Vorstellungen von einem fließenden, kontinuierlichen elektrischen Fluidum, die Franklinsche (1747) Einfluidum- und die Symmersche (1759) Zweifluida-Theorie. W. Weber hat als erster 1862 die Ansicht ausgesprochen, daß diskrete positiv geladene kleinste Teile, von Molekül zu Molekül fliegend, in Metallen die Elektrizitätsleitung vermitteln. W. Giese übertrug (1882 und 1889) di^ ionentheoretischen Anschauungen, die für die elektrolytische Leitung theoretisch und experimentell damals bereits fest fundiert waren, erst auf die Leitung durch Gase, dann auch auf diejenige in Metallen. In ihrer heutigen

Elektronentheorie 413

Form hat diese Theorie, die Elektronentheorie, die Anschauung zur Grund- lage, daß es in allen Metallen die gleichen negativ geladenen Partikel sind, die die Elektrizitätsleitung übernehmen, nämlich die die universellen Bausteine jeglicher Materie bildenden Elektronen (vgl. Artikel 15). Während die Atome im festen Metall an feste mittlere Lagen gebunden sind, um welche sie eine schwingende Wärmebewegung ausführen, werden die Elektronen wie Gasmoleküle als frei beweglich angenommen. Sie beteiligen sich an dem Wärmegehalt des Körpers dadurch, daß sie eine für die Temperatur charakteristische, dieser propor- tionale mittlere Energie fortschifeitender Bewegung besitzen und wie die Gas- moleküle einen gewissen Druck im Innern des Metalls ausüben. Ihre gerichtete Bewegung im elektrischen Felde verursacht den elektrischen Strom. Die Elektronentheorie der Metalleitung entwickelte sich folgerichtig aus der lonen- theorie der elektrolytischen Vorgänge, nachdem diese durch Sv. Arrhenius (1884 und 1887) und im Anschluß an die fast gleichzeitig (1886) von J. H. van t'Hoff ausgearbeitete Theorie des osmotischen Druckes durch W. Kernst (1889) ihre vollendete Gestaltung erhalten hatte, und als durch die Annahme der Korpuskulartheorie der Kathodenstrahlen und die immer weiter um sich greifende Erkenntnis der universellen Natur der Elektronen insbesondere nach der Zee manschen Entdeckung (1896) eine begründete Basis für eine atomistische Auffassung der Elektrizität gegeben war. Die Theorie ist zu- erst von E. Riecke (1898), dann unter etwas veränderten Annahmen von P. Drude (1900) konsequent ausgeführt worden, beide Theorien noch unter Vor- aussetzung verschiedener Gattungen von bewegten geladenen Teilchen. Hen- drik Antoon Lorentz (1905) gab eine sehr strenge Durchführung der kineti- schen Theorie unter alleiniger Annahme des freien, negativ geladenen Elektrons als Träger der Leitung und erweiterte die Elektronentheorie der Metalle auf die Theorie der langwelligen Wärmestrahlung.

Die Grundlagen der heutigen Elektronentheorie der Elektrizitätsleitung sind also: Annahme der Existenz freier Elektronen d. h. frei beweglicher Ele- mentarquanten negativer Elektrizität in den metallischen Leitern und Anwen- dung der Sätze und Prinzipien der kinetischen Gastheorie auf dieselben.

Die kinetische Gastheorie, von Krönig und R. Clausius begründet, von J. Cl. Maxwell, L. Boltzmann, W. Gibbs in strengstes mathematisches Gewand gekleidet, bildete die Triebfeder für eine mechanistische Auffassung aller in der Natur sich abspielenden Ereignisse. Von energetischer Seite her, aus der reinen Thermodynamik, welche eine große Zahl besonders physikalisch chemischer Fragen ohne Zuhilfenahme von Hypothesen elegant und vollständig löste, drohte eine Zeitlang dieser atomistischen Theorie die Gefahr des Erdrückt- werdens. Die hervorragenden Erfolge dieser Theorie auf dem Gebiete der elektrischen und optischen Erscheinungen, nicht zum wenigsten auf dem der Elektrizitätsleitung, sind es jedoch gewesen, die die Boltzmannsche Befürch- tung, siekäme aus derMode, wenige Jahre nach deren Ausspruch völlig beseitigten.

Moleküle und Elektronen sind im metallischen Leiter als die Träger des wärmeverteUttag Wärmegehalts anzusehen, Wärmezufuhr erhöht die Energie der Schwingungs- *" Teiter'.*^ ^^

414 ^o* H. Starke: Das elektrische Leitungsvennögen

bewegung der um feste Gleichgewichtslagen oszillierenden Moleküle und Atome sowie die Intensität der fortschreitenden Bewegung der Elektronen, welche wie die Teilchen eines die molekularen Zwischenräume frei durchdringenden Gases sich verhalten. Boltzmann und Gibbs haben auf Grund der allgemeinen Hamiltonschen Bewegungsgleichungen der Mechanik und mit Hilfe von Wahrscheinlichkeitsbetrachtungen den für die kinetische Theorie der Materie fundamentalen Satz von der gleichmäßigen Energieverteilung her- geleitet. Derselbe sagt aus, daß im Temperaturgleichgewicht jeder in einem System vorhandene Freiheitsgrad denselben Betrag mittlerer Bewegungsenergie haben muß, den man als ein Maß für die Temperatur des Systems anzusehen hat. Die Wurzel dieses Energieverteilungsgesetzes ist ein bereits 1860 von Max- well abgeleitetes Gesetz über die Geschwindigkeitsverteilung in einem Gase. Im Metall hat man jedes Elektron gemäß seiner freien Bewegung nach den drei Koordinatenachsen als Sitz dreier Freiheitsgrade anzusehen, während man jedem festen Molekül gemäß seines hinzukommenden Gehalts an potentieller Energie, der durch drei jeweilige Abstandsgrößen in Koordinatenrichtungen de- finiert ist, deren sechs zuzuschreiben hat. Die bekannten Gesetze der spezifischen Wärmen der ein- und zweiatomigen Gase schienen eine ebenso glänzende Bestäti- gung dieses wichtigen Satzes zu bilden wie das ebenso direkt aus diesem sich er- gebende Du long- Fe titsche Fundamentalgesetz von der Konstanz der Atom- wärmen der festen Elemente (vgl. Artikel 6). Und doch lagerten, wie Lord Kel- vin sagte, Wolken auf dem Glänze dieses Gesetzes (vgl. A. Sommerfeld, Das Plancksche Wirkungsquantum. Physikal. Zeitschr. 12, 1057, 191 1). Nachdem mancherlei Umstände, wie z. B. das Vorhandensein der Linienspektra, bereits ver- muten ließen, daß die angewendete Zählung der Freiheitsgrade nicht die richtige sein, sondern Wesen tUch komplizierter sich gestalten dürfte, kam es zum offenen Konflikt mit dem Gesetz, als es Lord Rayleigh und nach ihm anderen Theo- retikern, wie J.H.Jeans, H.A.Lorentz, A. Einstein gelang, als notwendige Folge aus ihm ein Gesetz für die Strahlung abzuleiten, und es sich zeigte, daß dieses Gesetz ein unmögliches sei. Versuche von Boltzmann und von Jeans, das Maxwell- Boltzmann-Gibbsche Gesetz der Gleich Verteilung dennoch hiermit in Einklang zu bringen, sind als unhaltbar zu betrachten. Eine zweite Klippe, an welcher das Gesetz scheitern mußte, hat in neuester Zeit die experi- mentelle Erforschung des Verhaltens der spezifischen Wärmen fester Körper bei tiefsten Temperaturen durch N ernst und seine Schüler geoffenbart. Den wohl einzig möglichen Weg aus diesen Schwierigkeiten hat M. Planck in seiner Strahlungstheorie gewiesen, den gleichen Weg benutzte Einstein bald darauf als Pfadfinder in der Theorie der spezifischen Wärme. Die neue Theorie bricht mit dem Gesetz der gleichmäßigen Energieverteilung durch Einführung eines in seiner Größe von der Art des Freiheitsgrades abhängigen kleinsten Energiequantums. Sie hat sowohl zu einem sich experimentell bestätigenden Strahlungsgesetz geführt, als auch die merkwürdige Erscheinung der bei An- näherung an den Nullpunkt der absoluten Temperatur gegen Null konvergie- renden spezifischen Wärme der Materie erklärt.

Wärmebewegung der Elektronen 415

Die gleichmäßige Energieverteilung ist nach ihr ein Spezialfall einer viel allgemeineren, die dahin gekennzeichnet werden kann, daß jeder Freiheitsgrad einen um so größeren Anteil der Energie des Systems für sich beansprucht, je loser er ist. Und zwar ist die gleichmäßige Verteilung der Grenzfall bei der ab- solut freien Bewegung. Im Metall wird sich demnach die Energie unter die Moleküle und Elektronen derart verteilen, daß auf die Freiheitsgrade der letz- teren, als der vollkommen frei beweglichen, der aus dem Gleichverteilungsgesetz folgende Betrag kommt. Jedes Elektron wird einen Energiebetrag aufnehmen, wie ein Teilchen eines einatomigen Gases bei der gleichen Temperatur. Die ge- bundenen Moleküle werden dagegen weniger Energie wie das Elektron für jeden Freiheitsgrad aufnehmen, um so weniger, je fester sie an ihr Bewegungs- zentrum gebunden, d. h. je schneller ihre Eigenschwingungen sind.

Das Elektron hat, nach dem eben Ausgeführten, die gleiche Energie fort- schreitender Bewegung wie ein Gasmolekül bei der gleichen Temperatur, eine Energie 17, die der absoluten Temperatur proportional ist

f/ = mv^ = aT. 2

Auf jeden der drei Freiheitsgrade dieser Bewegung kommt der dritte Teil dieses Betrages. Die universelle Konstante a ist der Energiezuwachs des Moleküls pro Grad Celsius, also, wenn U in kalorischem Maß gemessen wird, die Wärme- kapazität des Moleküls (vgl. Artikel 4). Fürs Grammolekül berechnet, also mit der Molekülzahl im Grammolekül multipliziert, ergibt sie die Molekularwärme des Gases, die für alle einatomigen Gase den gleichen Wert ca. 3 (genauer 2,96) hat, der mit der Zahl der Freiheitsgrade zufällig numerisch ungefähr über- einstimmt.

Die Frage nach der Beteiligung der Elektronen am Wärmegehalt eines Me- talls ist indessen noch in keiner Weise als erledigt zu betrachten. Die experi- mentellen Bestimmungen der Leitfähigkeit lassen auf eine große Zahl vor- handener freier Elektronen schließen (s. S. 421), so daß ein relativ großer Teil der im Metall enthaltenen Wärmeenergie diesen als Trägern zuzuweisen wäre. Damit ist aber die bei gewöhnlicher Temperatur für die Metalle meist recht strenge Gültigkeit des Dulong- Pe titschen Gesetzes schwer in Einklang zu bringen, und, soweit bisher zu sehen, unvereinbar hiermit ist die neuerdings festgestellte Tatsache, daß bei ungemein tiefer Temperatur das Leitvermögen ganz außerordentlich hohe Werte annimmt, während die spezifische Wärme des Metalls fast zu Null wird (vgl. Artikel 6).

Die frei beweglichen Elektronen üben im Metall gemäß ihrer Bewegungs- Eiektrmtäts- energie einen der absoluten Temperatur proportionalen (osmotischen) Dnick^^^^^j^ aus wie die Moleküle eines Gases. Erhitzt man von zwei Gasreservoiren A

m

und B, die durch einen Hahn getrennt seien, das eine, etwa A, und öffnet dann den Hahn, so strömt plötzlich aus A nach B Gas über, so lange bis in beiden Gefäßen der gleiche Druck herrscht. Nach diesem turbulenten Vorgang, durch den bereits eine gewisse Wärmemenge infolge des Überströmens heißeren Gases von A nach B transportiert worden ist, findet weiterhin durch die mo-

4i6 20. H.Starke: Das elektrische Leitungsvermögen

lekulare Bewegung ein Wärmeieitungsprozeß statt, indem fortdauernd heiße Moleküle aus A nach B und umgekehrt kältere aus B nach A diffundieren, in beiden Richtungen gleich viel Moleküle, wenn die Temperaturdifferenz zwischen A und B aufrecht erhalten wird, der Vorgang also ein stationärer ist. Einen ähnlichen, aber elektrisch modifizierten Vorgang hat man in einem Metall anzu- nehmen, in dem ein Temperaturgefälle herrscht. Eis werde plötzlich die eine Hälfte A eines Metallstabes erhitzt, dann wird unter dem Einfluß des erhöhten Elektronendrucks ein Strömen der Elektronen in den kälteren Teil B des Sta- bes eintreten; dies kann nun aber nicht, wie vorher beim Gase, bis zum völli- gen Ausgleich des Drucks geschehen, sondern es tritt hier gleich bewegungshem- mend infolge der Ladung der Elektronen ein elektrisches Feld im Stabe auf, indem die kälteren Partien des Metalls einen Überschuß von negativer Ladung gegen die wärmeren Teile erhalten. Wegen der den Elektronen zuzuschreibenden verhältnismäßig großen Ladung ist bereits nach Übergang von wenigen der- selben der weitere einseitig gerichtete Bewegungsvorgang gehemmt. Weiter besteht aber wie beim Gas nach dem Druckausgleich die nach beiden Seiten gerichtete Diffusionsbewegung der Elektronen, die die Wärmeleitung be- dingt. Jedes höher temperierte Teilchen, das infolge der Bewegung in nieder temperierte Umgebung kommt, gibt durch die molekularen Stöße sogleich den Überschuß seiner Bewegung ab, der sich temperaturerhöhend unter die Mole- küle und Elektronen der Umgebung verteilt.

In einem wärmedurchströmten metallischen Leiter besteht hiernach also ein elektrisches Spannungsgefälle. Derartige elektromotorische Kräfte sind direkt bisher noch nicht gemessen worden, obwohl es unter geeigneten Vor- sichtsmaßregeln, die in erster Linie auf sorgfältige Eliminierung störender Nebeneffekte an der Oberfläche des Metalls gerichtet sein müßten, nicht ausge- schlossen sein dürfte, sie experimentell zu ermitteln. (Zusatz bei der Korrektur: Versuche in dieser Richtung sind inzwischen von H. Hörig mitgeteilt worden. Ann. d. Physik 43, 525, 1914.) Indirekt festgestellt sind sie (1854, 1856) von Lord Kelvin (Sir William Thomson) in dem nach ihm benannten Thomson- effekt. Bei Fließen eines elektrischen Stromes durch einen Leiter mit Tem- peraturgefälle findet, indem die Elektronen dabei durch das beschriebene elektrische Spannungsgefälle bewegt werden, ein elektrischer Arbeitsvorgang statt, und es wird infolgedessen je nach der Stromesrichtung Wärme produ- ziert oder absorbiert. Überlagert wird diese Wirkung noch durch den direkten Wärmetransport der im Strome bewegten Elektronen. Die Ejustenz dieser Wärme mitführenden Wirkung des elektrischen Stromes hat zuerst wohl F. Kohlrausch (1875) klar ausgesprochen. Die Fundamente seiner Mit- führungstheorie stimmen fast vollständig mit den Grundanschauungen der Elektronentheorie überein und erfahren durch diese eine tiefere Begründung.

In verschiedenen Metallen hat man die Konzentration, damit also den Druck der Elektronen verschieden groß anzunehmen. Bei leitender Berührung zweier Metalle wird darum wieder ein Druckausgleich angestrebt werden, der indessen durch ein sogleich in der Grenzschicht entstehendes elektrisches Ge-

Thermoelektrizität

417

genfeld wiederum verhindert wird. Zwei Metalle weisen darum eine Kontakt- Potentialdifferenz gegeneinander auf. Wie die mit einem Temperaturgefälle im homogenen Metall verbundene, so ist auch diese Potentialdifferenz direkt noch nicht gemessen worden. Die als Voltasche Spannungsdifferenz bezeichnete elektromotorische Kraft in der Grenze zweier Metalle hat nach Untersuchungen von J.Brown (1903) und von H. Greinacher (1905) ihren Sitz in Feuchtig- keitsschichten der Oberfläche und ist auch von höherer Größenordnung (ca. I Volt und mehr) wie die hier erörterte, die nach Hundertsteln eines Volt zählt. Indirekt gibt sich die in der Grenzschicht auftretende elektromotorische Kraft in dem von Peltier (1834) entdeckten, nach ihm benannten Elffekt kund, der in einer Wärmeproduktion oder -absorption bei dem Passieren eines elek- trischen Stromes durch die Grenzschicht in der einen oder der anderen Rich- tung besteht.

Da die Elektronendrucke in beiden Metallen der absoluten Temperatur proportional sind, so ist es auch die die Elektronen antreibende Druckdifferenz und damit auch die elektromotorische Kraft des Peltiereffekts. In einem aus zwei Metalldrähten gebildeten Schließungskreise, in dem die beiden Verbin- dungsstellen der Drähte verschiedene Temperatur haben, muß also infolge der überwiegenden e. m. K. der wärmeren Verbindungsstelle eine der Temperatur- differenz proportionale Gesamt -e. m. K. bestehen und ein Strom fließen, der durch seine Peltierwärme die kältere Verbindungsstelle der Metalle erwärmt, die wärmere abkühlt. Dies ist ein thermodynamischer Prozeß, für den die An- wendung des zweiten Hauptsatzes der Wärmetheorie (Lord Kelvin 1856) bereits ohne die speziellen Anschauungen der Elektronentheorie eine Propor- tionalität der gesamten thermoelektromotorischen Kraft im Schließungs- kreise mit der Temperaturdifferenz der Lötstellen ergibt. Außer den Vorgängen in den Verbindungsstellen trägt aber auch die in beiden Metallen im allge- meinen nicht gleiche und auch von der Temperatur abhängige e. m. K. des Thom- soneffekts zur Entstehung der thermoelektromotorischen Kraft im Schließungs- kreise bei. Dieser Anteil bewirkt, daß die letztere im allgemeinen nicht der Tem- peraturdifferenz der Verbindungsstellen proportional ist, sondern erst durch eine Formel, die einen dem Quadrat der letzteren proportionalen Summanden als Zusatzglied enthält (Avenarius 1863), dargestellt werden kann. Die Ab- weichungen vom Proportionalitätsgesetz führten zur Entdeckung des Thom- soneffekts. Die thermoelektromotorische Kraft, die in den sog. Thermoelemen- ten eine ausgedehnte thermometrische Verwendung findet, ist bereits im Jahre 1821 von Seebeck entdeckt worden. Bezüglich der Kontakt-e. m.K. des Peltier- effekts, die die Elektronentheorie aus den osmotischen Drucken erklärt, sei noch bemerkt, daß bereits Hei mholtz sie durch die Bewegung geladener Teil- chen, wenn auch in anderer Weise, erklärte. Er nahm an, daß die einzelnen Me- talle verschieden große molekulare Anziehungskräfte auf kleinste geladene Teilchen in ihnen ausüben. Gegen eine derartige e.m. K. kann indessen, wie Clau- sius bemerkte, beim Fließen eines Stromes keine Arbeit geleistet werden, und es können darum die Helmhol tzschen Molekularkräfte in einer geschlossenen

K.d.G.m.m,Bd z Physik 27

j,l3 20. H.Starke: Das elektrische Leitungsvermögen

metallischen Kette niemals einen Strom hervorrufen. Dieselben können also allerdings bestehen, ohne jedoch auf thermoelektrische Vorgänge einen Ein- fluß auszuüben.

In den hier gegebenen Auseinandersetzungen, welche die Grundlage der Elektronentheorie von Ri ecke, Drude, Lorentz, J, J. Thomson bilden, wurden die Elektronen als ein ideales Gas behandelt. Interessante Versuche, die eine andere Anschauung aufdrängen, sind von O. W. Richardson (1904) an- gestellt worden. In einer quantitativen Untersuchung der lange bekannten Er- scheinung der Abgabe negativer Elektrizität seitens erhitzter Leiter, die seit den Arbeiten Wehnelts als eine Emission von Elektronen (Kathodenstrahlen) erkannt ist, gelangte er zu dem Resultat, daß die Elektroneii einen Dampfdruck besitzen, der in seiner Abhängigkeit von der Temperatur die Clausius-Cla- peyronsche Gleichung der Thermodynamik befolgt. Im Anschluß an dieses Ergebnis hat K. Baedeker (1910) die Elektronen theorie der Metalle durch Einführung der Dampfdrucke an Stelle der Gasdrucke des idealen Gases mo- difiziert und einige spezielle Erscheinungen der Thermoelektrizität hierdurch verständlich gemacht. So erklärt sich z. B. die eigentümliche Konstanz der Ther- mokraft beim Übergang des Metalls aus dem festen in den flüssigen Zustand, bei welchem die Leitfähigkeit im allgemeinen eine sprungweise Veränderung erfährt, indem die Thermodynamik bekanntermaßen eine kontinuierliche Veränderung des Dampfdrucks beim Durchgang der Temperatur durch den Schmelzpunkt fordert.

Über die genannten beiden Wärmeeffekte, Thomson- und Peltiereffekt, die, der Stärke des durch die Leiter gesandten Stromes proportional, mit diesem auch ihr Vorzeichen umkehren, überlagert sich stets im Sinne einer Wärmepro- duktion, von der Stromrichtung unabhängig, dem Quadrate der Stromstärke proportional, diejoulesche Stromwärme. Ihre Erzeugung erklärt sich in der Vorstellungsweise der Elektronentheorie als ein Energie degradierender Vor- gang dadurch, daß die im elektrischen Felde gerichtete Bewegung der Elek- tronen infolge der Zusammenstöße untereinander und mit den festliegenden Molekülen in ungeordnete Wärmebewegung übergeführt wird. Die Zusammen- stöße wirken als eine die Beschleunigung vernichtende Reibung, sie bewirken es, daß der Elektronenstrom im elektrischen Feld sich mit einer gleichmäßigen, der Feldstärke proportionalen und nach ihr gerichteten mittleren Geschwindig- keit aller Teilchen dahinwälzt, sie geben damit die innere Ursache für das Ohmsche Gesetz der Proportionalität von Stromstärke und elektrischem Feld im Leiter, wiodemami- Da es nach der Elektronentheorie die gleichen Teilchen sind, welche in

^L^M~hc«* einem Metall den Elektrizitäts- und den Wärmetransport veranlassen, ergibt Gesetz. gich für Metalle die ProportionaHtät der Leitungsvermögen für Elektrizität und Wärme. Dies Gesetz ist von G. Wiedemann und Franz bereits im Jahre 1853 auf Grund experimenteller Beobachtungen ausgesprochen worden. Nach- dem es durch F. E. Neumann 1862 bestätigt worden war, schienen Messun- gen von Fr. Weber 1880 seine Richtigkeit in Frage zu stellen. Schon im Jahre

Wänneleitung. Der Quotient 4^9

darauf wurde es indessen durch die sorgfältigen Untersuchungen von G.Kirch- hof f und G. Hanse mann vollauf bestätigt und ebenso fast gleichzeitig durch L. Lorenz (1882), der es durch den auch aus der Elektronentheorie direkt zu folgernden Satz erweiterte, daß in allen Metallen das für eine bestimmte Tempe-

ratur gleiche Verhältnis von Wärme- und Elektrizitäts-Leitvermögen pro-

portional der absoluten Temperatur wächst.

Die Elektronentheorie der Metalleitung ergibt nach Drude für das Ver- hältnis der Leitvermögen den Ausdruck:

worin a die weiter oben genannte universelle molekulare Konstante und e die

Ladung des Elektrons, T die absolute Temperatur bedeuten. H. A. Lorentz

8 \

findet in einer strengeren Durchführung der Theorie den Zahlenfaktor statt

in sonst gleichem Ausdruck. Das Wiedemann-FranzscheunddasL. Lorenz- sche Gesetz sind in neuerer Zeit nach einer von F. Kohlrausch angegebenen eleganten Methode von W. Jaeger und H. Diesselhorst in der Physikalisch- Technischen Reichsanstalt zu Charlottenburg (1898—99), sowie von Ch. H. Leco (1908) zum Gegenstand ausführlicher Untersuchung gemacht und zwischen o^und 100^ bis auf wenige Abweichungen bestätigt worden. Unter Zugrunde-

legung der von ersteren für Silber bei 1 8^ C angegebenen Zahl = 0,760 . io~**^,

die etwa dem Mittelwert aller an verschiedenen Metallen beobachteten Werte

entspricht, berechnet sich nach obiger Formel der Quotient fürs Elektron zu

= 4,42 10-7 (Drude) oder 5,39 10-7 (H, A. Lorentz).

Die Werte von a und e sind einzeln nur angenähert bekannt. Ihr Quotient ist, wie Drude zeigte, in befriedigender Übereinstimmung hiermit.

Nun kann man auch noch auf einem ganz anderen Wege zu einer genaueren Kenntnis des Wertes dieses Quotienten gelangen. Wenn man ihn nämlich im Zähler und Nenner mit der Zahl iV von Teilchen im Grammolekül multipliziert, so steht im Zähler die Größe iVa, welche, wie weiter oben bei der Definition von a gesagt wurde, der Energiezuwachs des Grammoleküls pro Grad Celsius ist. Die Molekularwärme des Elektrons hat gemäß seiner drei Bewegungsfrei- heiten den Wert 3 (genauer 2,96) und ergibt mit dem mechanischen Wärme- äquivalent (i Kai. = 419 10^ Erg) multipliziert den WertiVa = 1240 lo^ Im Nenner steht die Größe iV^, d. i. die von der Natur des Stoffes unabhängige, also universelle, aus der Elektrolyse genau bekannte Ladung des Grammäqui- valents, indem man jedes Elektron als Träger des Elementarquantums elek- trischer Ladung anzusehen hat.

Es ist Ne = 96540 Coulomb = 3 96540 lO* absoluten elektrostat. Einh.

Als Quotient ergibt sich ^^ ^

—-=-_ 4,28- 10-7.

In der recht guten Übereinstimmung dieses Wertes mit dem aus dem Leitver-

27*

420 20* H.Starke: Das elektrische Leitungsvermögen

hältnis berechneten ruht eine der hervorragendsten Stützen der Elektronen- theorie der Metalle. Doch haben neuere Untersuchungen von Meusing ge- zeigt, daß bei sehr tiefen Temperaturen die Gesetze von Wiedemann- Franz und von Lorenz vollständig versagen, ebenso wie das Du long- Fe titsche Gesetz der Atomwärme.

Die Formel, welche die kinetische Theorie für das elektrische Leitvermögen eines metallischen Leiters gibt, ist verhältnismäßig sehr einfach herzuleiten. Ein elektrisches Feld im Leiter wirkt auf ein Elektron mit der Kraft (S e be- wegend und erteilt ihm in der Zeit t zwischen zwei aufeinanderfolgenden Zu-

sammenstößen eine Endgeschwindigkeit, die durch die Größe —rj— > also

durch gegeben ist. Die mittlere Geschwindigkeit des Elektrons während

dieser kurzen Zeit ist halb so groß. Die Zeit t wird nun in jedem Augenblick für die einzelnen Elektronen sehr verschieden sein und auch für dasselbe Elek- tron fortwährend an Größe wechseln, sie wird aber einen für alle Elektronen gleichen, dauernden Mittelwert haben, der durch den Quotienten aus dem im Mittel von den Elektronen zwischen zwei Zusammenstößen zurückgelegten Weg, d. i. der sog. mittleren freien Weglänge X, und der mittleren Geschwindig- keit u ihrer molekularen Bewegung gegeben ist. Die mittlere Geschwindigkeit der gerichteten Bewegung im elektrischen Feld ist demnach

2 m u

und wenn man noch die kinetische Energie des Elektrons

mtt* = a Z"

2

Multipliziert man diesen Geschwindigkeitswert mit der im ccm enthaltenen Ladung, d. h. mit der räumlichen Elektronendichte 92 und Ladung eines Elek- trons €, so erhält man den im Feld (S fließenden Strom. Die Stromstärke im Feld I, d. h. die Leitfähigkeit k ist also:

Diese Formel wird hier angeführt, weil einige interessante Folgerungen aus dem experimentell beobachteten Verhalten der Leitfähigkeit daran anzuknüpfen sind. Es ist eine bereits lange bekannte, 1858 von Clausius zuerst bemerkte und ganz offenbar mit unserer Anschauung von den Elektronen als einem Gase in naher Beziehung stehende Eigentümlichkeit des Leitungswiderstandes der meisten reinen Metalle, daß er mit dem Ausdehnungskoeffizienten der Gase un- gefähr übereinstimmt. Nach diesem merkwürdigen Clausiusschen Gesetz nimmt also der Widerstand proportional der absoluten Temperatur zu. Wenn demnach k der Temperatur T umgekehrt proportional ist, so muß der Zähler in obiger Formel von ihr unabhängig sein. Er enthält drei als von der Tempe-

Zahl, Wännekapazität der Elektronen im Metall j.2i

ratur abhängig anzusehende Größen u, X und 31. Die erste u wächst proportio- nal mit YT; der Umstand, daß in allen Metallen der beobachtete Thomson- sche Wärmeeffekt recht klein ist, ergibt elektronentheoretisch, wie hier nicht näher bewiesen werden kann, auch eine Proportionalität von 9i mit j/t; so daß demnach sich die freie Weglänge als der absoluten Temperatur umgekehrt proportional ergibt. Das Claus iussche Gesetz, das in weiten Temperaturgren- zen gültig ist, läßt auf ein Verschwinden des elektrischen Widerstandes bei dem absoluten Nullpunkt schließen. Wenn sich zwar auch herausgestellt hat, daß das Gesetz bei den sehr tiefen Temperaturen nicht mehr erfüllt wird, so haben doch in der Tat die neueren Untersuchungen, insbesondere von J. Clay (1908) im Leidener Kältelaboratorium des Herrn Kamerlingh Onnes diesen Schluß bestätigt. Es sind z. B. bei 270,8® C, d. i. 2,3® absol. die Widerstände von Platin, Gold, Quecksilber vom Wert i bei C herabgesetzt auf 0,0119; 0,0001 1 ; 0,00003.

Das Wärmeleitvermögen ergibt sich aus der kinetischen Theorie auch als dem Produkt der drei Größen SR Xu proportional, ohne indessen noch in anderer Weise Funktion der Temperatur zu sein. Es ist also, wie auch aus dem Clau- siusschen im Verein mit dem L. Lorenzschen Gesetz folgt, von der Tempera- tur unabhängig. Da die Molekulargeschwindigkeit der Elektronen für jede Temperatur eine ihrem absoluten Betrage nach bekannte Größe ist, ergeben Messungen des absoluten elektrischen oder Wärmeleitungsvermögens den Wert des Produktes SRX. Nun hat J. J. Thomson (Korpuskulartheorie der Materie. Sammlung: Die Wissenschaft, Heft 25, S. 82, 1908) aus den oben erwähnten Versuchen von Hagen und Rubens den Schluß gezogen, daß die mittlere Zeit zwischen zwei Zusammenstößen der Elektronen einen gewissen Betrag (3i3*io~'^ sec) nicht übersteigt. Man kann daraus einen schätzungsweisen Wert für die mittlere freie Weglänge X gewinnen, der die Größenordnung io~~^ cm hat. Dann ist aber nach dem eben Gesagten auch 31 zu berechnen. Es ergibt sich dabei nach M. Reinganum für Silber ein Wert 91 = 5 10'*. Jedes Elektron braucht zur Temperaturerhöhung um die Energiemenge a = 1,32 lO'"*^ Erg. Es berechnet sich demnach die Wärmekapazität der im

Kubikzentimeter enthaltenen Elektronen zu -^— ^ j. = 0,16 cal (410 10* =

419 -IG* ' ^^ ^

mechan. Wärmeäquivalent), also, da i ccm Silber 10,5 gr. wiegt, der Anteil der Elektronen an der spezifischen Wärme (0,06) des Silbers zu 0,015, d. h. ein Viertel der im Silber enthaltenen Wärme würde hiernach in der Molekularbewegung der freien Elektronen bestehen. Dies Ergebnis bedeutet aber für die Elektronen- theorie in ihrer bisherigen Form eine Klippe, an welcher sie fast zu scheitern droht. Denn erstens bleibt die weitgehende Gültigkeit des Dulong-Petit- schen Gesetzes von der Konstanz der Atomwärme bei den Metallen schwer verständlich. Dann ist aber weiter mit der Anschauung, daß die Elektronen sich in so großer Zahl an dem Wärmegehalt eines Metalles beteiligen, das oben erwähnte experimentelle Ergebnis völlig unvereinbar, daß bei tiefsten Tem- peraturen die spezifische Wärme fast verschwindet, während die elektrische

^22 20. H.Starke: Das elektrische Leitungsvermögen

Leitfähigkeit nicht nur erhalten bleibt, sondern sogar ins Ungeheure wächst. Es fehlt bereits nicht an einem Versuch, diese Schwierigkeit zu beseitigen. J. Stark schlägt vor, den Elektronen eine Einzelbeweglichkeit und eine Wär- mebewegung abzusprechen, ihnen aber eine beschränkte zur Erklärung der elek- trischen Leitung ausreichende Bewegungsmöglichkeit zu lassen, insofern als sie, elektrisch miteinander gekoppelt, in ihrer Gesamtheit als ein starres Elek- tronengitter sich bewegen mögen. Einen beachtenswerten Ausweg aus der ge- nannten Schwierigkeit scheint eine ältere Elektronentheorie der Metalle von J. J.Thomson (in oben zitierter Korpuskulartheorie der Materie) zu bieten, die den Vorzug hat, nicht nur manche Resultate der gewöhnlichen Elek- tronentheorie, z.B. das Wiedemann-Franz-Lorenzsche Gesetz, Erklä- rung der Thermoeffekte, auch zu den ihrigen zu zählen, sondern sogar ge- wisser, fast unüberwindlich scheinender Unstimmigkeiten zu ermangeln, die der anderen Theorie entgegenstehen (Halleffekt umgekehrten Vorzeichens). Die Thomson sehe Theorie nimmt auch die Existenz freier Elektronen an, die fortdauernd von den Atomen frei werden, indessen sofort beim ersten Zusam- menstoß mit anderen Atomen von diesen aufgenommen werden, so daß ihnen nicht Gelegenheit gegeben ist, ins Wärmegleichgewicht mit den Atomen zu kommen. Ihnen ist also die Beteiligung an der Wärmebewegung im gewöhn- lichen Sinne genommen. Zur Erklärung einer durch sie erfolgenden Wärme- leitung hat man die plausible Annahme zu machen, daß jedes Elektron bei der Lostrennung vom Atom einen der Energie desselben proportionalen Betrag von Bewegungsenergie empfängt. Gaivanomagne- Die vielfachen und komplizierten Erscheinungen, die die Einwirkung des moml^rtUcte M^S'^^^f ^Id^s auf stromdurchflosscnc Metalle hervorruft, können hier nur Erscheinungen, kurz gestrcift wcrdcn; sie sind zurzeit noch die Schmerzenskinder der Elek- tronentheorie, zum wenigsten in ihrem quantitativen Verhalten. Von allen diesen Phänomenen der Beobachtung am leichtesten zugänglich, daher auch zuerst und am meisten untersucht, sind die Widerstandsänderungen, die die Metalle für Elektrizitäts- und Wärmeleitung im Magnetfeld erfahren. Der elektrische Effekt ist für die meisten Metalle schwach aber regelmäßig und im Sinne einer dem Quadrat der Feldstärke proportionalen Widerstandszunahme, für Wismut ist der Effekt sehr groß und wird zur praktischen Bestimmung von magnetischen Feldstärken mit Hilfe käuflicher Wismutspiralen benutzt. Er ist hier stark von der kristallinen Struktur abhängig, befolgt bei höheren Feldstärken nicht mehr das quadratische Gesetz und zeigt erhebliche Veränderlichkeit mit der Temperatur, die bei der Feldmessung mit Wismut- spiralen sorgfältig berücksichtigt werden muß. Die Veränderung der Wärme- leitung am gleichen Stück im gleichen Feld scheint nicht derjenigen der elek- trischen Leitfähigkeit proportional zu sein.

Für ferromagnetische Metalle scheint allgemein das Resultat zu gelten, daß longitudinale Magnetisierung des Leiters den Widerstand vergrößert, transversale ihn verkleinert.

Die von E. H. Hall im Jahre 1879 entdeckte Ablenkung der Stromlinien

EinfluB eines Magnetfeldes, Halleffekt usw. ^23

durch das Magnetfeld, die sich durch da§ Auftreten einer transversalen Poten- tialdifferenz zwischen zwei ohne Feld äquipotentiellen Punkten äußert, ist durch eine der Kathodenstrahlablenkung analoge Deviation der Elektronen verständlich und wurde ein Jahr nach der Auffindung des Effekts auch von L. Boltzmann in ähnlichem Sinne berechnet. Im Wismut ist die Richtung des in ihm auch besonders großen Halleffekts die durch bewegte negativ ge- ladene Teilchen vorgeschriebene. E^ gibt aber eine ganze Reihe von Leitern, die einen Halleffekt des entgegengesetzten Vorzeichens aufweisen. Der nächst- liegende Ausweg, auch positive freie Elektronen anzunehmen, führt zu so vielen anderen Schwierigkeiten, daß er nicht zulässig sein dürfte. Wege, die unitarische Elektronentheorie zu modifizieren, sind bereits vorgeschlagen wor- den. Gleichzeitig mit der transversalen Potentialdifferenz entsteht, wie A. v. Ettingshausen 1887 fand, eine ebensolche Temperaturdifferenz. Und die gleichen beiden transversalen Phänomene treten im Magnetfeld auf, wenn man den primären Elektrizitäts- durch einen Wärmestrom ersetzt (A.v. Ettings- hausen und W. Nernst 1886, A. Leduc und A. Righi 1887). Endlich treten auch in longitudinaler Richtung Potential- und Temperaturdifferenzen bei primärem Elektrizitäts- und Wärmestrom auf. Der elektrische Effekt bei pri- märem elektrischem Strom, und der Temperatureffekt bei primärem Wärme- strom erzeugen die zuerst erwähnten Widerstandsvergrößerungen.

Wenn auch alle diese Phänomene die Grundanschauung der Elektronen- theorie, daß Wärme- und Elektrizitätsleitung von den gleichen Trägern ver- mittelt werden, deutlich bestätigen, so zeigen sie doch in ihrem genaueren Ver- halten ebenso deutlich, daß die Theorie noch einer weitgehenden Vervollstän- digung bedarf.

Die ältesten Bestimmungen der elektrischen Leitfähigkeit rühren von Abhängigkeit H. Davy (1821), G. S. Ohm (1826), A. C. Becquerel (1828) her. Diese ebenso ^^^Vjf;^^':;;; wie die vielen folgenden Messungen älterer Zeit haben nur noch historisches Inter- Dmck, Aegregat- esse. Bleibenden Wert fangen solche Bestimmungen erst von dem Moment an zu behalten, als man darauf bedacht war, chemisch möglichst reine Materia- lien zu verwenden. Dies ist in ausgedehnter Weise zuerst durch A. Matthies- se n und M. V. Böse (1862) geschehen. In der Neuzeit sind die Anforderungen an die Reinheit immer größere geworden, und so sind denn zur Zeit nur noch die neuesten Messungen maßgebend, in erster Linie neben denjenigen von J. Dewar und J. A. Flemming (1893), die sich bis zu sehr tiefen Temperaturen erstrecken, die in der Physikalisch-Technischen Reichsanstalt mit reinstem Material und den besten Mitteln moderner Meßtechnik von W. Jaeger und H. Diesselhorst ausgeführten.

Bezüglich der Abhängigkeit von der Temperatur ist zu bemerken, daß das Claus iussche Ergebnis, Proportionalität des Widerstandes mit der ab- soluten Temperatur, also Gleichheit des Temperaturkoeffizienten des Wider- standes mit dem Ausdehnungskoeffizienten 0,00367 idealer Gase, nicht streng gilt. Zunächst hat der erstere für die meisten Metalle einen etwas größeren Wert (bis zu 0,0047, Eisen sogar 0,0054, Mittelwert aller reinen Metalle 0,0041 1),

^24 20. H Starke: Das elektrische Leitungs vermögen

sodann erweist er sich auch nicht kohstant, sondern mit der Temperatur ver- änderlich. Man erreicht Anschluß der Beobachtungen an die Temperaturformel, wenn man ein dem Quadrat der Celsius-Temperatur proportionales Glied hin- zufügt, so daß sich der Widerstand bei der Temperatur t^ C im Verhältnis zu dem beim Eisschmelzpunkt darstellt durch

ß hat darin die Größenordnung io~^ für die meisten Metalle und ist positiv, nur für die Platingruppe negativ, bei der also mit steigender Temperatur der Widerstand allmählich weniger zunimmt. Bei den sehr niedrigen Temperatu- ren des flüssigen Wasserstoffs und Heliums wird der Temperaturkoeffizient gleichzeitig mit dem Widerstand selbst außerordentlich klein. Schlechte Leiter wie die Metalloide und Metallverbindungen zeigen eine kompliziertere Abhän- gigkeit des Widerstandes von der Temperatur, teils eine Zunahme, teils eine Abnahme (Kohle), häufig beides, indem bei einer bestimmten Temperatur ein Minimum auftritt. Eine Erklärung hierfür durch eine mit der Temperatur zunehmende Elektronenabspaltung hat J. Koenigsberger (1910) versucht. Hierher gehören auch durchsichtige Oxyde, wie Quarz, Zirkon u. a. Mit stei- gendem Druck nimmt der Widerstand der meisten Metalle um einige Million- tel seines Werts pro Atmosphäre zu. Den größten Wert zeigt das flüssige Queck- silber mit 32,6; wenig dagegen Platin mit 1,9 Milliontel. Wismut zeigt Abnahme mit 19,6 Milliontel. (Zahlen nach Lisells 1902, Williams 1907.) Beim Übergang in den flüssigen Zustand beim Schmelzpunkt springt der Widerstand wie auch sein Temperaturkoeffizient auf höheren Wert. Nur Antimon und Wis- mut zeigen kleineren Widerstand im flüssigen Zustand. Daß sprungweise Änderungen im kristallinen Zustand, d. h. Umwandlungen in eine andere Mo- difikation von sprungweiser Veränderung der Leitfähigkeit begleitet sind, dürfte nicht verwunderlich sein. Endlich ist das eigenartige Verhalten des me- tallischen Selens zu erwähnen, das durch Belichtung eine starke Abnahme seines Widerstandes erfährt. Diese Wirkung, die im gelben und roten Spektral- bereich ihr Optimum hat und im Blau und Violett sehr gering ist, findet ver- schiedentliche technische Verwendung, beispielsweise bei der Lichttelephonie, Fernphotographie u. a. m. Sie ist 1873 von Willoughby Smith entdeckt. W. Siemens stellte 1876 zuerst wirksame Selenzellen durch Erhitzen von amorphem Selen auf lOO^ her. Neuere Untersuchungen von R. Marc (1907) und M. Sperling (1908) haben die Lichtwirkung als eine Verschiebung im Mischungsverhältnis von Selen in schlecht und gut leitender Modifikation er- kannt. Ähnliche Wirkungen sind am Antimonglanz (G. F. Jaeger 1907), an Silberhaloiden (Sv. Arrhenius 1888) und an Kupfer jodür (K.Baedeker und G. Rudert 1910) entdeckt worden. Legierungen. Die Metallegierungen zeigen eine große Mannigfaltigkeit im Verhalten des

elektrischen Leitvermögens. Die ersten recht genauen und zahlreichen Messun- gen hierüber rühren von A. Matthiessen (1857— 1863) her. Eine systematische Kenntnis ist erst erreicht worden, seitdem man die Konstitution der Legierun- gen mit Hilfe des Mikroskops oder durch Bestimmung der Schmelz- und Er-

Metallegierungen 425

stamingskurven untersuchte. Dies ist insbesondere an den binären Legierun- gen geschehen, die beim Zusammenschmelzen von zwei Metallen entstehen. Nach H. le Chatelier und nach W. Guertler treten hierbei verschiedene Fälle auf: i. Die zwei Metalle sind nicht ineinander löslich, dann besteht die Legierung nur aus getrennt nebeneinander liegenden Kristallen der Metalle. Die Leitfähigkeit und der Temperaturkoeffizient des Widerstandes berechnen sich einfach nach der Mischungsregel aus den betreffenden Größen der Einzel- metalle. Beispiele: Cd-Zn, Cd-Pb^ Cd-Sn, Sn-Pb, Zn-Sn). 2. Die beiden Kom- ponenten sind ineinander löslich, und zwar entweder a) in jedem Verhältnis oder b) nur teilweise. Die Legierungen unter a) zeigen weit höheren Widerstand als die Komponenten und einen sehr kleinen Temperaturkoeffizienten, sie werden da- her in der Praxis zur Herstellung der Widerstandsetaions benutzt, z. B. Man- ganin (84 Ci*, 12 Mn, 4 Ni; a^ = 0,42 lo"**; a = 3 lo"^), Konstantan (60 Cu, 40 Ni; (To = 0,49 10"" ♦, a =— 3 bis + 5 lO""^), Platinrhodium (10 Rh, 90 Pt; 0^5=1 0,2 -10^^; a= 1,7 I0~^). Zusammensetzung ist in Gewichtsprozenten angegeben. Charakteristisch ist, daß ganz geringe Zusätze des einen Metalls zum anderen reinen, dessen Leitfähigkeit sehr erheblich herabdrücken. So setzt z. B. ein Goldzusatz von wenigen Prozent die Leitfähigkeit von Silber nach Matthiessen auf den dritten Teil herab, fast ebensosehr wenige Prozent Sil- ber die des reinen Goldes, Die beide Metalle zu gleichen Teilen enthaltende

-^g--4u- Legierung hat den Minimalwert des Leitvermögens von ca. ^ desjenigen

des reinen Silbers. Ein allgemeines Gesetz läßt sich hier nicht aufstellen, da- gegen fand für kleine Zusätze Benedicks (1902) die Regel, daß eine gleiche Zahl von Atomprozenten irgendeines in diese Gruppe gehörigen Metalls den Widerstand eines reinen Metalls in demselben Betrage erhöht. Dies gilt bei- spielsweise nach Benedicks für Zusätze von Kohlenstoff, Phosphor, Silicium, Mangan, Aluminium, Chrom, Nickel, Wolfram zu Eisen, also für die verschie- denen Stahlarten; ferner nach Kurnakow (1909) für Zusätze von ^n, Tl zu Pb und CUf Ag zu Au. Die Erhöhung des spezifischen Widerstandes pro ge- löstes Atomprozent beträgt bei den Stahlen 5,9. I0~^

Für den anderen Fall b) dieser Erscheinungsgruppe, den Fall beschränkter Mischbarkeit, ist Eisen mit mehr als 0,27 7o Kohlenstoff ein Beispiel. Der über diesen Betrag hinausgehende Gehalt von C wird nicht gelöst, sondern ist als Gra- phit nur beigemischt. Für diesen Fall gilt die Mischungsregel, die ergibt, daß die Menge freien Graphits praktisch keinen Einfluß ausübt.

3. Die dritte Gruppe endlich enthält viele und zum Teil wichtige Legie- rungen, wie z. B. Messing, Bronze. Es sind die Legierungen, in denen die Kom- ponenten chemische Verbindungen eingehen, die ihrerseits sich in den Kom- ponenten lösen können oder nicht. In dieser Gruppe ist die Kenntnis bisher am unvollkommensten.

in. Elektrolytische Leitung. Der erste Fall von chemischer Zerset- AUgemein© zung durch den elektrischen Strom ist im Jahre 1800 von W. Nicholson und ^^^^1,^*^1, A. Carlisle beobachtet worden, als sie zur Verbesserung eines Kontakts einen t^A^ck.

^26 20. H.Starke: Das elektrische Leitungs vermögen

Wassertropfen an die betreffende Stelle brachten. Von ihnen und anderen ist sodann bald darauf die Wasserzerlegung auch in größerem Maßstabe ausge- führt worden. Es zeigte sich bald, daß in allen Fällen die Zersetzungsprodukte an den stromzu- bezw. abführenden Metallplatten, niemals im Raum zwischen diesen, im Innern der Flüssigkeit auftreten, eine Tatsache, die zu erklären zu- nächst große Schwierigkeiten bereitete. Sechs Jahre nach der ersten experimen- tellen Auffindung der chemischen Wirkung stellte Ch. v. Grothuss (1806) eine Theorie der Erscheinung auf, die mit gewissen Modifikationen bis zum heutigen Tag ihre Gültigkeit behalten hat. In derselben wird die Annahme gemacht, daß im Wassermolekül das Wasserstoffatom positiv, das Sauerstoffatom negativ geladen ist. Zwischen einer + und einer geladenen Metallplatte tritt eine Richtung der Moleküle ein, wodurch zwei in der Stromrichtung benachbarte Moleküle ihre entgegengesetzt geladenen Atome H und 0 zur Verbindung brin- gen. An dem einen Ende der Molekülketten werden dadurch H-, am anderen Ende 0-Atome frei, die ihre Ladungen an die Metallplatten abgeben. Michael Farad ay, dessen ausgezeichneten Experimentaluntersuchungen (1833) die Wissenschaft ihre weiteren Fortschritte auf diesem Gebiet, in erster Linie das quantitative Grundgesetz verdankt, führte die noch heute gebräuchlichen Namen ein (vgl. Artikel 13). Den Zersetzungsvorgang bezeichnete er als Elektrolyse; der zusammengesetzte Stoff, der Elektrolyt, wird in seine Ionen gespalten, die nach den Elektroden wandernd dort ausgeschieden werden, und zwar das positive Kation an der negativen Kathode, das negative Anion an der posi- tiven Anode. Die ausgeschiedenen Ionen brauchen nicht immer als solche sich an den Elektroden zu zeigen, sondern können mit den letzteren oder mit der Lösung sekundär reagieren. Diese Erscheinung nennt Faraday sekundäre Elektrolyse. Faraday hatte bezüglich der Art der Ionen noch mancherlei von den heutigen abweichende Anschauungen. So sah er beispielsweise, unter dem Einfluß der B er zelius sehen Salztheorie stehend, bei den Salzen der Sauer- stoffsäuren das Metalloxyd und das Säureanhydrid als die Ionen des Salzes an. J. F. Daniell (1839—44) fand den Widerspruch, der sich hieraus mit dem Faraday sehen Grundgesetz ergibt, und bewies, daß in Salzen allgemein das Metall Kation, der Säurerest Anion ist. So sind beim Bittersalz z. B., obwohl an der Kathode neben H das Oxyd MgO auftritt und an der Anode neben Sauerstoff auch freie Schwefelsäure, die Ionen nicht MgO und SO^^ wie Fara- day noch meinte, sondern Mg und SO^. Daniell zeigte, daß in einem in Serie geschalteten Wasservoltameter eine genau gleiche Wasserstoff- Sauers toffent- wicklung eintritt. Bei dem Bittersalz hätte nach der alten Auffassung derselbe Strom also neben der gleichen Menge Wasser außerdem noch Salz zersetzt. Diesen scheinbaren Widerspruch mit dem Faraday sehen Gesetz löste Daniell durch die neue lonenannahme und einen durch die Ionen Mg und Ä?^ bewirkten sekundären Vorgang. R. Kohlrausch (1856), H. Buff (1858) und W. Hit- torf (1858) haben als die ersten klar ausgesprochen, daß die geladenen Ionen einen großen Teil ihrer Bewegung unverbunden ausführen müssen. R. Clausius zog 1857 aus der Tatsache, daß das Ohmsche Gesetz in Elektrolyten auch bei

Elektrolyse. Dissoziation ^27

beliebig schwachen Strömen seine Gültigkeit behält, den weiter reichenden Schluß, daß die freien elektrisch geladenen Ionen nicht nur während des Strom- durchgangs, also während ihrer Wanderung, sondern auch im Ruhezustande im Elektrolyten vorhanden sein müssen. Diese Vorstellung, so einfach und überzeugend sie auch sein mochte, bot im chemischen Sinne doch gewisse Schwierigkeiten. So war es nicht recht einzusehen, warum z. B. ein Kaliumion, das frei in der Lösung sich befindet, nicht sogleich mit dem Lösungswasser in Reaktion treten muß. Hittorf hat, wohl als einziger unter den Zeitgenossen von Clausius, die Hinfälligkeit solchen Einwandes dargelegt, indem er präzis betonte, daß das Kaliumion infolge seiner Ladung einen ganz anderen Stoff mit ganz anderen Eigenschaften darstellt wie das metallische Kaliumatom. Svante Arrhenius hat in seiner Dissoziationstheorie (erste Veröff. 1884) den Clausiusschen Vorstellungen ihren quantitativen Inhalt gegeben, indem er zeigte, daß alle Elektrolyte in Lösung in mehr oder weniger hohem und zwar bestimmbarem Grade in freie Ionen gespalten sind, und hat als erster die große Wichtigkeit dieser Tatsache für die chemischen Erscheinungen in einer grö- ßeren Reihe von Anwendungen der Theorie dargetan. Einen Vorgänger in der Erkenntnis der Beziehungen der elektrolytischen Leitfähigkeit zu chemischen Vorgängen hat Arrhenius in W. Hittorf gehabt, der in seinen Beobachtungen Widersprüche mit der B er zelius sehen Theorie der chemischen Verwandtschaft fand. Einen glänzenden Beweis für die weitreichende Anwendbarkeit der Arrhenius sehen Dissoziationstheorie brachte die gleichzeitig mit ihr von van t'Hof f (1886 und 1887) ausgearbeitete Theorie des osmotischen Druckes. Wäh- rend sich für alle nichtelektrolytischen Lösungen eine weitgehende Bestätigung der Theorie fand, zeigte sich in Lösungen von Elektrolyten der osmotische Druck, der der in Lösung befindlichen Zahl von Molekülen proportional sein und für eine bestimmte Zahl solcher einen bestimmten Betrag haben sollte, stets größer als der zu erwartende. In der endgültigen Ausarbeitung der Dissoziations- theorie (1887) konnte Arrhenius zeigen, daß der Korrektionsfaktor, den van t'Hof f jedem Elektrolyten zur Darstellung seines Verhaltens beilegte, in nahem Zusammenhang zum Dissoziationsgrad steht, indem die partielle Dissoziation des Elektrolyten durch die mit ihr erfolgende Vermehrung der in Lösung be- findlichen einzelnen Partikel eine Erhöhung des osmotischen Drucks und damit eine Vergrößerung der durch ihn hervorgerufenen Wirkungen, z. B. der Gefrier- punkts- und der Dampfdruckerniedrigung, erzeugt.

Faraday entdeckte 1833 als Folgerung aus seinen Experimentalunter-DasFaradaysche suchungen über Elektrolyse das nach ihm benannte Gesetz „der festen g«»«^«- elektrochemischen Aktion". Derselbe Strom scheidet aus einem bestimmten Elektrolyten unabhängig von dessen Konzentration stets die gleiche Menge eines Ions aus. Diese Menge ist der Stromstärke proportional. Die aus verschie- denen Elektrolyten ausgeschiedenen Mengen sind chemisch äquivalent. Im Sinne der Ionen theorie folgt daraus das Gesetz in folgender Fassung: ,,Ein Grammäquivalent eines Ions ist, unabhängig von der Natur des Ions und un- abhängig von irgendwelchen Bedingungen, stets mit einer bestimmten elektri-

^28 20. H. Starke: Das elektrische Leitungsvermögen

sehen Ladung verbunden. Diese Elektrizitätsmenge heißt Äquivalentla- dung, und hat den sehr großen Betrag von 96540 Coulomb.** Es bedeutet dies also, daß ein Strom von 9,654 Ampere in 10 ooo sec aus beliebigen Elek- trolyten ausscheidet:

1,01 gT ZT; 107,9 gT .4^; ^ - 37,7 g ^«; y - ß g O; y - 4,67 g iV^ usw.

Genanigkeit Es ist bisher kein elektrochemischer Vorgang bekannt, welcher dem Fara-

''^'^sSfuetl? *°d 2t y sehen Gesetz widerspräche. Daher ist dieses Gesetz als ein allgemein- gültiges anzusehen überall dort, wo es sich um elektrolytische Leitung handelt, von den schwächsten bis zu den stärksten Strömen. Freilich ist es in vielen Fällen schwierig, ja unmöglich, quantitative Beobachtungen anzustellen. Ent- weder ist die Form der Ausscheidung, etwa des metallischen Niederschlags, besonders bei hohen Stromdichten, zu Wägungen ungeeignet, oder es treten mannigfache Vorgänge sekundärer Natur auf, chemische Umsetzungen oder, besonders bei gasförmigen Ausscheidungen, Absorptions- und Diffusions- prozesse. Auf Vorgänge der letztgenannten Art ist z. B. der schwache Rest- strom zurückzuführen, der Säurelösungen ohne sichtbare Gasentwicklung dauernd durchfließen kann. Helmhol tz gab (1873 und 1878) die Er- klärung dieses von ihm Konvektionsstrom genannten Stromes im obigen Sinn. Der Frage, ob Elektrolyte ohne Zersetzungserscheinungen von einem elektrischen Strom durchflössen werden können, hat man auch die Fas- sungen gegeben: Haben Elektrolyte außer dem elektrolytischen auch ein metal- lisches Leitungsvermögen ? Bewegen sich in Elektrolyten nur Ionen oder auch Elektronen ?

Diese Frage ist ohne weiteres nicht zu entscheiden. Weil beide Leitungsarten das Ohmsche Gesetz befolgen, so würden die experimentellen Konsequenzen des Faraday sehen Gesetzes bestehen bleiben, auch wenn ein Anteil metalli- scher Leitung vorhanden wäre. Nur müßte dieser prozentuale Anteil in allen Fällen derselbe sein, in allen Elektrolyten bei allen Temperaturen, Konzentra- tionen usw. Auch der oben erwähnte schwache Konvektionsstrom ist nicht durch eine geringe metallische Leitung, sondern durch lonenbewegung verur- sacht. Der sich tatsächlich mit ihm abspielende elektrochemische Prozeß und das Vorhandensein der gelösten Salze ist durch mancherlei Mittel nachweisbar, entzieht sich nur infolge des sekundären Vorgangs der Gasabsorption der di- rekten Beobachtung. Überhaupt gilt allgemein, daß, sobald eine Bewegung der Ionen nicht von einer Ausscheidung derselben an den Elektroden begleitet ist, dies durch sekundäre Prozesse veranlaßt wird. Von unzähligen hier nur ein Beispiel: Wenn eine Lösung, die gleichzeitig Zink-, Kupfer- und Silbersalz ge- löst enthält, elektrolysiert wird, scheidet sich bei nicht zu großer Stromdichte an der Kathode nur Silber aus, obwohl im Innern nachweisbar sich alle drei Ionen an der Elektrizitätsleitung beteiligen. Die Erklärung ist in dem bekann- ten Vorgang der Ausscheidung des edlen Metalls aus seiner Lösung durch ein unedleres zu finden, Kupfer und Zink werden zwar primär ausgeschieden, trei- ben aber, sich selbst dafür hineinsetzend, in einem sekundären elektrochemi-

Gültigkeit des Faradayschen Gesetzes. Leitfähigkeit 429

sehen Prozeß das edlere Silber aus seinem flüssigen Wohnsitz. Alle Unter- suchungen haben, wenn genügende Vorsichtsmaßregeln beobachtet wurden, genaue Gültigkeit des Far ad ay sehen Gesetzes, Unabhängigkeit der ausgeschie- denen Quantität eines Ions von Temperatur, Konzentration, Natur des anderen Ions, Anwesenheit anderer Elektrolyte ergeben. Farad ay selbst nahm noch einen Anteil metallischer Leitung an. Die ersten genauen Versuche an Silber- lösungen stellte H. Buff (1853) an. In bezug auf die anderen sehr zahlreichen Arbeiten muß auf die Spezialwerke verwiesen werden. Daß auch sehr kleine Elektrizitätsmengen, wie der Ladungsstrom einer Leidener Flasche, von ent- sprechendem Zersetzungseffekt begleitet sind, haben S. Soret (1856) sowie W. Ostwald und W. Nernst (1889) nachgewiesen.

Wie bei den Metallen definiert man den spezifischen Widerstand (T eines Eiektroiytitche Elektrolyten als den Widerstand in Ohm eines Würfels von i cm Kantenlänge ^^***"«^***' zwischen zwei parallelen Flächen, die spezifische Leitfähigkeit k als den rezi- proken Wert davon, und pflegt diese Größen im allgemeinen bei der mittleren Zimmertemperatur von 18^ anzugeben. Die Bestimmung pflegt in der Wheat- stoneschen Brückenach F. Kohlrausch zwecks Vermeidung der Zersetzung und der damit verbundenen Störungen mit Wechselströmen und Telephon aus- geführt zu werden. Die Messungen brauchen nicht in ausmeßbar dimensionier- ten Gefäßen zu erfolgen, sondern es können die letzteren beliebige Form haben. Mit genau reproduzierbaren Lösungen (z. B. gesättigter Chlornatriumlösung K18« = 0,2161 ; gesättigter Gipslösung Kis« = 0,cx)i89i u.a.) bestimmt man ein für allemal die Widerstandskapazität C des Gefäßes, d. i. den Widerstand, den eine Lösung k = l (l Ohm pro cm- Würfel) in ihm zeigen würde. Der ge- messene Widerstand der zu bestimmenden Lösung in C dividiert gibt dann deren Leitvermögen.

Zur Charakterisierung der Größenordnung von k sei angegeben, daß es für die bestleitenden Elektrolyte, dies sind die starken anorganischen Säuren in ca. 20— 3o7o wässeriger Lösung, den Wert ca. '/i hat. Ein cm -Würfel hat bei Zimmertemperatur demnach etwa Vs Ohni Widerstand. Das best- und schlechtestleitende Metall, Silber und Quecksilber, haben vergleichsweise die spezifischen Widerstände 0,016 10""^ und 0,958 lO""*, die also rund einem Milliontel bzw. einem Zehntausendstel des kleinsten elektrolytischen Werts gleichkommen.

Während man in der Elektrochemie nach dem Vorgange von FaradayMeciutnismiuder mit dem Namen Ionen die stofflichen geladenen Bestandteile in ihrer Gesamt- *Di^i]Sol**° heit zu bezeichnen pflegt, in welche chemische Verbindungen infolge ihrer Dis- soziation durch ein Lösungsmittel zerfallen, ohne zunächst ihre atomare Struk- tur zu berücksichtigen, ist man in neuerer 2^it besonders von physikalischer Seite her dazu übergegangen, unter Ionen die einzelnen + und geladenen molekularen Partikel zu verstehen, aus denen ein Stoff sich aufbaut. Dies ge- schieht, seitdem man auf die Lösungen die molekularkinetischen Vorstellun- gen anwendet und ganz besonders, seitdem man in der Elektrizitätsleitung durch Gase Mittel gewonnen hat, nicht mehr wie bei der Elektrolyse nur den

43 o 20. H.Starke: Das elektrische Leitungsvermögen

Stoff in seiner Gesamtheit zu beobachten, sondern auch seinen einzelnen mo- lekularen Partikeln beizukommen und das Verhalten dieser letzteren direkter experimenteller Beobachtung zugänglich zu machen. Wir wollen uns dieser physikalischen Bezeichnungsweise anschließen, also unter einem Metall- oder

einem Säureion das einzelne + bzw. geladene Teilchen Ag, NO^ usw. ver- stehen, dessen Bewegung den Strom vermittelt. Die elektrolytische Leitung unterscheidet sich von der metallischen also dadurch, daß es erstens zweierlei, positive und negative, Teilchen gibt, die die Leitung übernehmen, und daß zweitens diese Teilchen nicht freie Elektronen sind, sondern chemische Atome bzw. Atomkomplexe. Man nimmt an, daß die chemischen Ionen aus den be- treffenden ungeladenen Atomen durch Abspaltung oder Aufnahme von Elek- tronen entstehen, und daß jeder Wertigkeit ein Überschuß oder ein Fehlen eines Elektrons entspricht. Auf diese Weise erklärt sich ungezwungen die Un- geladenheit jedes chemischen Moleküls. Ein zweiwertiges Kupferion ist dem- nach ein Kupferatom, dem zwei Elektronen entnommen sind, ein Schwefelsäure-

++ ion ist der Atomkomplex SO^ mit zwei überschüssigen Elektronen [Cu, SO^, ++ -

Ein Cm- Ion tritt mit einem »Jö^-Ion, dagegen mit zwei A^O,- Ionen zu einem un- geladenen Salzmolekül zusammen. Eine Cm »JO^- Lösung ist ein sog. binärer Elektrolyt, dessen Moleküle in zwei Ionen zerfallen. Cu {NO^^ ist Beispiel eines ternären Elektrolyten, der in drei Ionen, das Kupfer- und die zwei Säure- ionen, spaltet.

Nach der Auffassung der Dissoziationstheorie sind die Moleküle der gelösten chemischen Verbindungen durch eine dem Lösungsmittel innewohnende, von seiner Natur und von äußeren Bedingungen, z. B. der Temperatur, abhängige dissoziierende Kraft zum Teil in Ionen aufgespalten. Man hat sich dies nicht so vorzustellen, daß dauernd dieselben Moleküle zerfallen sind, son- dern es findet infolge der lebhaften Molekularbewegung ein fortwährendes Zusammenstoßen der Ionen untereinander und mit den Molekülen statt, wo- durch dauernd erstere sich zu neutralen Molekülen wieder vereinigen und letz- tere neu aufspalten. Gleichgewicht findet statt, wenn beides in gleichem zeit- lichen Betrage geschieht; es ist also kein statisches, sondern ein dynamisches Gleichgewicht. Es ist leicht, aus dieser Betrachtung ein Gesetz für den Disso- ziationsgrad, d. i. den dissoziierten Bruchteil a aller vorhandenen Moleküle aufzustellen. SindinderVolumeneinheit 91 Salzmoleküle eines binären Elektro- lyten gelöst, so sind darin a9l Ionen jeden Vorzeichens und (l a)9l ungespal- tene Moleküle vorhanden. Von den letzteren zerfällt ein ihrer Zahl proportio- naler Bruchteil und in der gleichen Zeit vereinigt sich eine Anzahl von Ionen, die der Zahl der vorhandenen jedes Vorzeichens, also dem Quadrat a^9l' pro- portional ist. Sind P und Q Konstante, so muß im Gleichgewicht

P(I

a)9l

-Öo'

•SR» oder

I-O

p

Q

I

Const. 91

Const

Dissoziationsgrad. Verdünnungsgesetz 431

a*

sein» Dies bedeutet, daß die Funktion - des Dissoziationsgrades a der Mo- lekülkonzentration 92 der Lösung umgekehrt, oder, wie man auch sagen kann, der Verdünnung qp direkt proportional ist.

Dieses sog. Verdünnungsgesetz wurde auf Grund des 1867 von C. M. Guldberg und P.Waage abgeleiteten Massenwirkungsgesetzes als eine für die Arrheniussche Dissoziationstheorie notwendige Folgerung von W. Ost- wald 1888 und gleichzeitig von M. Planck abgeleitet. In der genannten ein- fachen Form gilt es nur für schwächer dissoziierte Elektrolyte, nach Messungen von Ostwald u. a. besonders gut für die organischen Säuren und Basen.

Aus der Formel des Ostw aidschen Gesetzes folgt, daß für immer kleiner werdendes 91, d. h. also mit steigender Verdünnung, a immer mehr der Eins sich nähert. Im Grenzfall der „unendlichen Verdünnung** sind also alle Mo- leküle dissoziiert. Dies erklärt sofort die Eigentümlichkeit des Leitvermögens K, daß dieses, auf eine bestimmte Konzentration, z. B. auf ein im ccm gelöstes Grammäquivalent reduziert, mit steigender Verdünnung einem maximalen Grenzwert zustrebt, der zuletzt bei weiterer Konzentrationserniedrigung sich nicht mehr ändert. Das tritt ein, sobald der Dissoziationsgrad Eins erreicht ist. Die Reduktion auf das sog. Äquivalentleitvermögen A erfolgt dabei durch Proportionalansatz, d. h. es ist das beobachtete k einer Lösung durch deren Konzentration (g pro ccm) zu dividieren und mit dem Äquivalentgewicht zu multiplizieren oder, wie man sich anders ausdrücken kann, es ist k durch die Zahl der im ccm gelösten Grammäquivalente zu dividieren.

Ohne weiteres ist ersichtlich, daß der Quotient aus dem Äquivalentleit- vermögen A einer Lösung und dem Äquivalentleitvermögen derselben Lö- sung, die man durch Zusatz von genügend Lösungsmittel bis zur völligen Disso- ziation gebracht hat, direkt den Dissoziationsgrad a darstellt. Denn das der lonenzahl proportionale Leitvermögen A ist bei 9i im ccm gelösten Molekülen im allgemeinen der Größe a9l, und bei unendlicher Verdünnung der Größe 9i selbst proportional, weil in diesem Fall alle 92 Moleküle dissoziiert sind. Es ist also A

Diese Beziehung zwischen Leitvermögen und Dissoziationsgrad kann in- dessen keinen Anspruch auf völlige Genauigkeit machen, weil für das erstere außer der Anzahl von Ionen auch noch der Reibungswiderstand maßgeblich ist, den die Ionen bei ihrer Bewegung in der Flüssigkeit erfahren. Stärkere Konzentrationsänderungen sind aber nicht ohne Einfluß auf diesen.

Ein überaus großer Fortschritt in der Erkenntnis der Vorgänge bei der überfahnmg Elektrolyse wurde durch die Arbeiten von W. Hittorf (1853— 1859) erzielt, der sein Augenmerk auf die infolge der lonenwanderung in der Lösung sich vollziehenden Konzentrationsänderungen richtete. Er machte dabei die wich- tige Entdeckung, daß Anion und Kation in einer Lösung sich im allgemeinen nicht im gleichen Betrage an der Elektrizitätsleitung beteiligen, sondern in- folge einer verschiedenen Beweglichkeit in einem für eine bestimmte Lösung charakteristischen, aber von Konzentration u. a. m. abhängigen Verhältnis,

+ + +

•8 + +

o a <

+ +

+ + + +

+ + + +

+ + + +

A^2 20- H.Starke: Das elektrische Leitungsvennögen

welches in einer bei der Elektrolyse sich bildenden Konzentrationsverschieden- heit an den Elektroden sich kundgibt und direkt durch diese gemessen wird. Beistehende Figur diene zur Erläuterung. Zwei Flächen A und B mögen eine mittlere, neutrale, keinen Veränderungen der Zusammensetzung unterworfene Schicht des Elektrolyten begrenzen. Links von A sei die Anode, rechts von B befinde sich die Kathode. Die positiven Ionen seien durch Kreuzchen +, die negativen durch Striche dargestellt. Vor Anlegung der elektromotorischen Kraft ist die lonenverteilung eine gleichmäßige (oberster Teil der Figur). Wird

A B ein elektrisches Feld im Elektrolyten

, , , erzeugt, so wandern die + Ionen nach

_ rechts, die Ionen nach links. Nach

, , , , g. einem kleinen Zeitmoment, in welchem §. durch die Grenzflächen A^ B der neutra- len Schicht je ein + Ion ein- bzw. aus- i "^ "'" "^ getreten ist, ist bei gleicher Geschwin- Wff-i. digkeit der —Ionen auch je ein —Ion von rechts in die neutrale Schicht eingewandert und nach links hinausge- gangen. Es werden dadurch in dem Raum an der Anode zwei negative Ionen, an der Kathode zwei positive Ionen frei und an den Elektroden abgeschieden. In beiden Räumen links und rechts von der neutralen Schicht ist jetzt ein lonenpaar weniger vorhanden, an beiden Elektroden hat also eine gleiche Kon- zentrationsabnahme des Elektrolyten stattgefunden (mittlerer Teil der Figur). Anders wenn das eine Ion sich schneller bewegt. Der untere Teil der Figur stellt den Fall dar, daß das geladene Anion sich doppelt so schnell bewegt wie das + geladene Kation. In derselben Zeit, in welcher in die Lösungsschicht zwischen A und B ein 4~ Ion von links eintritt und ein anderes nach rechts hin sie verläßt, findet derselbe Vorgang mit zwei —Ionen statt. Aus der Figur ist ersichtlich, daß auf diese Weise eine Abnahme der Konzentration um zwei lonenpaare (Moleküle) in der Flüssigkeit an der Kathode in derselben Zeit erfolgt, in welcher auf der Seite der Anode ein Molekül verschwindet. An jeder Elektrode werden dabei drei Ionen abgeschieden.

Das Verhältnis der Anzahl der durch die neutrale Schicht nach einer Elek- trode hin wandernden Ionen zu der Anzahl der an einer Elektrode freiwerdenden Ionen hat Hittorf als Überführungszahl bezeichnet. Das Verhältnis der Überführungszahlen beider lonenarten ergibt direkt das Verhältnis ihrer Ge- schwindigkeiten. Die Summe beider Überführungszahlen ist i. Ist also n die Überführungszahl des Anions, so ist i—n diejenige des Kations, und wenn u^ und Uj^ die Geschwindigkeiten der beiden Ionen sind, so ist

u^ : % == n : I n, woraus folgt:

^a «A

n «a : : I n

Im Beispiel der Figur, mittlerer Teil, sind die Überführungszahlen des Anions und Kations gleich Während zwei Ionen an jeder Elektrode frei werden,

Oberfuhrung der Ionen. Unabhängige Ionen Wanderung 433

wandert je eines durch die neutrale Schicht. In dem durch den unteren Teil der Figur veranschaulichten Fall wandert durch den unveränderten Quer- schnitt ein +Ion in derselben Zeit wie zwei —Ionen. Dabei werden an jeder

Elektrode drei Ionen frei. Die Überführungszahl des + Kations ist daher ->

die des Anions--, die Summe beider gleich l. Es entspricht dies demVer-

halten der Ionen in einer nicht sehr konzentrierten Kupfersulfatlösung. In sol- cher Lösung bewegen sich die geladenen •S'O^- Ionen etwa doppelt so schnell wie die + geladenen Ctt- Ionen, sind also an der Leitung etwa doppelt so stark beteiligt als die letzteren. Die Überführungszahlen werden, wie aus dieser Be- trachtung hervorgeht, durch Bestimmung der Konzentrationsänderungen an den Elektroden direkt gewonnen, wozu Gefäße von mancherlei besonders ge- eigneter Form vorgeschlagen worden sind.

Das Leitvermögen A setzt sich nach obigen Ausführungen aus zwei Teilen KobiÄoschi zusammen, deren einer der Bewegung des Kations, deren anderer der Bewegung una"wngig©n des Anions zufällt. Die beiden Anteile stehen im Verhältnis der Bewegungs- ^»»•«^''"derung geschwindigkeiten, nach Vorigem also im Verhältnis der Überführungszahlen der Ionen. F. Kohlrausch fand 1875 und bewies in späteren Jahren (1893, 1898) durch sehr genaue Messungen das überaus interessante und hervorragend einfache Gesetz, daß, wenn man die Leitfähigkeiten bei unendlicher Ver- dünnung der verschiedensten Elektrolyte im Verhältnis der bei größter Ver- dünnung gemessenen Überführungszahlen teilt, man für dasselbe Ion in allen diesen Elektrolyten zu dem gleichen numerischen Wert der lonenleitfähigkeit kommt. Dies bedeutet, daß die Geschwindigkeit jedes Ions unabhängig von der Natur des anderen, also von der Natur des Elektrolyten ist. So beträgt bei- spielsweise die Äquivalentfähigkeit für eine Kochsalzlösung 109 (d. h. bei völliger Dissoziation würde der Widerstand eines ccm- Würfels Kochsalzlösung, der ein Grammäquivalent (58,5 gr) gelöst enthielte, den 109. Teil eines Ohm be- tragen). Die Beweglichkeit und Überführungszahl des Chlorions ist eineinhalb- mal so groß als die des Natriumions, woraus sich die lonenleitfähigkeiten durch

Teilung von 109 in diesem Verhältnis ergeben. Na 43,6, Cl 65,4. Für Bromka- liumlösung ist Aoo = 132,3; die Überführungszahlen bei unendlicher Verdün-

+ nung sind fast gleich, zeigen eine Teilung des Wertes in die Beträge für K 64,7

und Br 67,6. Nach Kohlrauschs Gesetz folgt aus diesen Daten für die Äqui- valentleitfähigkeiten bei unendlicher Verdünnung von iVai3r- Lösung: 43,6 + 67,6 = 111,2 und für iCC/-Lösung: 64,7 + 65,4 = 130,1. Das sind Werte,

die den wirklich beobachteten sehr nahe entsprechen. Die größten Werte der

+ -

lonenleitfähigkeiten haben das H-lon mit 318 und das OH -Ion mit 174.

Das Kohlrauschsche Gesetz gilt ganz streng nur für die Grenzwerte der Leitfähigkeiten und Überführungszahlen in unendlicher Verdünnung, bei wel- cher völlige Dissoziation nach Arrhenius erreicht ist. Diese Grenzwerte der Leitfähigkeiten kann man in vielen Fällen aus Beobachtungen bei endlichen

K. d. G. IIL m. Bd z Phyiik 28

^34 ^^' Starke: Das elektrische Leitungsvermögen

Verdünnungen berechnen, wofür teils empirische, teils auf kinetischen Grund- lagen aufgebaute Formeln, von Ostwald auch eine aus energetischen Prinzi- pien, abgeleitet sind. Sehr angenähert gilt das Gesetz indessen oft auch für weniger verdünnte Lösungen. AbMi«te Die Äquivalentleitfähigkeit A ist gleich der Stärke des Stroms, welcher in

* d^ loniL.*** einer Lösung, die ein Grammäquivalent im ccm enthält, unter der Einwirkung einer Spannung von l Volt pro cm durch die Flächeneinheit fließt. Die Ionen haben dabei eine Geschwindigkeit, die man als ihre Beweglichkeit bezeichnet, und die im allgemeinen für das Kation eine andere u^ ist, als diejenige u^ fürs Anion. Uj^ und u^ stehen im Verhältnis der Überführungszahlen der Ionen in der betreffenden Lösung. Die genannte Lösung enthält aber an jedem ihrer ge- ladenen Bestandteile die Äquivalentladung 96540 Coulomb im ccm, welche mit Uj^ bzw. Ua multipliziert, die durch die Bewegung jeder lonenart durchs qcm in der Sekunde transportierte Ladung ergibt. Daher ist

96540 (u^ + uj = A

die Stromstärke durchs qcm bei l Volt Spannung. Sind n und l n die Ober-

führungszahlen von Anion und Kation, so kann man statt u^ schreiben u^ ,

und es wird

96540.^« A,

woraus man u^ und weiterhin U^ leicht berechnen kann. (£. Budde 1875; F. Kohlrausch 1879.)

So ist z. B. in dem weiter oben bereits benutzten Fall der stark verdünnten

Kochsalzlösung: = 109; « = i n = -^- Also

Uk «— . - « 0,00045 cm/sec für das Na-Ion (Kation),

Ua // = 0,00067 cm/sec für das C/-Ion (Anion).

Man hat sich also den Strom durch einen Elektrolyten als einen nach zwei Rich- tungen sich sehr langsam dahinwälzenden lonenschwarm vorzustellen. Die größte

Beweglichkeit 0,0032 cm/sec hat unter den Ionen das H-Ion.

Die Größe der Beweglichkeit wird durch Erhöhung der Konzentration sowie auch durch Zusatz indifferenter Substanzen (z. B. Essigsäure) erniedrigt.

Ladang des Ions. Um die Laduug dcs einwertigen Einzelions zu finden, hat man die Aqui- ^q^ntom' valcntladung 96540 Coulomb durch die von der Natur des Ions unabhängige

der Elektrizität. 2ahl einwcrtigcr Ionen im Grammäquivalent zu dividieren. Die letztere zu finden, dafür gibt die Elektrolyse keine Mittel an die Hand, dagegen ist die- selbe eine in der kinetischen Gastheorie bekannte Größe. Die für alle Gase gleiche Molekülzahl in der Volumeneinheit bei 0^ C. und dem normalen Druck 760 mm beträgt 2,8 lo** (Loschmidtsche Zahl). Da i gr Wasserstoff 10830 ccm einnimmt und im Molekül zwei Atome enthält, so folgt daraus für Wasser- stoff die Zahl einwertiger Ionen im Grammäquivalent zu 60648 - I0^^

lonenbeweglicbkeit. Elementarquantum der Elektrizität ^3j

An einem einzelnen Wasserstoffion haftet demnach die Ladung ^ ? » ^ .^

o 60648 10"

= 1,59 10"*' Coulomb. Die gleiche Ladung haftet an jedem anderen einwertigen Ion, sowie an jeder Wertigkeit der einzelnen mehrwertigen Ionen. Ein zweiwerti- ges Ion trägt die doppelte, ein dreiwertiges die dreifache usw. Elektrizitätsmenge.

Es ist bisher auf keine Weise gelungen, mit Sicherheit kleinere Elektrizi- tätsmengen als diese am einwertigen Ion haftende Ladung nachzuweisen. Ge- genteilige Beobachtungen sind widerlegt worden und höchstwahrscheinlich auf Fehler zurückzuführen. Dagegen hat man auf mehreren ganz anderen Gebieten dieselbe kleinste Ladung feststellen können. Man hat darum diese Elektrizitäts- menge das Elementarquantum der Elektrizität genannt (vgl. Artikel 13) und ist zu der Ansicht gelangt, daß es kleinere Quanten von Elektrizität über- haupt nicht gibt. Wie der Materie, so weist man also auch der Elektrizität eine atomare Struktur zu (Helmholtz). Die Elementarquanten der Elektrizität haf- ten im allgemeinen an den Atomen der Materie, immer eines an jeder chemi- schen Wertigkeit des Atoms. Ziemlich unabhängig von chemischen Verhält- nissen hat man das elementare Quantum der Elektrizität an den Ionen leiten- der Gase, ferner im doppelten Betrage an den von radioaktiven Körpern in Form der a- Strahlen ausgeschleuderten Atomen des chemisch inaktiven Helium- gases wiedergefunden und messen können. In den Kathodenstrahlen sowie den ß- und b- Strahlen der radioaktiven Körper hat man endlich die bewegten Ele- mentarquanten im freien Zustande gefunden und durch Messungen im Magnet- feld ihre eigene träge Masse ermittelt, die noch ca. 1800 mal kleiner als die des leichtesten chemischen Atoms, des H- Atoms, ist. Weiterhin ist in den Erschei- nungen der Dispersion des Lichts und besonders seit der Entdeckung Zeemans (1896) die Existenz und optische Wirksamkeit der gleichen Teilchen innerhalb der Atome mit Sicherheit festgestellt und durch die elektrischen und thermi- schen Vorgänge in Metallen ihr dortiges Vorhandensein in freiem Zustande höchst wahrscheinlich gemacht worden. Endlich ist auch aus den Gesetzen der Wärmestrahlung die Größe des Elementarquantums bestimmt worden (M. Planck 1902). Man hat diesen Elementargebilden freier Elektrizität, deren universeller Charakter immer mehr und mehr erkannt wird, nach dem Vorgange von Johnstone Stoney (1891) den Namen Elektronen gegeben.

Als Mittelwert für das Elementarquantum der Elektrizität gilt augen- blicklich der Wert 1,56 10""'' Coulomb.

Das Wasser ist in geringem Betrage in H- und OH- Ionen gespalten und be* Leitfähigkeit sitzt eine geringe Eigenleitfähigkeit, die an weitgehend gereinigtem Wasser *** Wassers, von F. Kohlrausch und A. Heydweiller (1894) gemessen worden ist. Die Änderung der Dissoziation mit der Temperatur wurde aus der Dissoziations- wärme des Wassers auf thermodynamischem Wege von Arrhenius berechnet, und diese Rechnung von denselben Beobachtern über ein großes Temperatur- intervall weitestgehend bestätigt.

Viele Salze zeigen auch im festen Zustande eine elektrolytische Leitfähig:- Feste

Rlektrolvtp

keit, die in manchen Fällen von einem Betrage metallischer Leitung begleitet

28

Element.

^36 20. H.Starke: Das elektrische Leitungsvermögen

sein mag, worüber Genaues nicht bekannt ist. Von Interesse ist die von E. Warburg (1884) nachgewiesene elektrolytische Leitung durch Glas, die bei Erwärmung desselben ansehnliche Beträge erreicht und praktische Verwertung darin findet, daß man in abgeschlossene Vakuumröhren von außen her reines Alkalimetall durch lonenwanderung einführen kann. Das Metall scheidet sich als glänzender Spiegel an der Glasoberfläche aus, das leitende Gas in der Röhre bildet die innere Elektrode (Kathode). Auch Quarz zeigt nach E. Warburg und G. Tegetmeier (1887) parallel zur Hauptachse eine elektrolytische Lei- tung, die senkrecht zu dieser Achse nicht auftritt. Kräftige Leitung zeigen er- hitzte Oxyde; diese wird in den Nernst- Glühlampen (1899) technisch verwertet. Osmotitche Tbe- Wie die koutakt- und thermoelektrischen Erscheinungen in den Metallen ^Gaivanu^w^ zur Elcktroneutheorie der metallischen Leitung, so steht das Auftreten elek- tromotorischer Kräfte in Elektrolyten zur lonentheorie der elektrolytischen Leitung in naher Beziehung. Wie dort so kann man auch hier von zwei Seiten an die Lösung einzelner Probleme herantreten, entweder durch Überlegungen allgemeiner thermodynamischer Art oder durch spezielle molekularkinetische Vorstellungen. Beide Wege dürfen nicht zu einander widersprechenden Resul- taten führen, wenn die letzteren nicht des Anspruchs auf eine richtige Darstel- lung des Vorgangs verlustig gehen sollen. Die Anwendung der Vorstellungen eines osmotischen Druckes der Ionen auf die einschlägigen Erscheinungen hat in erster Linie W. Nernst (1889) eingeführt. Es sind im wesentlichen die glei- chen Betrachtungen, welche später auf die Elektronen in Metallen erweitert und oben bereits kurz skizziert worden sind, mit dem Unterschied, daß die Ver- hältnisse hier durch die Bewegung zweier Teilchengattungen, nämlich positiv und negativ geladener, um ein Geringes komplizierter werden. Grenzen zwei elektrolytische Lösungen verschiedener Konzentration aneinander, so tritt infolge der verschiedenen osmotischen Drucke ein Diffusionsprozeß ein. Wenn unter den treibenden Kräften beide lonenarten gleich schnell wandern, so tritt mit dem Vorgang der Diffusion kein weiterer elektrischer ein. Sobald aber die Wanderungsgeschwindigkeit eine verschiedene, z. B. für das negativ geladene Ion eine größere ist, muß sogleich mit dem Konzentrationsgefälle auch ein elek- trisches Potentialgefälle auftreten, indem in diesem Fall die verdünntere Lö- sung einen kleinen Oberschuß negativer Ionen erhält, so lange, bis infolge der durchs Feld verursachten Verzögerung der negativen Ionen die Geschwindigkeit beider lonenarten gleich groß wird. Dann geht der Diffusionsprozeß für beide Ionen in gleicher Weise, also ohne weitere elektrische Veränderungen, vor sich. Die rechnerische Durchführung der theoretischen Betrachtung ergibt eine zwi- schen zwei Lösungen verschiedener lonenkonzentrationen resultierende elektro- motorische Kraft der sog. Konzentrationskette, die der Differenz der Ionen- beweglichkeiten, ferner dem mittleren Wert der Beweglichkeiten selbst sowie dem Logarithmus des Konzentrationsverhältnisses proportional ist.

Um auch die elektromotorische Kraft zwischen einer Lösung und einem in dieselbe tauchenden Metall zu erklären, die speziell im galvanischen Element die Hauptrolle spielt, führte Nernst folgende neuartige Anschauung ein. Der

Konzentrationskette. Lösungsdruck. Gasionen 43 y

osmotische Druck treibt die in Lösung befindlichen Metallionen ins Metall hin- ein. Dagegen besitzen die Metallatome ihrerseits ein Bestreben, als Ionen in Lö- sung zu gehen, welches einem Lösungsdruck (Lösungstension) zuzuschreiben ist. Gleichgewicht wird sein, wenn infolge des osmotischen Drucks aus der Lösung gleich viel Ionen sich ausscheiden, als infolge des Lösungsdrucks aus dem Metall in Lösung gehen. Diese Vorstellung erklärt die Tatsache, daß alle Metalle, in reines Wasser tauchend, dadurch, daß sie + Ionen an dasselbe abgeben, sich in einem von der Natur des Metalles abhängigen Betrage negativ aufladen, während, wenn ein Metall in eine konzentriertere Lösung eines seiner Salze taucht, sich dasselbe umgekehrt polarisieren kann. Dieser Fall tritt ein, wenn der osmotische Druck der gelösten Ionen größer ist als die Lösungstension. Die ältere, thermo- dynamische Theorie der galvanischen Elemente, die ohne spezielle Hypothesen durch die Anwendung der Hauptsätze der mechanischen Wärmetheorie auf die bei Stromdurchgang im Element sich abspielenden thermischen Vorgänge aus diesen die elektromotorische Kraft zu berechnen erlaubt, ist von Sir William Thomson (Lord Kelvin) (1851) und von H. Helmholtz (1882) zuerst ausge- arbeitet worden.

IV. Elektrizitätsleitung in Gasen. Gase und Dämpfe sind, wenn AUgomemea. man von einem äußerst geringen Leitungsvermögen, das sie je nach den äuße- ren Bedingungen in etwas verschiedenem Betrage zeigen, und welches bereits Coulomb bei seinen elektrostatischen Messungen als isolationsstörend aufge- fallen war, absieht, im natürlichen Zustand als vollkommene Isolatoren anzu- sehen. Durch stärkere Erhitzung, Einwirkung von glühenden Körpern, von kurzwelligem Licht, von Kathoden- oder Röntgenstrahlen sowie den Strahlungen radioaktiver Körper können sie indessen eine bedeutende Leitfähigkeit erlan- gen, ebenso wie sie auch aus dem isolierenden in einen stark leitenden Zustand durch den Einfluß eines stärkeren elektrischen Feldes versetzt werden können. Diese Erscheinungen sind zum großen Teil bereits seit langer Zeit bekannt. In quantitativer Hinsicht zeigte sich stets eine große Kompliziertheit der Er- scheinungsform, wesentliche Abhängigkeit von äußeren Umständen, Ungültig- keit des Ohmschen Gesetzes, Abhängigkeit des Widerstandes von Stärke und sogar von der Richtung des Stromes u. a. m. Die Vorstellung, daß es bewegte geladene Teilchen, Ionen, seien, die von eben genannten Ionisatoren im Gase erzeugt die Leitung im Gase vermitteln, ist zuerst wohl von W. Giese (1882) ausgesprochen worden. Das Verdienst, der lontntheorie für die Gase ihren quantitativen Inhalt gegeben zu haben, kommt J.J.Thomson zu, der seit 1 896 im Verein mit seinen Schülern das Gebiet durch theoretische und experi- mentelle Untersuchungen in hervorragender Weise aufgeklärt hat. Dieselben sind zusammenfassend in seinem Werke „Conduction of electricity through gases" behandelt.

Die Zahl N der in der Volumeneinheit eines Gases pro Sekunde erzeugten Ionen eines Vorzeichens ist ein direktes Maß für die Wirkung des Ionisators. Man hat die Ionisierung als eine Abspaltung von Elektronen aus neutralen Gasmolekülen anzusehen. Die Elektronen lagern sich in dichteren Gasen schnell

438 20* H. Starke: Das elektnsche Leitungsvermögen

an neutrale Gasmoleküle oder -atome an und bilden so die negativen Ionen, während der positiv geladene Rest das positive Atomion darstellt. In Gasen geringer Dichte und in solchen großer chemischer Indifferenz (Helium^ Argon usw. ) ist die Anlagerungstendenz gering, und das Elektron beharrt mehr in seinem freien Zustande. Endlich sprechen manche Erscheinungen dafür, daß den Gas- ionen sich unter Umständen ganze Molekül- oder Atomkomplexe anlagern. Die so entstehenden schwereren Gebilde werden nach einem Vorschlag von J. Stark

Wieder. woU auch Molionen genannt. Durch die bekannten Ionisatoren werden die Gase Vereinigung, jjj^j^^ entfernt vollständig, sondern vielmehr nur zu einem sehr geringen Bruch- teil ionisiert, indem durch die Molekularbewegung die gebildeten Ionen zusam- menstoßen, sich zu neutralen Teilchen wiedervereinigen, und so also der ionenbildenden eine ionenvermindernde Wirkung entgegengestellt ist. Letztere gibt sich auch schon dadurch zu erkennen, daß ein Gas nach Aufhören der ionisierenden Wirkung schnell seine Leitfähigkeit spontan verliert.

Im Gleichgewicht sind beide Wirkungen gleich groß; also, da die letztere der im ccm enthaltenen lonenzahl n jedes Vorzeichens, d. h. der Größe »S proportional ist, besteht die Beziehung

N = an\ worin a die sog. Wiedervereinigungskonstante bedeutet.

Nehmen wir jetzt an, der Raum zwischen zwei Plattenelektroden werde durch einen Ionisator, z. B. Röntgenstrahlen ionisiert, die N Ionen jedes Vor- zeichens in der Sekunde erzeugen. Im stationären Gleichgewicht seien n Ionen jedes Vorzeichens im ccm enthalten. Jetzt werde eine schwache Potential- differenz den Elektroden erteilt. Alsbald beginnen die Ionen in dem elektri- schen Feld zu wandern, es fließt ein Strom positiver und negativer Ionen durch das Gas, der durch das Quadratzentimeter, wenn U und V die Geschwindig- keiten des + und —Ions sind, sekundlich die Elektrizitätsmenge

i==ne{U+V) befördert. Es ist dies die Stromstärke in Ampere, wenn die Ladung eines Ions in Coulomb gemessen ist. Das Experiment zeigt, daß bei kleinen Potential-

ohmsches differenzen in Gasen normaler Dichte das Ohmsche Gesetz gilt. In schwachen **•**• Feldern ist die lonengeschwindigkeit gering, es wird darum die Zahl n durch die lonenbewegung nicht merklich beeinflußt, woraus im Verein mit dem Ohmschen Gesetz folgt, daß U und V der Feldstärke proportional sind. Dies bedeutet, daß, etwa so wie ein fallendes Nebelbläschen, die Ionen im Gase keine bleibende Beschleunigung erfahren, sondern schnell eine konstante, der auf sie wirken- den Kraft proportionale Geschwindigkeit annehmen. Diese Betrachtung zeigt auch, wann ein Versagen des Ohmschen Gesetzes zu erwarten ist. Erstens in verdünnten Gasen, weil in diesen die Reibung zu klein wird, und die Ionen dar- um eine beschleunigte Bewegung im elektrischen Felde ausführen, zweitens aber, und dies in allen, auch dichten Gasen, sobald in der obigen Formel n nicht konstant ist. Dies tritt aber ein, wenn die Feldstärke und damit die lonen- geschwindigkeit so hohe Werte annehmen, daß die Ionen zum Teil sich nicht mehr wiedervereinen können, sondern vorher durch das Feld an die Elektroden

Elektrische Strömung in Gasen 43 g

befördert werden. Der Grenzfall ist der, daß das Feld so stark ist, daß kein lonenpaar zur Wiedervereinigung kommt, sondern alle erzeugten Ionen im Leitungsraum sogleich zum Stromtransport verwendet werden. Dann kann die Stromstärke mit steigender Spannung überhaupt nicht mehr wachsen, es ist der sog. Sättigungsstrom erreicht. Es ist ohne weiteres klar, daß dieser der Zahl N, also der Stärke des Ionisators proportional, mithin ein Maß für diese ist. Ferner ergibt sich auch direkt, daß der Sättigungsstrom dem Volu- men des Leitungsraumes proportional sein, d. h. mit dem Abstand der Elektro- den wachsen muß. Es erklärt sich auf diese Weise ungemein einfach eine der fundamentalen, zunächst aber sehr paradox aussehenden Erscheinungen der Elektrizitätsleitung durch Gase, daß der elektrische Widerstand einer Gasstrecke mit wachsendem Elektrodenabstand kleiner werden kann.

Während in Gasen schon bei relativ geringen Strömen Abweichungen vom Ohmschen Gesetz sich zu zeigen beginnen, sind in Elektrolyten solche Abwei- chungen selbst bei sehr hohen Stromstärken nicht beobachtet worden. Dies Verhalten erklärt sich dadurch, daß in Elektrolyten die lonenbewegung wegen der viel größeren Reibung eine wesentlich, ca. 1000 mal, langsamere ist als in Gasen von normaler Dichtigkeit, und dadurch, daß die Nachproduktion der Ionen eine ungemein schnelle ist. In Elektrolyten ist die lonenkonzentration n von der Stromstärke daher völlig unbeeinflußt, femer die Bewegung der Ionen bei der großen Reibung beschleunigungslos, womit die Gültigkeit des Ohmschen Gesetzes gewährleistet ist.

Wird nach Erreichung des Sättigungsstromes die Feldstärke weiter erhöht, lonenstofi. so beginnt von einem gewissen Wert derselben an die Stromstärke wieder ziemlich rapide zu steigen, die Entladung im Gase geht dann unter Umständen bald in eine leuchtende Form, die sog. Glimmentladung, über oder nimmt auch, je nach den äußeren Bedingungen, den disruptiven Charakter der Funkenent- ladung an. Die Erklärung fand J. J. Thomson in der eigentümlichen Fähig- keit der bewegten Ionen, durch den Aufprall auf neutrale Gasmoleküle diese in Ionen zu zerspalten, sobald die Bewegungsenergie einen gewissen charakteri- stischen Betrag überschreitet. Da die Gase, wie eingangs erwähnt, stets gerin- ges Leitvermögen zeigen, also einige wenige Ionen enthalten, so erklärt sich hieraus gleichzeitig die Tatsache, daß auch ohne besondere äußere Einwirkung eines Ionisators eine selbständige Entladung durch Gase eintreten kann, sobald nur genügend hohe elektrische Spannungen auf dieselben einwirken. Das Ion muß, um die Fähigkeit zur Stoßionisierung zu erlangen, ein gewisses Minimum von elektrischer Spannung frei durchlaufen, welches man lonisie- rungsspannung nennt. Dieselbe ist für das negative Elektron wesentlich kleiner (10—50 Volt) als für das positive Ion (100—500 Volt). Die diesen Spannungen entsprechenden Geschwindigkeiten, die das positive bzw. nega« tive Ion haben müssen, um eine zur Stoßionisierung ausreichende kinetische Energie zu besitzen, sind t;^. = ca. 8- io*cm/sec; i;_= ca. 3 io®cm/sec. Das sind Geschwindigkeiten, die groß sind gegen die der Molekularbewegung, die selbst bei 1 000^ erst von der Größenordnung i o* cm/sec ist. Bei konstant bleibender Gas-

440 20. H.Starke: Das elektrische Leitimgsvennögeii

dichte ist mithin die lonisieningsspannung praktisch unabhängig von der Tem- peratur.

AnftreicB heter Wenn durch ein gleichmaßig ionisiertes Gas, das sich zwischen zwei Me- ^ tallplatten befinden möge, kein Strom fließt, so sind die + und Ionen gleich- mäßig verteilt, das Gas weist daher nirgends einen Überschuß freier + oder Ladung auf. Dies wird anders, wenn zwischen den Platten ein elektrisches Feld besteht. Dann wandern die + Ionen nach der Kathodenplatte, die Ionen nach der Anodenplatte hin, es muß daher vor jeder Platte ein Über- wiegen der ihrem Ladungsvorzeichen entgegengesetzten Ionen stattfinden, und nur in einer dünnen Schicht zwischen den Platten + und Ladung in glei- chem Betrage vorhanden sein. Diese Indifferenzschicht liegt, wie unschwer einzusehen, symmetrisch in der Mitte zwischen den Platten, wenn + und Ion sich gleich schnell bewegen, dagegen näher an der + Platte, wenn die Beweg- lichkeit des Ions größer ist als die des + Ions, und umgekehrt. Diese jeder Platte sich vorlagernden Wolken entgegengesetzter Elektrizität sind nicht Peidvertetim«, ohne Einfluß auf die Feldverteilung im Zwischenraum der Platten, bewirken vielmehr, daß in der Nähe jeder Platte das Spannungsgefälle größer wird, dafür im mittleren Zwischenraum abnimmt. Die Spannungskurve besitzt demnach einen Wendepunkt, der an der Stelle der Indifferenzschicht liegt, und, wie man durch eine einfache Rechnung zeigen kann, im Falle des Sättigungsstromes von den Platten Entfernungen zeigt, die im Verhältnis der lonengeschwindig- keiten stehen. Man hat also in der experimentellen Messung des Spannungs- verlaufs ein Mittel, das Beweglichkeitsverhältnis der Ionen entgegengesetzten Vorzeichens zu bestimmen. Es ergibt sich dabei immer eine etwas größere Geschwindigkeit des negativen Ions (C. D. Child 1898).

lonuatsossgrad. Es ist nur ein sehr geringer Bruchteil der vorhandenen Gasmoleküle, der ionisiert ist. In einem Versuch von J. J. Thomson und E. Rutherford (1896) betrug der Sättigungsstrom pro Quadratzentimeter zwischen zwei 10 cm ent- fernten Platten in röntgenbestrahltem Wasserstoff io~" Ampere. Da der

Strom I Ampfere elektrolytisch lo~^ gr = ca. 0,1 ccm Wasserstoff von Atmo- sphärendruck in der Sekunde ausscheidet, so würde obiger Sättigungsstrom also

eine an io~" ccm Wasserstoff haftende Elektrizitätsmenge in der Sekunde

transportieren, d. h. dieses Volumen wird durch die Röntgenstrahlen in der Sekunde völlig ionisiert und an die Elektrodenplatten befördert. Es ist also ein Bruchteil von der Größenordnung einiger Billiontel des vorhandenen Volumens, der durch die Röntgenstrahlen dissoziiert wird, und darum ist jeder Versuch, die Ionisation durch eine Druckänderung nachweisen zu wollen, von vornherein aussichtslos. lonenbewegUch- Zur Ermittlung der Geschwindigkeit, mit welcher sich die Gasionen im ßMtimmraJ* elektrischen Felde bewegen, gibt es mehrere direkte Methoden, die von J. J. Thomson, E, Rutherford, J. Zeleny ausgearbeitet und zu Messungen ver- wertet worden sind. Die älteren derselben beeinflussen die Bewegung des Ions durch Erzeugung eines Gegen- oder Seitenwindes, der das Ion mitführt. Bläst

Geschwindigkeit der lonenbewegung 441

man z. B. dem Ion einen Luftstrom entgegen, dessen Geschwindigkeit der des Ions im elektrischen Feld gleich ist, so wird dessen Bewegung abgestoppt, was man sogleich an dem Ausbleiben der elektrischen Strömung erkennt. Die ge- naueste, und bei neueren Messungen mehrfach verwendete Methode ist die Rutherf ordsche Wechselstrommethode (1898), die zunächst in allen Fällen anwendbar ist, wo die Leitung durch das Ion eines Vorzeichens, das positive oder das negative, vermittelt wird. Das sind die Fälle, wo die lonenerzeugung an einer Elektrode vor sich geht. Man kann aber durch gewisse Kunstgriffe sie auch für die Fälle verwendbar machen, wo durch Ionisierung des Gases beide lonenarten erzeugt werden. Das Prinzip der Methode ist, daß man die an einer Elektrode erzeugten Ionen, z. B. die negativen aus einer ultraviolett belich- teten Zinkplatte befreiten und sich für gewöhnlich sogleich an Gasatome bin- denden Elektronen, einem schnellen elektrischen Wechselfeld unterwirft. Die Ionen führen dann eine hin- und hergehende Bewegung aus, die bei gegebenem Maximalfeld um so weiter ausholt, je größer ihre Beweglichkeit ist. Eine mit Elektroskop verbundene Metallplatte, der ersteren in größerer Entfernung ge- genübergestellt, wird von den Ionen zunächst nicht erreicht werden; nähert man sie aber der ionenliefernden Platte allmählich, so kommt man zu einer Stelle, wo die hin- und herfliegenden Ionen auf sie aufzutreffen beginnen, was sogleich durch eine Aufladung kenntlich wird. Aus dieser Grenzentfernung der Platten und den elektrischen Bedingungen ist die Beweglichkeit der Ionen in sehr ein- facher Weise zu ermitteln.

In Gasen normaler Dichte ist die Beweglichkeit (Geschwindigkeit im elek- trischen Felde i Volt/cm) von der Größenordnung eines Zentimeters und um so größer, je leichter das Gas ist, ferner größer fürs negative als fürs positive Ion. Feuchtigkeit vermindert die Beweglichkeit. Druckerniedrigung erhöht die Be- weglichkeit bedeutend, ganz besonders die des negativen Ions, so daß man anzu- nehmen hat, daß dieses bei kleineren Drucken sich des Ballastes neutraler Gas- moleküle entledigt und sich als freies Elektron bewegt. Dasselbe ist, wie die hohe Beweglichkeit des Ions in der Flamme (ca. 1000 cm/sec) erkennen läßt, bei sehr hohen Temperaturen der Fall, sowie unter normalen Druck- und Temperatur- verhältnissen im reinen Stickstoff und den sog. Edelgasen (Argon, Helium), was mit deren chemischer Trägheit in naher Beziehung stehen mag. Unter nor- malen Verhältnissen ist nach Zeleny sowie J. Franc k beispielsweise die Beweg- lichkeit für: trocken feucht

^- ü+ «^— v_^

Kohlensäure .... 0,81 0,76 0,75 0,82

Luft 1,87 1,36 1,51 1,37

Wasserstoff 7,95 6,70 5,60 5,30

Stickstoff 144 1,27 1,7

Helium 160 5,09

Argon 206 1,37 1,7 (1% öj beigemengt).

Wie Feuchtigkeit wirken überhaupt geringe Beimengungen elektronegativer Gase (Sauerstoff, Chlor u. a.) verzögernd auf das negative Ion, so daß Spuren

4^.2 20. H. Starke: Das elektrische Leituhgsvermögen

derselben den hohen Beweglichkeitswert im Stickstoff und den Edelgasen auf den gewöhnlichen Wert herabsetzen. Man hat diese Wirkung wahrscheinlich als eine Herabsetzung der Zeitdauer, welche das Elektron frei, ohne Bindung an ein Gasatom, verlebt, zu erklären, indem die Moleküle des beigemengten Gases die Elektronen mit einer Kraft an sich ziehen, die den Edelgasen fehlt. Hiermit in direktem Zusammenhang steht die von E. Warburg beobachtete außergewöhnlich gute Leitfähigkeit der aufs äußerste gereinigten inaktiven Gase für negative Spitzenentladung, sowie das eigentümliche Verhalten der- selben bezüglich ihres spektralen Leuchtens, das durch relativ geringe Bei- mengungen zum Verschwinden gebracht wird. lonenbewegUch- Das Verhältnis der lonenbeweglichkeiten im elektrischen Felde kann, Bestimm^g. ^^^ ^^en bcreits erwähnt wurde, aus dem Potentialverlauf in einem durch- strömten Gase durch die Lage des Wendepunktes der Potentialkurve ermittelt werden. Einen weiteren Weg, diese Größe zu finden, gibt die experimentelle Ermittlung der Diffusion der Ionen. Wie die Gasmoleküle, so strömen auch die Ionen unter der antreibenden Kraft ihrer Partialdrucke nach ionenärmeren Orten hin, und die Geschwindigkeit dieser Diffusion hängt wie die des Strö- mens im elektrischen Felde direkt von der Beweglichkeit der Ionen ab. Durch Vergleich der Diffusionsgeschwindigkeiten des + und Ions gewinnt man daher auch das Beweglichkeitsverhältnis. Diesen Weg zur Bestimmung hat J. S. Townsend durch Messung der Diffusionskoeffizienten beschritten.

Da man ferner noch einen Weg hat, auch die Summe der lonenbeweglich- keiten zu bestimmen, so gibt uns die Ermittlung des Verhältnisses derselben gleichzeitig die Möglichkeit, die Werte der Beweglichkeiten selbst indirekt zu finden. Um die Summe v^ + t;_ der Geschwindigkeiten zu kennen, hat man nur an das Ergebnis in dem zweiten Paragraphen dieses Abschnitts anzuknüpfen, nach welchem der Strom durch ein leitendes Gas im Felde von der Stärke Eins pro

qcm durch den Ausdruck / . x

i = ne {v_^ + vj)

gegeben ist. Außer diesem Strom hat man also nur noch die Größe n 6, d. i. die Ladung der in der Volumeneinheit des Leitungsraums befindlichen Ionen, zu bestimmen. Dies geschieht durch ein plötzliches Abstoppen der lonisator- wirkung und gleichzeitiges Anlegen eines kräftigen elektrischen Feldes, das alle vorhandenen Ionen, bevor sie sich wiedervereinigen können, aus dem Leitungs- raum an die Elektroden befördert. Die mitbeförderte Ladung hat man zu messen. Bestimmung der Die loucu haben, wie zuerst R. Helmholtz in dem bekannten Dampf- a ung es ons. g^f ^hlvcrsuch fand, mit Staubteilchen die merkwürdige Eigenschaft gemein, Kondensationskerne für den Niederschlag von Wasserdampf zu bilden. Diese Eigenschaft verwertete zuerst J. S. Townsend (1898), sodann J. J.Thom- son (1899) zur Bestimmung der am einzelnen Ion haftenden Ladung. In einer durch Expansion dampfgesättigter Luft erzeugten Nebelwolke kann man aus der Fallgeschwindigkeit der Bläschen deren Größe nach einer von G. S tokos angegebenen Formel berechnen. Aus der durch Wägung oder aus der bei der

Ladung der Ionen 443

Expansion und Kondensation eintretenden Temperaturänderung thermodyna- misch zu findenden Niederschlagsmenge findet man sodann die Zahl der Nebel- bläschen, die als mit der lonenzahl identisch anzusehen ist, sofern jedes Ion als Kondensationskern auftritt. Die von der niedergesunkenen Wolke einer Metallplatte mitgeteilte Ladung durch die Zahl geteilt ergibt sodann die La- dung des Einzelions. Erheblich verbessert wurde diese Methode durch H. A. Wilson (1903) und neuerdings R. A. Millikan, F. Ehrenhaft sowie E. Regen er, welche lediglich aus der Fallgeschwindigkeit der Nebelbläschen und deren Änderung durch ein vertikales elektrisches Feld die Ladung fest- stellen konnten. Nach allen Methoden ergab sich für die lonenladung der ab- gerundete Wert 3 •IQ-" elektrostatische Einheiten.

Zu erwähnen ist, daß sich auch an den geladenen Heliumatomen, welche in Form der sog. a- Strahlen mit großer Geschwindigkeit beim Zerfall radioak- tiver Substanzen ausgesendet werden, der Wert der lonenladung, allerdings in seinem doppelten Betrage, wiedergefunden hat. Dieser Wert, den E. Ruther - f ord und R. Geiger, sowie in anderer Weise E. Regener durch eine direkte Zählung der a- Strahlteilchen haben ermitteln können, ergibt die lonenladung in einem um die Hälfte höheren Betrage als die älteren Methoden und befindet sich in fast völliger Übereinstimmung mit dem auf ganz anderem Wege, näm- lich aus den Strahlungsgesetzen von M. Planck gefundenen. Der zurzeit als der wahrscheinlichste akzeptierte Wert des Elementarquantums ist; 4,7*io"^*'elektrostat. = i,56'io~"*°elektromagnet.Einh.= i,56'io''*^Coulomb. BeUpiei©

Nur in groben Umrissen können hier die Einzelfälle von Gasionisierung be- "^EiekteiSS*' handelt werden. Elektromagnetische Strahlungen besitzen bei kurzer Wellen- leit^os^urch länge die Fähigkeit, aus der Materie Elektronen zu befreien. Die Lichtstrahlen zeigen dieses Vermögen bis zu um so längerer Wellenlänge, je elektropositiver der bestrahlte Körper ist ; so zeigen die Alkalimetalle Rb, ÜC, Na den photoelek- trischen Effekt für sichtbares Licht (Elster und H. Geitel), während bereits Zink, bei welchem der Effekt im Anschluß an Versuche von H. Hertz zuerst von W, Hallwachs (1888) entdeckt wurde, denselben nur im ultravioletten Licht aufweist. Dasselbe gilt mehr noch für die Metalle, die weiter nach der elektronegativen Seite der Spannungsreihe zu liegen. Gase werden nach Ph. Lenard nur von sehr intensivem kurzwelligen Licht ionisiert. Röntgenstrah- len, welche nach den Ergebnissen der Beugung an Spalten (H. Haga und C. H. Wind 1899, B.Walter und R. Pohl 1908, A. Sommerfeld, P.P.Koch 191 2) und den sehr interessanten Interferenzerscheinungen in den Raum- gittern von Kristallen (M. Laue mit W. Friedrich und P. Knipping 1912) als sehr kurzwellige (X = ca. io~~^ cm) Strahlen aufzufassen sind, machen aus aller Materie Elektronen frei; auch die Gasionisierung ist wohl in diesem Sinne zu verstehen. Die Elektronen werden explosionsartig aus der Materie herausgeschleudert und fliegen in evakuierten Räumen als kathodenstrahl- ähnliche Strahlen auf weite Strecken hin. Durch elektrische und magnetische Beeinflussung hat man sie als solche erkennen können. Die Geschwindigkeit, mit welcher sie die Materie verlassen, steigt mit abnehmender Wellenlänge

^.^4 20. H. Starke: Das elektrische Leitungsvermögen

der einwirkenden Strahlung und erreicht daher bei Röntgenstrahlen un- gemein hohe Werte. Die zur Elektronenbefreiung bzw. Ionisierung erforder- liche Energie wird der Strahlung entnommen, letztere erleidet daher bei dem Vorgang eine Absorption. Dasselbe gilt für die Ionisation durch Korpuskular- strahlen (Kathoden-, Kanalstrahlen, a-, ß-Strahlen radioaktiver Körper), welche auch Elektronen aus bestrahlten Körpern in Form der sog. Sekundärstrahlen befreien. Erhitzung von Körpern auf Rotglut hat an ihrer Oberfläche einen noch nicht ganz geklärten lonisationseffekt zur Folge, der in seiner Art stark von der Natur des umgebenden Gases abhängt. Ein rotglühender Platindraht erzeugt in Luft kräftig positive Ionen, in Wasserstoff kehrt das Vorzeichen aber um. Erhitzung auf Weißglut hat, namentlich besonders stark bei den Oxyden alka- lischer Erden, eine sehr intensive Elektronenaussendung zurFolge (Wehnelt). Die schönen Kathodenstrahlerscheinungen sind von A. Wehnelt (1903) unter- sucht worden. Kräftige Elektrizitätsleitung zeigen Flammen, besonders wenn sie mit Salzdämpfen von Alkalien oder alkalischen Erden beschickt werden. Die eigentümlichen Verhältnisse bei der Flammenleitung, das charakteristische Potentialgefälle, das sich fast völlig auf die nächste Umgebung der Kathode beschränkt, und die daraus sich ergebende sog. Unipolarität der Leitung, d. i. die Abhängigkeit des Flammenwiderstandes von der Stromrichtung, erklären sich zum großen Teil aus der sehr großen Beweglichkeit des negativen Ions, das seinen Weg zumeist als freies Elektron zurücklegt. Zu erwähnen sind end- lich noch eigentümliche Inhomogenitäten, die bei der Ionisation von Gasen durch a- Strahlen auftreten. Es zeigte sich, daß in diesem Fall erst bei höheren elektrischen Feldern als gewöhnlich Sättigungsstrom eintritt. Bragg schloß daraus auf ein anfänglich stärkeres Wiedervereinigungsvermögen (initial re- combination), hervorgerufen durch eine geringere Ausgangsgeschwindigkeit der negativen Teilchen. Neueste Untersuchungen haben weiter ergeben, daß Sät- tigungsstrom in einer Feldrichtung senkrecht zur Bahn der a- Strahlen leichter eintritt als in der Strahlrichtung. Es scheint ein a- Strahl ein röhrenförmiges Gebilde konzentrierterer Ionisation um sich zu erzeugen. Townsends Die Thomsonsche Stoßtheorie (s. weiter oben) ist von J. S. Townsend

der«IibrtäL*digen(^9^3) ^^ ^^^S^^dem, Übersichtlichem Beispiel theoretisch und experimentell Eiektritit&ts- verfolgt worden. Zwei größere Platten stehen in einem Gas einander in nicht

leitung

durch Gase. ZU großer Entfcmung gegenüber, so daß das elektrische Feld zwischen ihnen als gleichmäßig verteilt angenommen werden kann. Es mögen aus der Kathoden- platte, etwa durch Bestrahlung, eine gewisse Zahl von negativen Teilchen in der Sekunde hervorkommen. Das Feld wird ferner als so groß vorausgesetzt, daß sogleich Stoßionisierung eintritt, und die so erzeugten + und Ionen keine Zeit zur Wiedervereinigung haben, sondern sämtlich durch das Feld an die Elektroden befördert werden, wobei sie aber unterwegs fortwährend durch Auf- prall auf neutrale Gasmoleküle diese in neue Ionen zerspalten. Eis ist ersicht- lich, daß durch diese Stoßionisation, indem jedes neu gebildete Ion sofort selbst neue durch Stoß erzeugt, die in der Sekunde an die Anode gelangende Anzahl von Ionen lawinenartig mit dem Plattenabstand a wachsen muß. Wird bei

Townsends Theorie der Entladung 445

der Variation des Plattenabstandes das Feld durch entsprechende Veränderung der Potentialdifferenz der Platten konstant erhalten, so ist die zur Anode ge- langende lonenzahl, d. i. also der von der Anode abfließende negative Strom in verhältnismäßig einfacher Weise berechenbar. Wenn gleichzeitig auch der Umstand in Rechnung gezogen wurde, daß auch die gebildeten positiven Ionen ihrerseits, wenn auch in schwächerem Betrage als die negativen, durch Stoß ionenbildend wirken, so ergab sich eine ausgezeichnete Übereinstimmung von Beobachtung und Rechnungsresultat.

Die Townsendsche Theorie erlaubt nun aber auch noch eine weitere Funken-,

f*llfrnii

interessante Anwendung. Es ergibt sich nämlich, daß, wenn unter Konstant- Bogenonti»dimg. haltung des elektrischen Feldes der Plattenabstand allmählich erhöht wird, der Strom bald ungemein schnell zu wachsen beginnt, um dann bei selbst geringer Abstandsvermehrung auf enorme Werte zu steigen. Der Abstand, bei dem dies eintritt, ist aus der Theorie in einfachster Weise zu berechnen. Sobald er er- reicht ist, kann der Strom kein kontinuierlicher mehr sein, sondern es muß ein plötzlicher Übergang der bis dahin nicht leuchtenden Entladung in eine intensive, mit Leuchterscheinungen verbundene Form der Entladung statt- finden. Townsends Versuche ergaben auch in dieser Hinsicht eine sehr gute Bestätigung der Theorie. Wird bei solchem Versuch den Elektroden keine Elek- trizität weiter zugeführt, so wird die Entladung sogleich wieder erlöschen, es findet eine einmalige Entladung in Form eines Funkens oder einer disrup- tiven Glimmerscheinung statt. Wird den Elektroden langsam, etwa durch einen größeren Widerstand, Elektrizität zugeführt, so wird in ähnlicher Weise eine disruptive Entladung eintreten, die sich erst wiederholt, wenn die aus- reichende Potentialdifferenz der Elektroden wieder erlangt ist, was bei ge- gebener äußerer Spannungsquelle bei großer Kapazität und hohem Widerstand der Leitung lange Zeit dauern, unter günstigeren Bedingungen aber auch viel- tausendmal in der Sekunde erfolgen kann (intermittierende Entladung). Findet aber endlich ausreichende Zufuhr von Elektrizität statt, so wird die Entladung, nachdem sie einmal eingesetzt hat, fortdauern, wobei allerdings das elektrische Feld durch die kräftige Ionisierung völlig verändert wird. Je nach den äußeren Bedingungen von Spannung und Widerstand nimmt diese kontinuierliche Entladung die Form der Glimm- oder der Bogenentladung an. Letztere Form tritt ein, wenn das Elektrodenmaterial infolge der großen Stromstärke in Glut kommt und verdampft.

Für den Eintritt einer selbständigen Entladung ist unseren Anschauungen gemäß stets eine ursprüngliche Anwesenheit von Ionen erforderlich, welche durch Stoß neue zu erzeugen berufen sind. Der Umstand, daß Gase stets, auch in abge- schlossenen Räumen, eine, wenn auch geringe, natürliche Ionisation, die wahr- scheinlich Einflüssen radioaktiver Körper zuzuschreiben ist, besitzen, bringt es mit sich, daß diese Vorbedingung stets erfüllt ist. Einem gerade vorhandenen Mangel an Ionen sind vielleicht die Verzögerungserscheinungen zuzu- verxögemng schreiben, die den Eintritt selbständiger Entladungen oft um geraume Zeit, in *' " ' getrockneten Räumen bis zu mehreren Minuten, verspäten können. Jede künst-

446 20* H.Starke: Das elektrische Leitungsvermögen

liehe lonenerzeugung im Entladungsraum, insbesondere ultraviolette Belich- tung, setzt nach, den Untersuchungen von E. Warburg (1896) die Verzöge- rungsperiode herab, bzw. hebt sie bei genügender Intensität völlig auf.

Die frühere Auffassung von der Funkenentladung, daß jedes Gas dem Zer- reißen durch eine elektrische Kraft mit einer von seiner Natur abhängigen Festigkeit (Maxwell) widerstrebt, hat durch die Theorie des lonenstoßes eine tiefere Begründung erfahren. GiimmenOadans. Bei der Glimmentladung, deutlich sichtbar insbesondere in gasverdünnten Räumen, folgen, von der Kathode nach der Anode hin gerechnet, bekanntlich folgende Leuchterscheinungen aufeinander, die in ihrer Farbe und deren spek« tralem Charakter verschieden, auch von Gas zu Gas andere sind. Hier sei die Farbe in verdünnter Luft angegeben. Erste Kathodenschicht, rötlichgelb, direkt auf der Kathodenoberfläche aufsitzend Crookesscher Dunkelraum negatives Glimmlicht, blau, nach der Kathode zu scharf begrenzt, nach der anderen Seite unscharf auslaufend in den Far ad ay sehen Dunkelraum positive Lichtsäule, rot bis zur Anodenoberfläche reichend und dort hell endi- gend. Mit der Verschiedenheit der Leuchterscheinung verbunden ist eine man- nigfache Veränderlichkeit des Potentialgefälles, das im Cr 00 kesschen Dunkel- raum seinen bei weitem größten Wert besitzt. Der Potentialunterschied von der Kathode bis zum zugewendeten Rand des negativen Glimmlichts weist, solange dieses nicht die ganze Oberfläche der Kathode überzieht, einen für ein bestimmtes Kathodenmetall und. Gas charakteristischen, konstanten Wert auf, den man nach dem Vorgange von E. Warburg normales Kathodengefälle nennt. Die lonisationsherde liegen in den leuchtenden Schichten. ImCrookes- sehen Dunkelraum erhalten sowohl die negativen Teilchen, welche teils aus der Kathode durch die Strahlungseffekte befreit werden, teils in der ersten leuchten- den Kathodenschicht entstehen, ihr in der Erzeugung des negativen Glimm- lichts sich äußerndes lonisationsvermögen, als auch die hier entstandenen posi- tiven Teilchen. Die letzteren beginnen, gegen die Kathode hin fliegend, kurz vor derselben ihre ionisierende Kraft in der leuchtenden Schicht zu dokumen- tieren, und bewirken auch, auf die Kathode auf treffend, deren dauernde Elek- tronenabgabe. Durch Löcher, welche in die Kathode gebohrt werden, fliegen sie als die sog. Kanalstrahlen hindurch und kennzeichnen ihre Bahn durch ein Leuchten, das zum Teil, ein Bandenspektrum zeigend, von der durch sie be- wirkten Ionisation des Gases herrührt, zum Teil aber auch, wie die interessanten Untersuchungen von J. Stark ergeben haben, durch ein Selbstleuchten der positiven Ionen hervorgerufen wird. Dieser Teil des Leuchtens hat ein Linien- spektrum, das durch den auftretenden Dopplereffekt (vgl. Artikel 26) beweist, daß es von schnell bewegten Partikeln ausgesandt wird.

Das negative Glimmlicht dehnt sich im Entladungsrohr um so weiter aus, je weiter die negativen Teilchen ihre Geschwindigkeit beibehalten. Wird der Gas- druck sehr erniedrigt, so findet keine Reibung, d. h. kein häufiges Zusammen- stoßen mit Gasmolekülen mehr statt. Die Ionisierung, die damit verbundene Leitfähigkeit und das Leuchten des Gases wird immer geringer, und die nega-

Glimmentladung ^^.y

tiven Teilchen fliegen als freie Elektronen auf weite Wegstrecken geradlinig, strahlenartig weiter als die sog. Kathodenstrahlen, welche bei genügender Verdünnung des Gases geradlinig mit ungeheurer Geschwindigkeit den Raum durcheilen, bis sie durch feste Hindernisse oder die Wand des Glasrohrs aufge- halten werden.

Erste Kathodenschicht, Crookesscher Dunkelraum und negatives Glimm- GUmmiicht. licht bilden bei nicht zu niedrigem Druck eine die Kathode im allgemeinen nur °*^*^ * teilweise überziehende Lichthaut. Druckerniedrigung sowie Erhöhung der Stromstärke bewirken eine Ausdehnung der Lichthaut bei konstant bleibender Dicke derselben. Erst wenn die ganze Oberfläche der Kathode bedeckt ist, be- ginnt bei weiterer Druckerniedrigung bez. Stromverstärkung das Glimmlicht in den Raum hinein sich auszudehnen. Von einem als Kathode dienenden län- geren Draht bedeckt das negative Glimmlicht bei variabler Stromstärke eine dem Momentanwert derselben proportionale Länge. Dieser Umstand ist von E. Gehrcke praktisch zur Konstruktion des Glimmlicht- Oszillographen verwertet worden. Der Rand des Glimmlichts in einem von variablem Strom durchflossenen Entladungsrohr mit längerer drahtförmiger Kathode zeigt im rotierenden Spiegel betrachtet die Stromkurve. Ein derartiges Entladungs- rohr kann daher, allerdings mit erheblichen Einschränkungen, bei Wechsel- stromuntersuchungen einen Oszillographen oder ein Braunsches Kathoden- strahlrohr ersetzen.

Die Stromspannungsverhältnisse einer leitenden Gasstrecke befolgen, wie Elektrodynamik bereits erörtert, nicht das Ohmsche Gesetz, und werden am zweckmäßigsten entudu^en. durch die sog. Charakteristik der Gasstrecke, d. i. die Kurve, welche die Spannung E als Funktion der Stromstärke y wiedergibt, dargestellt. Die cha- rakteristischen Kurven von Gasentladungen zeigen nun besondere Eigentüm- lichkeiten, aus denen, wie zuerst W. Kaufmann (1899) dargetan hat, das oft merkwürdige Verhalten derselben erkannt werden kann. Zunächst ist die £- 7- Kurve durchaus nicht immer eine ansteigende, sie kann auch horizontal ver- laufen und sogar fallen. Dies erklärt sich ionentheoretisch aus der von größeren Strömen hervorgerufenen Ionisation und starken Vergrößerung der Leitfähig- keit. Dann ist es ein den Gasentladungen eigentümliches Verhalten, daß bei kleinen Änderungen einer angelegten Spannung die Stromstärke häufig plötz- lich sprungweise sich stark ändert. Dies findet z. B. bei dem plötzlichen Ein- setzen einer Glimm- oder Funkenentladung bei Erreichung des sog. Entladungs- potentials statt, oder wenn eine kontinuierliche Glimmentladung bei einer spon- tanen Erhitzung einer Elektrode zur Glut infolge reichlicher lonenerzeugung seitens derselben plötzlich in eine stromstarke Bogenentladung umschlägt. Es ist eine solche sprungweise Änderung der Stromstärke oder der Spannung ein Zeichen dafür, daß in den Entladungsverhältnissen ein labiler Zustand erreicht war, der plötzlich in einen stabilen umschlägt. Kaufmann zeigte, daß solche Diskontinuitäten in der Entladungsform nur bei fallender Charakteristik auf- treten können, und zwar muß die Tangente des stumpfen Winkels, den die Charakteristik mit der positiven Stromachse bildet, numerisch gleich oder grö-

^>|.8 20. H.Starke: Das elektrische Leitungsvermögen

ßer sein als der Widerstand in Ohm des äußeren Leitungskreises, wenn die Kurve so gezeichnet ist, daß die Längeneinheit der Stromachse ein Ampere, die der Spannungsachse ein Volt bedeutet. Ein typisches Beispiel fallender Charak- teristik ist der elektrische Flammenbogen. Das Verhalten desselben, insbeson- dere für Wechselstrom, wo er infolge der Nachwirkung der Erhitzung die Er- scheinung der Lichtbogenhysteresis, d. h. andere Stromwerte bei steigender und fallender Spannung, zeigt, ist von H. Th. Simon eingehend studiert worden. In der an die Kaufmannschen Betrachtungen anschließenden Theorie des Lichtbogens fanden unter anderem auch die eigentümlichen elektrischen Schwingungserscheinungen ihre Erklärung, welche eintreten, wenn schwin- gungsfähige, aus Kapazität und Selbstinduktion zusammengesetzte Leiterkreise dem Bogen parallel geschaltet werden, und welche von dem dänischen In- genieur Poulsen in die Technik der drahtlosen Telegraphie und Telephonie ein- geführt wurden. In dem gleichen Verhalten des stromstarken Entladungs- funkens größerer Kapazitäten ist auch die Möglichkeit der oszillatorischen Ent- ladung begründet. Durch künstliche Kühlung des Funkens, die man dadurch erreicht, daß man ihn zwischen nahestehenden massiven Kupfer- oder Silber- platten entstehen läßt, kann man dem Funken den oszillatorischen Charakter fast völlig nehmen. Der auf diese Weise erzeugte sog. Abreiß- oder Löschfunke findet in der modernen drahtlosen Telegraphie ausgedehnte Verwendung (vgl. Artikel 19). Bogenlampe. Der elcktrische Flammenbogen wird in ausgedehntester Weise zu Beleuch- MooreUcht ^ungszwcckcn und zur Gewinnung hoher und höchster Temperaturen verwer- tet. Die höchste Temperatur wird in der Bogenlampe an der positiven Kohlen- elektrode erreicht, die dementsprechend auch die hauptsächliche Lichtquelle bildet. In der Bremerlampe wird der für gewöhnlich nur schwach leuchtende Lichtbogen selbst durch Verdampfung von Salzen, mit welchen die sog. Docht- kohlen imprägniert werden, zu starker Lichtemission gebracht. Wie diese, so ist auch das Licht der Quecksilberbogenlampen, in welchen der Lichtbogen zwischen Quecksilber- oder Amalgamelektroden in evakuierten Rohren brennt, selektiv gefärbt. Das Spektrum ist ein Linienspektrum, dessen Linien beson- ders bei höheren Temperaturen und damit verbundenen größeren Dampf drucken stark verbreitert sind. Niederdruckglimmentladung in hochgradig verdünnten Gasen, mit Hochspannung erzeugt, beginnt, in dem sog, Moorelicht technische Verwertung zu finden. Dieses Licht, in weitem Glasrohre von vielen Metern Länge, das an den Zimmerwänden entlang geführt wird, erzeugt, zeichnet sich durch eine sehr gleichmäßige räumliche Verteilung und ruhiges Leuchten mit angenehmer gelblich-roter Färbung aus.

Literatur

449

Literatur.

Allgemeinen Inhalts: G/Mm, Lehrbuch der Elektrizität und des Magnetismus. Stutt- gart 1910. H. Starke, Escperimentelle Elektrizitätslehre. II. Aufl. Leipzig 1910. Metallische Leitung: J.J.Thomson, Die Korpuskulartheorie der Materie. Sammlung „Die Wissenschaft" Nr. 25. Braunschweig 1908. K. Babdeker, Die elektrischen Erscheinungen in metallischen Leitern. Gleiche Sammlung. Heft 35. 191 1. Elektrolytische Leitung: Kohlrausch und L. Holborn, Das Leitvermögen der Elektrolyte. Leipzig 1898. W. Kernst, Theoretische Chemie. 7. Aufl. Stuttgart 1913. Elektrizitätsleitung in Gasen: J. J. Thomson, Conduction of electricity through gases. II. Aufl. Cambridge 1907. Obers, v. E. Marx. Leipzig 1906.

Femer die Bearbeitungen der betreff. Kapitel durch L. Graetz, R. Lutter, J. Stark in Winkelmanns Handbuch der Physik. Bd. IV, V; U. Aufl. Leipzig 1905.

K.d.G.niiiz,Bdi Physik 29

21.

DIE KATHODENSTRAHLEN.

Von

W. Kaufmann.

Einleitung Bci dcF Untcrsuchung der Entladungserschcinungen in verdünnten Gasen

wurde schon sehr frühzeitig von mehreren Forschern (Davy 1822, Plücker 1858) außer dem Leuchten des Gases selbst ein grünliches Leuchten der Glas- wand der Röhre beobachtet. Eine nähere Untersuchung der Bedingungen, un- ter welchen dieses Leuchten zustande kommt, führte Hittorf (1869) zu der Anschauung, daß dasselbe von einer Art Strahlen herrühre, die von der nega- tiven Elektrode oder Kathode geradlinig ausgehen und bei ihrem Auf treffen auf die Glaswand diese zum Leuchten (Fluoreszenz oder Lumineszenz) erregen. Nach dem Vorschlage von Goldstein (1876) werden diese Strahlen jetzt all- gemein als Kathodenstrahlen bezeichnet.

Das Interesse der Physiker für diese eigenartige Erscheinung war lange Zeit sehr schwankend; während die Mannigfaltigkeit und Seltsamkeit des Vorgangs manche Forscher unwiderstehlich anzog und zu den kühnsten Spekulationen veranlaßte, kamen andere angesichts der Unzulänglichkeit aller Erklärungs- versuche zu dem resignierten Schluß, daß auf diesem Gebiete für die exakte Physik nichts zu erreichen sei.

So war bis zum Jahre 1896 unser Wissen von den Kathodenstrahlen nur eine Ansammlung von zwar hochinteressanten, aber zusammenhangslosen und unerklärten Tatsachen einerseits, von mehr oder weniger kühnen, aber stets unzulänglichen Theorien und Spekulationen anderseits. Erst die Entdeckung der Röntgenstrahlen (vgl. Artikel 23) gab der Erforschung der Kathodenstrahlen einen neuen kräftigen Anstoß, und die nun in rascher Folge erscheinenden Arbeiten lieferten ein sicheres Fundament für den Ausbau der jetzt allgemein angenommenen Elektronentheorie der Kathodenstrahlen. Haupt- Die wesentlichsten Eigenschaften der Kathodenstrahlen, wie man sie an

eigenschaften. jgjgj. beliebigen genügend weit ausgepumpten Entladungsröhre beobachten kann, sind namentlich durch Hittorf, Goldstein und Crookes (1879) fest- gestellt worden. Letzterer hat durch Zusammenfassung seiner Untersuchungen in Gestalt eines populären Vortrages mit dem Titel „Strahlende Materie oder der vierte Aggregatzustand'' sowie durch Konstruktion zahlreicher noch jetzt in allgemeinem Gebrauch befindlicher Demonstrationsapparate viel zur Ver- breitung des Interesses an den Kathodenstrahlen beigetragen. Von seiner spe- ziellen Theorie der Kathodenstrahlen wird weiter unten die Rede sein.

Haupteigenschaften 451

Fig. i zeigt eine der bekanntesten der von Crookes konstruierten Ent- Geradlinige ladungsröhren, mittels welcher sich einige Eigenschaften der Strahlen leicht "* '"*""«• demonstrieren lassen. Das birnförmige Glasgefäß enthält zwei eingeschmolzene Elektroden, die eine in Form einer kleinen Kreisscheibe, die andere in Form eines Kreuzes; erstere ist Kathode, wird also mit dem negativen, letztere ist Anode und wird mit dem positiven Pol eines Induktoriums oder einer kräf- tigen Influenzmaschine verbunden. Dann bemerkt man einen „Schatten" des Kreuzes auf der sonst hellgrün leuchtenden Glaswand. Die Wand leuchtet am hellsten auf der der Kathode gegenüberliegenden Stirn- fläche und wird dort bei längerem Betriebe auch merk- lich erwärmt. Die Kathodenstrahlen bewegen sich also geradlinig durch den Raum, sie werden von festen Kör- pern aufgehalten, sie besitzen eine merkliche Energie, die beim Aufprallen in Wärme verwandelt wird. Aus der Schärfe der Schattenränder folgt, daß von jedem Punkte der Kathode die Strahlen nur in einer ganz Kg.x.

bestimmten Richtung ausgehen, und zwar, wie besondere Untersuchungen er- geben haben, annähernd senkrecht zur Oberfläche. Daraus folgt, daß die von einer hohlspiegelförmigen Kathode emittierten Strahlen sich in einem Punkte kreuzen müssen, so daß man ihre ganze Energie dort konzentrieren und inten- sive Wärmewirkungen produzieren kann. Die Richtigkeit dieser Folgerung be- wärmewirkung. wies Crookes mit einem Apparat, der ähnlich der in Artikel 23 abgebildeten Röntgenröhre gebaut war: Die auf einem Platinblech konzentrierten Strahlen versetzten dieses in helle Glut.

Außer dem Glase werden noch zahlreiche andere Körper durch die Ka- Loniine«xen*. thodenstrahlen zum Leuchten erregt, namentlich fast alle Körper, die unter dem Einfluß sichtbaren oder ultravioletten Lichtes fluoreszieren. So kann man die Kathodenstrahlen ihre Bahn in der Röhre aufzeichnen lassen, wenn man einen mit geeigneter Leuchtsubstanz bestrichenen Schirm streifend von den Strah- len treffen läßt.

Viele Salze werden von auf treffenden Kathodenstrahlen reduziert; da die chemische Strahlen nur in sehr geringe Tiefe eindringen (s. w. u.), so erstreckt sich die Wir- *' '"**'** kung nur auf eine Oberflächenschicht; die ausgeschiedenen Metalle bleiben als fein verteilte feste Partikelchen im Salze (Siedentopf 1905) und erteilen dem Salz eine charakteristische Färbung (Goldstein 1895). So wird Kochsalz {NaCl) gelbbraun, KCl violett, KBr blau gefärbt. Die Färbung entsteht schon nach wenigen Sekunden; im Tageslichte verschwindet sie ziemlich rasch wieder.

Nähert man der Röhre einen Magnet, so werden die Strahlen abgelenkt, Magnetische wie man an der Verschiebung des Schattenkreuzes bemerkt. An einem streifend ^*»^«°^"***- getroffenen Leuchtschirm erkennt man, daß die Bahn der Strahlen im Magnet- felde gekrümmt ist, und zwar so, als ob der Strahl sich um die Magnetkraft- linien herumwickeln wolle (Hittorf 1869). Die Art der Ablenkung läßt sich nach Hittorf wie folgt beschreiben: „Kathodenstrahlen verhalten sich im

29*

452

21. W.Kaufmann: Die Kathodenstrahlen

Magnetfelde wie elastische biegsame Stromleiter, die an der Kathode befestigt, im übrigen frei beweglich sind, und in denen der Strom auf die Kathode zu- fließt." Elektrische Auch elektrische Kräfte wirken ablenkend auf die Kathodenstrahlen, wenn

' gewisse hier nicht näher zu erörternde Bedingungen erfüllt sind, und zwar wer- den die Strahlen von einem positiv geladenen Leiter angezogen, von einem nega- tiv geladenen abgestoßen (Goldstein 1876, J. J.Thomson 1897).

BraunscheRöhre Die magnetische Ablenkbarkeit hat außer ihrer wissenschaftlichen noch

eine eminent praktische Bedeutung; da die Ablenkung statt durch einen Magnet auch durch eine stromdurchflossene Drahtspule hervorgebracht werden kann, und, wie besondere Untersuchungen gezeigt haben, die Ablenkung den wirken- den Kräften momentan folgt, so kann ein Kathodenstrahl als ein praktisch trägheitsloses Galvanometer benutzt werden, welches den zeitlichen Ver- lauf beliebig rasch veränderlicher elektrischer Ströme, z. B. elektrischer Schwin- gungen, durch Beobachtung des Leuchtfleckes im rotierenden Spiegel oder auf bewegter photographischer Platte zu untersuchen gestattet. Besondere Röhren für diesen Verwendungszweck sind zuerst von F. Braun (1897) konstruiert worden.

Lenardatrahien. Von besonderem Interesse für die weitere Erforschung war die von Hertz i. J. 1892 entdeckte Fähigkeit der Kathodenstrahlen, sehr dünne Schichten fester Körper zu durchdringen. Im Anschluß an diese Entdeckung gelang es nämlich Lenard (1894), die Kathodenstrahlen durch ein Aluminiumfensterchen von wenigen Tausendstel Millimeter Dicke hindurch in die freie Luft austreten zu lassen. Das hohe Vakuum ist also nur nötig, um die für die Entstehung der Strahlen nötigen Entladungsbedingungen zu schaffen; die einmal erzeugten Strahlen pflanzen sich auch in Gasen von höherem Drucke fort. Allerdings ver- halten sich die Gase mit zunehmendem Drucke immer mehr wie ein trübes Medium, also etwa so, wie Milch gegenüber dem Lichte; die Geradlinigkeit ver- schwindet mehr und mehr und schließlich tritt an ihre Stelle eine völlig diffuse Ausbreitung sowie eine recht starke Absorption. So dringen die Strahlen hinter dem Lenard sehen Fenster in freier Luft nur etwa 2—3 cm weit vor. In leich- teren Gasen, wie etwa Leuchtgas oder Wasserstoff, ist die Absorption bedeutend geringer. Lenard setzte hinter das Fenster ein zweites evakuierbares Rohr, das er als Beobachtungsrohr bezeichnete, zur Unterscheidung von dem eigent- lichen Entladungs- oder Erzeugungsrohr. Durch Variierung des Grasdrucks in beiden Rohren konnte er feststellen, daß die physikalischen Eigenschaften der Strahlen, wie Größe der magnetischen Ablenkbarkeit und Absorbierbarkeit nur von dem Druck im Erzeugungsrohr, also von den Entladungsbedingungen, nicht aber vom Druck im Beobachtungsrohr abhängen. Ferner fand er ein höchst merkwürdiges Gesetz für die Absorption: Für Strahlen, die unter kon- stanten Bedingungen, d. h. konstanter elektrischer Spannung im Erzeugungs- rohr erzeugt waren, ist die Absorption eines beliebigen Körpers, gleichgültig ob fest oder gasförmig, seiner Dichte direkt proportional. Den Kathodenstrahlen gegenüber verschwinden also alle physikalischen und chemischen Unterschiede

Eigenschaften. Crookes' Hypothese ^j3

der Materie; die Absorption findet so statt, als ob die chemischen Atome aus noch kleineren gleichartigen Bausteinen beständen und die Anzahl letzterer für die Absorption maßgebend wäre. Die Absorption nimmt mit zunehmendem Verdünnungsgrad im Erzeugungsrohr, also zunehmender elektrischer Spannung rasch ab.

Ein Teil der Strahlen wird beim Auftreffen auf einen festen Körper ,,re- Reflezioa. flektiert*'; doch handelt es sich hierbei nicht etwa um eine Reflexion im Sinne einer wirklichen Spiegelung, sondern von den im Inneren des Körpers diffus nach allen Seiten zerstreuten Strahlen gelangt ein Teil, nämlich die um mehr als einen rechten Winkel aus ihrer Bahn abgelenkten Strahlen, aus der getroffe- nen Fläche wieder heraus.

Außer durch den selbständigen Entladungsvorgang können Kathoden- Photoeiektrische strahlen auch erzeugt werden, indem die Elektronen (s. w. u.), welche von einer TheraUchr mit ultraviolettem Licht bestrahlten Elektrode ausgehen, durch ein elektrisches voif KaAodeo- Hilfsfeld beschleunigt werden (Lenard 1899). Dasselbe gilt bezüglich der wtnhwm, von einer glühenden Metall- oder besser Metalloxydfläche ausgesandten Elek- tronen (Wehnelt 1904). Da diese Vorgänge auch im äußersten Vakuum statt- finden, und die Elektronenmenge von dem angelegten Hilfsfeld fast unab- hängig ist, so kann man auf diese Weise den Strahlen jede beliebige Ge- schwindigkeit erteilen und namentlich auch sehr langsame Strahlen unbeein- flußt von der gerade bei diesen sehr störenden Absorption im Gase erhalten.

Der erste beachtenswerte Versuch einer physikalischen Vorstellung von Crooke««cho dem Wesen der Kathodenstrahlen rührt von Crookes her; die Grundannahme ^^' "*' seiner Hypothese ist schon in dem Titel seines oben zitierten Vortrags an- gedeutet; unter „strahlender Materie'* versteht nämlich Crookes ein Gas, welches so weit verdünnt ist, daß seine Moleküle, ohne an andere anzustoßen, größere und mit den Dimensionen des Gefäßes vergleichbare Strecken zurück- legen können. Nimmt man nun an, daß in einer Kathodenstrahlröhre ein derartiger Verdünnungsgrad bereits erreicht sei und daß ferner die Moleküle, welche auf die Kathode aufprallen, sich dort durch Kontakt negativ laden, so müssen sie nunmehr, genau wie ein Holundermarkkügelchen von einer elektri- sierten Siegellackstange abgestoßen und in den Raum hinausgeschleudert wer- den. Aus derartigen geladenen Gasmolekülen dachte sich Crookes die Katho- denstrahlen bestehend. Es lassen sich die meisten Eigenschaften der Strahlen mit dieser Hypothese leicht erklären, solange man von zahlenmäßigen Vergleichungen absieht. Man begreift die geradlinige Ausbreitung der Strahlen bei sehr hoher Verdünnung, sowie die diffuse Zerstreuung bei höherem Gasdruck infolge der Zusammenstöße mit ruhenden Molekülen. Man begreift die Wärmeentwicklung beim Aufprall eines solchen molekularen Geschoßhagels auf eine feste Wand; auch die Durchdringung dünner Metallschichten erscheint nicht als Hindernis, wenn man etwa an die Durchschlagskraft moderner klein- kalibriger Geschosse denkt« Auch eine Druckwirkung der auffallenden Katho- denstrahlen glaubte Crookes nachgewiesen zu haben, indem er kleine aus Glas und Glimmer gefertigte Mühlrädchen durch die Strahlen in Umdrehung ver-

454

21. W.Kaufmann: Die Kathodenstrahlen

setzte. Die magnetische und elektrische Ablenkung ergibt sich auf Grund be- kannter physikalischer Gesetze ganz im Sinne der tatsächlich beobachteten Erscheinungen. Auch die Abnahme der Absorption und der Ablenkung bei zu- nehmender Entladungsspannung paßt in die Theorie hinein, denn die elektrische Kraft in der Röhre spielt ja dieselbe Rolle wie die Pulver ladung in einem Ge- wehr; je größer diese, desto größer ist die Geschwindigkeit des Geschosses, desto größer ist also seine Durchschlagskraft und desto weniger wird es von äußeren Kräften, beim Gewehr von der Schwerkraft und dem Winde, beim Kathodenstrahlteilchen von elektrischen oder magnetischen Feldern ab- gelenkt. Eiawände gegen Man könnte der Crookesschen Theorie sofort den Einwand entgegen- halten, daß sie nicht erkläre, warum nicht auch an der Anode eine ähnliche Wir- kung vor sich ginge; man könnte ferner fragen, warum denn die Gasmoleküle in freier Luft sich nicht auch durch Kontakt an einem geladenen Leiter laden ? Daß letzteres nicht geschieht, folgt ja aus der einfachen Tatsache, daß ein iso- lierter Leiter seine Ladung längere Zeit unverändert behält. Immerhin läßt sich diesen Einwänden entgegnen, daß eben der Zustand in einer Entladungs- röhre durch den Entladungsvorgang selbst, von dem ja die Kathodenstrahlen nur eine Begleiterscheinung sind, tiefgehend modifiziert sei, so daß hier Vor- gänge möglich, die im gewöhnlichen Zustand nicht statthaben.

Viel schwerwiegender waren dagegen die Einwände, die sich bei einer quan- titativen Betrachtung der Erscheinungen ergaben und zu einer beträchtlichen Modifikation der Crookesschen Anschauung zwangen: Der erste Versuch, durch Messung der magnetischen Ablenkungen und der beschleunigenden elek- trischen Kräfte in absolutem Maße Aufschluß über die Natur der angenom- menen Kathodenstrahlteilchen zu erhalten, stammt von Schuster (1884), doch waren seine Resultate noch zu unsicher, um eine Entscheidung für oder gegen die Theorie zu gestatten. Versuche von H. Hertz (1883), welche von diesem als beweiskräftig gegen die Crookessche Theorie angesehen wurden, müssen nach neueren Erfahrungen anders gedeutet werden. Erst in den Jahren 1896—97 wurde das Problem von E. Wiechert, J. J. Thomson und vom Verfasser wieder in Angriff genommen; das Resultat dieser und späterer Mes- sungen war im wesentlichen folgendes: Elektronen- Die Kathodcnstrahleu bestehen aus geladenen Teilchen, ganz im Sinne

der Crookesschen Hypothese, aber diese Teilchen sind keine Gasmoleküle, sondern sie sind „Atome der Elektrizität selbst** oder Elektronen, losgelöst von aller Materie. Über die weitere Entwicklung der Elektronenvorstellung ist bereits in Artikel 1 5 dieses Bandes berichtet, auf welchen hiermit verwiesen sei. Die Ergebnisse der Kathodenstrahlforschung bilden eines der Fundamente dieser wichtigen physikalischen Theorie. Wesentlich war für die Entwicklung der neuen Anschauung die Messung des Verhältnisses: Ladung/Masse eines Kathodenstrahlteilchens, welches sich aus den gemessenen elektrischen und magnetischen Ablenkungen oder aus einer dieser Ablenkungen und der Elek- trodenspannung bestimmen läßt.

Elektronentheorie

455

Ist nämlich m die Masse, e die Ladung, v die Geschwindigkeit des Teil- chens, Pdie Spannung der Elektroden, so ist die von den elektrischen Kräften geleistete Arbeit gleich eP] ist diese ganz auf Beschleunigung des Teilchens verwandt worden, so ist seine kinetische Energie:

i) r = mv^l2 = eP.

In einem quer zur Bahnrichtung verlaufenden elektrischen Felde @ erleidet das Teilchen eine Beschleunigung b = e^lm. Nach einer Zeit t ist also vgl. die Gesetze des freien Falls die Ablenkung y = bt^jz = ef£t^/2 w, oder wenn man berücksichtigt, daß t = x/v, wo x die Länge des im Felde zurückgelegten Weges:

2) y/x^ = e&f2 mv^ = @/4P.

Aus Entladespannung der Röhre P und ablenkender elektrischer Feld- stärke @ muß sich also die Ablenkbarkeit der Kathodenstrahlen vorausberech- nen lassen, falls die oben durchgeführte Anwendung der Elektrostatik und Mechanik erlaubt ist. Versuche von Kaufmann und Aschkinaß (1898) haben diese Folgerung bestätigt.

Durchläuft ferner das Teilchen ein senkrecht zur ursprünglichen Bahn- richtung sich erstreckendes magnetisches Feld ^, so wirkt dieses auf das Teil- chen wie auf einen elektrischen Strom von der Stärke ev; die ablenkende Kraft ist also ev^ und steht stets senkrecht auf der augenblicklichen Bewegungs- richtung. Die Bahn wird also zu einer das Feld umschlingenden Kreisbahn vom Radius r gebogen, und es ist nach bekannten Sätzen über die Zentrifugal- kraft: inv^/r = evSQ oder

3) S^r = mv/e, mit Gl. (i) kombiniert liefert dies:

4) v=^ 2P/S^r;

5) e/m = 2Pl^hr\

Aus (4) und (5) lassen sich also v und ejm berechnen, wenn Entladespannung P und magnetische „Steifigkeit** ^r gemessen sind.

Ist die Messung von P nicht ausführbar, wie bei zeitlich schwankenden Entladungen oder bei den ganz analog sich verhaltenden, aber viel rascheren ^-Strahlen des Radiums (vgl. Artikel 25), so kann man auch die gleichzeitige Messung von elektrischer und magnetischer Ablenkung benutzen. Es ergibt sich dann (aus Gl. 2, 4 und 5) :

7) elm = --^^-

Die Messungen von Kaufmann, Simon, Thomson, Lenard, Becker, Malassez und anderen ergaben für v je nach der Spannung ^j^ bis ^/s der Lichtgeschwindigkeit, für ejm rund 18 Millionen elektromagnetische Einheiten pro Gramm, also eine Zahl, die etwa 1800 mal größer ist als bei dem leich-

456 21* W. KAUFBiANN: Die Kathodenstrahlen

testen elektrolytischen Ion, nämlich dem Wasserstoff. Nimmt man nun mit Helmholtz(i88i) an, daß entsprechend dem bekannten Faraday sehen Grundgesetz der Elektrolyse (vgl. Artikel 1 3u. 20) ein jedes elektrolytische Ion die- selbe Elektrizitätsmenge, nämlich ein Atom der Elektrizität oder ein Elektron mit sich führt, nimmt man ferner an, daß eben diese unveränderliche Elektri- zitätsmenge auch in einem Kathodenstrahlteilchen vorhanden sei, so muß man diesem eine 1 800 mal kleinere Masse zuschreiben, als dem leichtesten bekannten chemischen Atom, nämlich dem Wasserstoff. Dadurch wird auch folgendes Versuchsresultat begreiflich:

Aus den Zahlen Lenards über die Absorption geht hervor, daß die Elek- tronen imstande sein müssen, durch die Atome eines durchstrahlten Gases selbst hindurchzufliegen und daß unter Umständen erst nach Durchquerung von mehreren tausend Atomen eine völlige Bremsung erfolgt. Bei der Croo- kes sehen Annahme geladener Moleküle wäre eine solche Durchquerung kaum verständlich gewesen. Die hohe Geschwindigkeit der Kathodenstrahlen läßt offenbar den Molekularkräften zu wenig Zeit, das hindurchfliegende Elektron merklich abzulenken.

Da sich nun die Konsequenzen der Elektronentheorie auf diesem Gebiete bei allen ferneren Messungen auf das glänzendste bestätigt haben, da die zah- lenmäßigen Resultate der verschiedenartigsten Messungen durchaus überein- stimmen — es sei vor allem die hervorragende Durchführung einer direkten Geschwindigkeitsbestimmung durch E. Wiechert erwähnt , so können wir die Elektronentheorie der Kathodenstrahlen als in jeder Beziehung experi- mentell gesichert betrachten. Allgemein Dic allgemein wissenschaftliche Bedeutung dieses Resultates liegt vor

Bedeutung, allem darin, daß es ein wesentlicher Anstoß war, die Konsequenzen der Elek- tronentheorie auch auf andere Phänomene auszudehnen, und zwar über den Rahmen der eigentlichen Elektrizitätslehre hinaus schließlich auf Fragen, die man wohl als letzte Grenzprobleme wissenschaftlicher Forschung bezeichnen darf, nämlich auf die Fragen nach dem Aufbau der chemischen Atome: die heutige Forschung sieht diese ja nicht mehr als unteilbar im strengen Wort- sinne an, sondern nur als unteilbar für unsere bisherigen experimentellen Hilfs- mittel. Ein Hinweis in dieser Richtung geschah schon oben bei Besprechung der Lenard sehen Versuche.

Die Kathodenstrahlen dienen hier geradezu als die Sonde, mit welcher wir in das Innere dieser uns sonst unzugänglichen Gebilde eindringen. Anderseits geben uns die feineren Phänomene der Lichtemission, namentlich deren Be- einflussung durch magnetische Kräfte (Zeeman, 1896, vgl. Artikel 30) Auf- schluß darüber, daß auch im Inneren der Atome Elektronen vorhanden sind und sich in ganz bestimmter Weise bewegen; endlich zeigen die Erscheinungen der Radioaktivität (vgl. Artikel 24 u. 25), daß diese Elektronen unter Umstän- den mit einer Geschwindigkeit aus den Molekülen herausgeschleudert werden, welche diejenige der durch Entladungen erzeugten Kathodenstrahlen um ein Mehrfaches übertrifft und bis dicht an die Lichtgeschwindigkeit heranreicht.

Allgemein wissenschaftliche Bedeutung ^ey

Es berührt seltsam, wenn man ein Erscheinungsgebiet, welches lange Zeit exakter Erklärung durchaus unzugänglich schien und für manchen Physiker schließlich nur eine Art Kuriositätswert im Gesamtgebäude seiner Wissen- schaft hatte, im Laufe weniger Jahre zu einer ganz ungeahnten Bedeutung her- anwachsen sieht; man möchte an eine Art Prophetengabe glauben, wenn man vom Standpunkte unserer jetzigen Kenntnisse aus die Schlußworte des Croo- kesschen Vortrages über strahlende Materie liest: „Beim Studium dieses vier- ten Zustandes der Materie scheinen wir endlich unter unseren Händen und im Bereich unserer Prüfung die kleinen unteilbaren Teilchen zu haben, von denen man mit gutem Grunde voraussetzt, daß sie die physikalische Grundlage des Weltalls bilden . . . Wir haben tatsächlich das Grenzgebiet berührt, wo Materie und Kraft ineinander überzugehen scheinen, das Schattenreich zwischen Be- kanntem und Unbekanntem, welches für mich immer besondere Reize gehabt hat. -Ich denke, daß die größten wissenschaftlichen Probleme der Zukunft in diesem Grenzlande ihre Lösung finden werden und selbst noch darüber hinaus; hier, so scheint mir's, liegen letzte Realitäten.**

Literatur.

ScHMmT, G. C, 1907: „Die Kathodenstrahlen". Braunschweig. Lenard, Ph., X906 : ,,Ober Kathodenstrahlen" (Nobelpreisvortrag). Leipzig. MÜLLER-POUILLET: Lehrbuch der Physik. Bd. IV, 3. (Bearb. vom Verf. dieses Artikels.) Braunschweig (1914).

22.

DIE POSITIVEN STRAHLEN.

Von E. Gehrcke und O. Reichenheim.

Man faßt bei den Gasentladungserscheinungen unter dem Namen „posi- tive Strahlen** eine Anzahl Strahlenarten zusammen, deren Charakteristikum nicht, wie der Name vermuten läßt, die positive Ladung, im Gegensatz zu der negativen der Kathodenstrahlen, ist; das ihnen Gemeinsame ist vielmehr, daß sie wenigstens nach der heute allgemein anerkannten Theorie -— aus Teilchen wägbar er Materie, sei es im geladenen, sei es im ungeladenen Zustand, bestehen; demgegenüber bestehen die Teilchen der Elektronstrahlen aus freien Ladungen ohne wägbare Materie. Der für die positiven Strahlen geeignetere Name wäre also „Massestrahlen*'.

Künstliche Massestrahlen (Kanalstrahlen, Anodenstrahlen usw.)«

Kanaiatnhieo. Die ersteu positiveu Strahlen sind von Goldstein inl Jahre 1886 entdeckt worden. Goldstein fand, daß von der Kathode außer den Kathodenstrahlen eine von diesen wohl zu unterscheidende Strahlung ausgeht. Fig. i ist die sche- matische Darstellung einer Entladungsröhre, in der er diese Strahlen beobach- tete: Die Anode A ist eine Aluminiumscheibe, die Kathode K eine mit einer spaltförmigen Öffnung versehene Aluminiumplatte. Außer den schon früher bekannten Gasentladungserscheihungen beobachtet man in dieser Röhre bei geeignetem Gasdruck in Luft gelblich leuchtende Strahlen a, die von dem Schlitz der Kathode ausgehen und in den von der Anode abgewandten Teil der Röhre treten; Goldstein gab diesen aus den Kanälen der Kathode austreten- den Strahlen den Namen Kanalstrahlen. Ä;-strahimi. Gleichzeitig mit den Kanalstrahlen entdeckte Goldstein eine diesen ver- wandte Strahlenart, die sich von der Kathode fort in derselben Richtung wie die Kathodenstrahlen ausbreitet, also in dem in Fig. i gezeichneten Rohre von K nach A fortpflanzt. Sie zeigen im Gase ein ähnliches Leuchten wie die Kanal- strahlen und sind wie diese, im Gegensatze zu den Kathodenstrahlen, magne- tisch nicht merklich deformierbar. Man bezeichnet diese Strahlen nach Gold- stein als Ül^- Strahlen, zuweilen auch als Thomson sehe Strahlen, da J. J. Thomson sie neu beschrieben hat. Diesen ÜTi- Strahlen entgegengesetzt, also auf die Kathode zu, bewegt sich eine weitere Strahlenart, die von Goldstein ^.-strftWen.,» Strahlen der ersten Schicht** oder kurz Sj- Strahlen genannt worden ist und deren Eigenschaften bisher nur wenig untersucht sind.

KanaittraUea- Alle diese Strahlen, zu denen als Begleiterscheinung noch einige andere, gnippe. ^gnig untersuchte Strahlenarten gehören, faßt man als Kanalstrahlen gruppe

Künstliche Massestrahlen

459

zusammen: ihre nahe Verwandtschaft untereinander kann man am besten an den von sog. Doppelkathoden (das sind aus zwei parallelen Metallplatten ge- bildete Kathoden) ausgehenden, positiven Strahlen erkennen. Wie Goldstein ferner gezeigt hat, gehen auch von einem frei im Raum befindlichen und als Kathode benutzten, einfachen Draht nach allen Richtungen positive Strah- lea aus, die gut zu beobachten sind, wenn man durch geeignete Versuchsanord- nung die durch die Kathodenstrahlen verursachten Lichterschei- nungen zurückdrängt. Bei diesen Strahlen kann man nicht mehr unterscheiden, zu welcher Art in der Kanalstrahlengruppe sie ge- hören. Das ihnen Gemeinsame ist, daß sie in der Kathode resp. in dem diese umgebenden sog. Crookesschen Dunkelraum entsprin- gen, und die Bedingung für ihre Entstehung scheint in dem hier bestehenden hohen Potentialfall zu liegen. Es ist daher zu erwar- ten, daß auch an anderen Stellen der Gasentladung positive Strah- len entstehen, wenn man hier hohe Potentialfälle erzeugen kann.

Bestehen nun die in einem Entladungsrohr von üblicher Größe befindlichen Gasreste aus Wasserstoff, Sauerstoff, Stickstoff oder Helium, so sind in der Entladungsbahn außer im kathodischen Dunkelraum keine hohen Potentialfälle vorhanden. Bringt man aber in das Rohr Spuren eines elektronegativen Gases oder Dampfes, z. B. eines Halogendampfes, so wird hierdurch nicht nur überall eine Erhöhung des Potentialgradienten bewirkt, sondern es treten an besonderen Stellen auch hohe Potentialsprünge auf, und zwar überall da, wo die Strombahn des von der Kathode zur Anode fließenden Stromes negativer Elektrizität plötzlich verengt wird. Man erklärt sich das Zustandekommen dieser hohen Potentialgradienten und -Sprünge dadurch, daß die elektronegativen Gase in höherem Maße als andere Gase die Neigung haben, negative Ionen zu bilden, d. h. Elektronen zu absorbiereo; es wird daher der von Kathode zu Anode fließende Strom negativer Elektrizi- tät, der für gewöhnlich hauptsächlich ein .Elektronenstrom sein wird, hier zum großen Teil aus Ionen bestehen, deren Beweglichkeit wegen ihrer großen Masse eine geringere als die der Elektronen ist.

Die hohen Potentialfälle bewirken eine bedeutende Beschleunigung der vorhandenen Ionen und bedingen so die Strahlbildung. Da die Potentialsprünge besonders an der Anode selbst und an Verengungen der Strombahn, an sog. Striktionsanoden auftreten, so gehen von diesen Stellen tatsächlich positive Strahlen aus, die nach ihrem Ursprungsort Anoden- resp. Striktionsanoden- strahlen genannt werden. Wenn in einem Entladungsrohr wie Fig. 2 die Gas- AnodenstraWei reste beispielsweise aus Wasserstoff und Joddampf bestehen, so findet man außer dem Kathodenfall bei K einen hohen Fall bei A^ und an der Anode A-^, Besteht diese Anode aus einer kleinen Metallspirale, die von einem Glasrohr um- geben ist, so daß die freie Oberfläche nur klein ist, so beträgt bei geeighetexn Druck der Anodenfall mehrere tausend Volt und es gehen von ihr positive Strahlen: Wasserstoff-Anodenstrahlen äj, aus. Ebenso entsteht bei geeig-

Kig. X.

460 22. £. Gehrcke und O. Reichenheim: Die positiven Strahlen

netem Druck und geeigneten Dimensionen des Verbindungsrohres bei A^ ein mehrere tausend Volt betragender Fall, und aus dem die beiden Kugeln ver- bindenden Rohre treten dann außer den Striktionskathodenstrahlen K die Striktionsanodenstrahlen ^2 aus.

Diese von Gehrcke und Reichenheim gefundenen Anoden- und Strik- tionsanodenstrahlen zeigen das Spektrum des Gases, dem das Halogen, also z. B. Jod, zugesetzt war, also etwa das Spektrum von Wasserstoff, oder auch Helium oder Sauerstoff. Die Strahlen erregen beim Auffallen auf Glas die für alle posi- tiven Strahlen charakteristische, gelbe Fluoreszenz.

Eine andere Art von Anodenstrahlen, die von den Gasresten im Rohr un- abhängig und durch das Material der Anode bedingt ist, sind die von Salz- anoden ausgehenden Strahlen. In Fig. 3 ist eine solche Röhre dargestellt. K ist die metallische Kathode; A die Anode, gebildet aus einer in einem Glasrohr enthaltenen Salzstange, zu der ein im Innern des Rohres befindlicher Zulei- tungsdraht führt. Beim Durchgang des Stromes entsendet die Anode einen hellen Anodenstrahl, dessen Spektrum dasjenige des in dem Salz enthaltenen Metalles ist; so gehen z. B. von einer Lithiumjodid enthaltenden Salzstange rote Strahlen aus, die im Spektroskop die Lithiumlinien zeigen. Auch diese Anoden zeigen einen hohen Anodenfall, den man sich dadurch erklärt, daß sich bei Stromdurchgang die Salzoberfläche erhitzt und ein elektronegatives Gas, z. B. Jod, dabei frei gemacht wird. ^i-strahien Schließlich sei noch eine als ^1- Strahlen bezeichnete Gattung von posi-

tiven Strahlen an der Anode genannt. Diese sind den oben erwähnten, von der Kathode ausgehenden ÜLj-Strahlen nahe verwandt; sie treten an durchbohrten Anoden in Halogendämpfen auf und verlaufen in entgegengesetzter Richtung wie die Anodenstrahlen.

Im vorhergehenden sind in Kürze die verschiedenen Strahlenarten zu- sammengestellt, die man unter dem Namen „positive Strahlen" der Gasent- ladung zusammenfaßt. Das allen Gemeinsame ist, daß sie an Stellen entstehen, wo sich hohe Potentialfälle, d. h. große elektrische Kraftfelder befinden; und schon daraus läßt sich vermuten, was für eine Art von Strahlung wir hier vor uns haben: nämlich elektrisch geladene, in einem elektrischen Felde beschleu- nigte Teilchen. Theorie Das Wcscn der Kanalstrahlen wurde aufgeklärt durch die Arbeiten von

der positiven ^

Strahlen, W. Wicn. Er zeigte, daß ein Teil dieser Strahlen durch genügend starke, mag- netische Kräfte abgelenkt werden kann; auch starke elektrostatische Felder lenken die Kanalstrahlen ab. Genau das gleiche Verhalten zeigen die anderen

Künstliche Massestrahlen ^(^i

oben erwähnten Arten positiver Strahlen. Der Sinn der magnetischen und elektrischen Ablenkung ist entgegengesetzt demjenigen der Elektronenstrahlen. Es lag daher nahe, die sog. Emissionstheorie der Elektronenstrahlen, welche Varley, Crookes und Schuster begründet haben und die sich bisher in allen Folgerungen bewährt hat, auch auf die positiven Strahlen auszudehnen. Aus den Messungen von W. Wien ergab sich, daß die positiven Teilchen der Kanal- strahlen einen weit kleineren Wert des charakteristischen Verhältnisses: Ladung e durch Masse m (das als „spezifische Ladung'' bezeichnet wird) besitzen als die Elektronen (vgl. Artikel 21); ferner ergab sich, daß manche von diesen Teil- chen mit den in elektrolytisch leitenden Flüssigkeiten auftretenden Kationen identisch sein dürften. Neuere Untersuchungen haben genauere Zahlen für die Werte des Verhältnisses e/m für die verschiedenartigsten Stoffe, wie Wasser- stoff, Sauerstoff, Stickstoff, Kohlenstoff, Chlor, Natrium, Lithium, Strontium usw., ergeben. Hiernach ist zu schließen, daß je ein Atom dieser Stoffe, das ein oder auch zuweilen mehrere Elektronen verloren hat und so ein positives Ion darstellt, in den positiven Strahlen mit einer Geschwindigkeit von 100 bis etwa 1000 km pro Sekunde dahineilt. Diese Energien sind groß genug, um beim Auf treffen auf feste Körper, z. B. Glaswände, Fluoreszenzlicht und Wärme zu erzeugen. Je größer der Potentialfall, den die Strahlen durchflogen haben, desto größer ist ihre Geschwindigkeit. Bei Anwendung sehr hoher Potentialdifferenzen, wie sie durchaus technisch herstellbar sind, dürfte es möglich sein, positive Strahlen von lomal größererGeschwindigkeit als 1000 km pro Sekunde künstlich zu erzeugen und so die unten beschriebenen a- Strahlen technisch zu reproduzieren.

Es ist von großer Bedeutung, daß sich neuerdings durch Messungen der spezifischen Ladung herausgestellt hat, daß nicht allein die elementaren Atome, sondern auch Komplexe von diesen als positive Strahlenteilchen vorkommen. Wir können diese zum Unterschied von den oben genannten positiven Atom- strahlen als Verbindungs- oder Molekülstrahlen bezeichnen; beispielsweise werden in den Wasserstoffstrahlen außer den Atomstrahlen auch zweiatomige Wasserstoffteilchen gefunden, die ein negatives Elektron verloren haben.

Außer den positiv geladenen findet man in den Strahlen auch neutrale und Neatnie negativ geladene Teilchen. Die Massen der negativen Teilchen sind dieselben ""st^««!.^* wie die der positiven. Welcher Art die neutralen, d. h. elektrisch ungeladenen, Massestrahlen sind, ist bisher schwer zu sagen.

W. Wien hat entdeckt, daß in den Wasserstoff kanalstrahlen ein bestän- diger Wechsel der einzelnen Teilchen zwischen dem geladenen und ungeladenen Zustand stattfindet; da das Verhältnis der geladenen zu den ungeladenen einem gewissen konstanten Verhältnis zustrebt, das, wenn es willkürlich geändert wird, sich von neuem wiederherstellt, so kann man von einem Gleichgewicht zwischen neutralen und geladenen Teilchen sprechen.

Wie oben erwähnt, denkt man sich die positive Ladung eines Ions da- durch entstanden, daß ein vorher neutrales Atom (resp. Molekül) ein oder mehrere Elektronen verloren hat. Nun hat sich gezeigt, daß, soweit es sich um Atomionen handelt, in den positiven Strahlen dieselben Atomionen als in der

402 22. £. Gehrcke und O. Reichenueim: Die positiven Strahlen

Elektrolyse vorkommen. Man bringt nun die Valenzladung der elektrolytischen Ionen mit der chemischen Wertigkeit zusammen, indem man die Hypothese macht, daß die chemischen Kräfte, welche gemäß der Wertigkeit der einzelnen Elemente für jedes eine ganz bestimmte chemische Affinität bezeichnen, iden- tisch sind mit den elektrostatischen Kraftfeldern der Ionen. In der Elektrolyse haben wir außer den Anionen und Kationen noch das Lösungsmittel zu berück- sichtigen, das die Wirkungen kompliziert. In den positiven Strahlen der G e i ß 1 e r - sehen Röhren aber dürften wir sozusagen reine, aktive Atome mit freier Valenz vor uns haben. Die Wichtigkeit der Erforschung der positiven Strahlen ver- schiedener Elemente auch für die Chemie ist darum wohl einleuchtend. DoppiereflFekt. Die positiveu Strahlen leuchten im nicht zu hohen Vakuum mit charakte- ristischem Spektrum. Man kann daher annehmen, daß zum mindesten ein Teil dieses Leuchtens von den schnell bewegten Ionen selbst emittiert wird. Wenn dies zutrifft, so müssen die von ihnen ausgesandten Spektrallinien eine Verände- rung gegen die sonst erzeugbaren Linien des betreffenden Stoffes aufweisen: denn die schnell bewegten Ionen repräsentieren dann eine schnell bewegte Licht- quelle, und eine solche muß, wie eine kinematische Betrachtung lehrt, den sog. Dopplereffekt (vgl. Artikel 26) zeigen, d. h. in der Richtung der Bewegung kürzere Wellen aussenden als senkrecht dazu. Alle Spektrallinien der positiven Strahlen müssen hiernach, wenn man den Strahl auf ein Spektroskop hineilen läßt, eine Verschiebung nach dem violetten Ende des Spektrums erleiden; wenn man aber den Strahl senkrecht anvisiert, müssen sie ihren gewöhnlichen Ort im Spektrum beibehalten. Diese Folgerung hat J. Stark zuerst gezogen und experimentell ge- prüft; er fand tatsächlich das vorausgesagte Verhalten der Spektrallinien be« stätigt. Es ist zwar inzwischen wieder zweifelhaft geworden, ob es wirklich die positiven Ionen selbst sind, die da leuchten; in gewissen Fällen, z. B. beim Wasserstoff, sind es wahrscheinlich die neutralen Teilchen, die das Licht des Dopplereffekts aussenden. Dies tut indes der Tatsache keinen Abbruch, daß die Auffindung des Dopplereffekts an den Kanalstrahlen eine Bestätigung der Emissionstheorie darstellt, welche in ihren Einzelheiten und auch bis zu einem gewissen Grade quantitativ die beobachteten Phänomene erklärt. Elektrisches Stark glaubtc früher auch senkrecht zum Kanalstrahl eine Verschiebung

m^zt^Li- der Linien zu beobachten, die noch dazu mit Polarisation verbunden ist. Jetzt Effekt, jjj^^ g^ j^jjg^ gefunden, daß diese Erscheinung nur dann eintritt, wenn der Kanal- strahl in einem elektrischen Felde verläuft und sich bei vielen Linien als kom- plizierte Aufspaltung erweist. Dieses Phänomen eines elektrischen Analogons des Zee man- Effektes (vgl. Artikel 30) dürfte für den Mechanismus des Leuch- tens von großer Wichtigkeit sein. Spektra. Die Spektra der positiven Strahlen sind insofern bemerkenswert, als sie sich durch besondere Einfachheit auszeichnen; umstehende Fig. 4 nach Stark stellt das von dem Kathodenlicht, Fig. 5 das von den Kanalstrahlen in Wasser- stoff erzeugte Spektrum dar; letzteres besteht nur aus einer einzigen, gesetz- mäßig gebauten Serie von Spektrallinien (Bai mer sehe Serie), die sich analy- tisch durch eine einzige Formel mit zwei Konstanten ausdrücken lassen. Man

sum

Natürliche Massestrahlen

463

darf wohl erwarten, daß die weitere Untersuchung der Spektra positiver Strahlen in einwandfreier Weise die Frage nach dem Träger der einzelnen Linien der chemischen Elemente lösen wird. Von hier aus aber führt der Weg in das Innere des Atoms, dessen Aufbau aus schwingungsfähigen Gebilden die Spek- tralanalyse der positiven Strahlen erforschen lassen dürfte.

Die Spektra der positiven Strahlen haben in ihren Einzelheiten viel Ahn- Positive strahlen

auf der Sonne. b T ß

i I I

I

l I

I

T

Tirn

Fig. 4. Spektrum der neg. Glimmschicht in I/.

I

P

n

mm

lichkeit mit den in den eruptiven Protuberanzen unserer Sonne beobach- teten Spektrallinien. Da im übrigen sowohl die direkt beobachtete wie die aus dem Dopplereffekt berechnete Geschwindig- keit der Protuberanzen von gleicher Größenord- nung wie diejenige der im

Laboratorium in Entla- ^^8- S- Kanalstmhlen in H, orthogonal zam Yisionsradius.

dungsröhren hergestellten, positiven Strahlen ist, so ist die Hypothese berechtigt, daß wir in den Protuberanzen der Sonne mächtige positive lonenstrahlen sehen.

Natürliche Massestrahlen (a- Strahlen).

Im Gegensatz zu den oben behandelten, positiven Strahlen, die wir uns künstlich erzeugen und deren Geschwindigkeit wir willkürlich durch die ange- wandte Potentialdifferenz bestimmen können, stellen die als a- Strahlen bezeich- neten positiven Strahlen radioaktiver Stoffe etwas von der Natur uns Gegebenes dar (vgl. Artikel 24 u. 25). Den Strahlungsprozeß der radioaktiven Atome, wie des Radiums, des Aktiniums, des Thors, können wir bisher in keiner Weise be- einflussen. Wir können nur die radioaktiven Stoffe voneinander trennen und ihre Konzentration in der nichtstrahlenden Materie verändern. Zwar erscheint es physikalisch möglich, die Geschwindigkeit der a -Teilchen zu vergrößern oder zu verkleinern, nachdem sie mit einer gewissen, von der Natur des radio- aktiven Körpers abhängigen Schnelligkeit das radioaktive Atom verlassen haben, aber dieser in unserem Machtbereich stehende Eingriff ist nur etwas sehr Unwesentliches; die mit den bisherigen experimentellen Hilf smitteln erreichbare Änderung ist geringfügig im Vergleich zu der enormen, den a-Teilchen eigenen Geschwindigkeit.

Die a- Strahlen, deren Vorhandensein schon von den Entdeckern der Radio- aktivität bemerkt worden war, sind hauptsächlich durch englische Physiker, Rutherford, Bragg, Soddy u. a., zum Gegenstand eingehenden Studiums gemacht worden. Die physikalischen Eigenschaften, in erster Linie die magne- tische und elektrische Ablenkbarkeit, lassen die Natur derselben als korpus- kulare Strahlen positiver Ladung fast zur Gewißheit werden. Die spezifische Ladung e/tn ist von derselben Größenordnung wie bei den oben behandelten

^64 ^^' £• Gehrcks und O. Reichenheim: Die positiven Strahlen

positiven Strahlen in Geiß 1 ersehen Röhren, so daß man es auch hier wieder mit Teilchen von der Art elektrolytischer Ionen zu tun hat. Aber während die Sorte dieser Teilchen bei den Kanal- und Anodenstrahlen von der Natur EtnheitHdie der Stoffe, die zur Verwendung gelangen, und von denen die Strahlen aus- ^dT^-st^en. gehen, abhängt, ist dies bei den a- Strahlen nicht der Fall. Vielmehr ist dieser längere Zeit strittige Punkt auf Grund der Untersuchungen von Rutherford und Hahn dahin auf geklärt worden, daß die verschiedenen radioaktiven Stoffe ein und dieselbe Art von a- Partikeln aussenden. Da die gefundene Zahl für e/m einem zweiwertigen Heliumatom entspricht und da, wie Ramsay und Soddy entdeckten, radioaktive Körper imstande sind, Helium zu bilden, so nimmt man heute allgemein an, daß die a-Partikeln aus Heliumatomen mit positiver, doppel- ter Elementarladung (entsprechend einer Zweiwertigkeit) bestehen.

Rutherford und R o y d s haben sogar durch ein fundamentales Experiment den direkten Nachweis dafür erbracht, daß die a-Strahlen der Radiumemanation aus Helium bestehen. Sie bedienten sich hierzu der in Fig. 6 dargestellten Ver- suchsordnung: A ist eine oben geschlossene, sehr feine Glasröhre von weniger als Vioo ^^ Wandstärke, die mit der Kapillarröhre B kommuniziert, in der sich ein radioaktives Gas, nämlich Emanation, herrührend von 140 mg Radiumsalz, über Quecksilber befindet. A und B werden von einem Glasrohr T umgeben, das oben in eine kleine Vakuumröhre V endet und mittels Quecksilbers durch das Rohr H auf beliebige Höhe gefüllt werden kann. Die Hähne D und E führen zur Luftpumpe bzw. zu einem Gefäß F, das mit Kokosnußkohle gefüllt ist und von flüssiger Luft umgeben werden kann (vgl Artikel 6). Bei dieser Anordnung kommen a- Strahlen aus der in A befindlichen Emanation und deren Zerfalls- produkten in das Innere des Rohres T; diese a-Teilchen durchdringen nämlich die dünne Glasröhre A, ohne in ihr stecken zu bleiben, können indes die Röhre T nicht durchdringen und gelangen somit auch nach V, wenn man durch Heben des Quecksilbers H das in T befindliche Gas komprimiert. Für die Ema- nation selbst ist die Glasröhre A völlig undurchdringlich. Ruther- ford und Royds konnten auf diese Weise in dem Rohr K nach zwei Tagen ein schwaches, nach sechs Tagen ein helles Heliumspektrum beobachten. Man wird hieraus schließen dürfen, daß die a-Teilchen aus Helium bestehen. Geschwindigkeit Die Geschwindigkeit der von den verschiedenen radioaktiven der o^trahien, j^^j^^j-^ ausgcsandtcn a-Tcilchcn ist, wie aus den Messungen der elek- trischen und magnetischen Ablenkung folgt, weit größer als diejenige der gewöhnlich in Geiß 1er sehen Röhren JWr

erzeugten positiven Strahlen. Sie ist von der Größen- /;^^T*^ Ordnung 10 000 km pro Sekunde. Infolge ihrer großen Schnelligkeit ist auch das Durchdringungsvermögen der a- Strahlen sehr beträchtlich. Während Kanal- F und Anodenstrahlen nur in hohen Luftverdünnungen imstande sind, Strecken von einigen Zentimetern zu- rückzulegen, durchdringen die a- Strahlen die Luft auf Fig. 6.

Natürliche Massestrahlen

4Ö5

weite Strecken und, wie aus obigem Versuch von Rutherford und Royds folgt, sogar feste Körper wie dünnes Glas. Unterhalb einer gewissen Grenz- geschwindigkeit von etwa 0,82 lo* cm/sec nimmt aber die Absorbierbarkeit der a- Strahlen außerordentlich stark zu und nähert sich sehr schnell derjenigen der in Geiß 1er sehen Röhren erzeugten positiven Strahlen; letztere vermögen feste Körper auch in dünnster Schicht nicht zu durchdringen.

Man kann für den Vorgang der Durchdringung der Materie durch a-Teil- chen eine mechanische Analogie aufstellen und ihn etwa mit dem Durchgang einer Flintenkugel durch eine Metallplatte vergleichen: bei großer Geschwindig- keit wird die Kugel die Platte glatt durchschlagen, die Kugel wird dabei in der Richtung ihrer Bewegung nicht beeinflußt werden, wohl aber an Geschwin- digkeitverlieren; bei einer gewissen, kleineren Geschwindigkeit dagegen wird die Kugel die Platte unter großem Energieverlust nur einzubiegen vermögen, ohne sie zu durchdringen. Bei einer derartigen Vorstellung würden wir also den Durchgang der a-Teilchen durch Materie in Verbindung mit der Trägheit und den elastischen Eigenschaften des Atoms bringen; leider sind wir aber vorläufig weit entfernt, irgendetwas Näheres hierüber, was begründet wäre, auszusagen.

Die starke Absorption der a- Strahlen unterhalb der obigen Grenzgeschwin- Reichweite, digkeit von 0,82 cm/sec wird besonders durch die Tatsache der sog. „Reich- weite*' der Strahlen deutlich gemacht: man versteht darunter diejenige Strecke, welche die aus einer außerordentlich dünnen Schicht des radioaktiven Körpers austretenden a- Strahlen in Luft von Atmosphärendruck zurückzulegen im- stande sind. Folgende Tabelle gibt für eine Reihe von a- Strahlen verschiedener radioaktiver Stoffe die Größe der Reichweite in cm und ferner die Größe der Anfangsgeschwindigkeit v in cm/sec an.

Stoff

Uran I . . . UranH. . . lonium . . . Radium . . Emanation . Radium A . Radium C . Radium F .

Reichweite bei 15* (cm)

3,50 2,90 3.00

3,30 4,16

4,75 6,94 3.77

Stoff

1,37 10

145 '10 1,50- 10 1,62*10 1,69-10 1,92* 10 1,57 10

Thorium . . . . Radiothorium . Thorium X . , Emanation . . Thorium A . . Thorium C^ . . Thorium C, . .

Radioaktinium Aktinium X . Aktinium Em . Aktinium A . . Aktinium C . .

Reichweite bei 15* (cm)

2.72

3,87 4,30 5.00 5.70 4,80 8,60

4,60 4,40 5.70 6,50

5.40

1,41-10' 1,58- 10»

1,63- lO*

'»72

x,8o 1,70 2,06

1,68 1,65 1,80 1,88

1,77

IG'

10' 10' 10'

10"

10»

10» lO» 10»

Diese Daten sind der Arbeit von E. Rutherford und H. Robinson, Wiener Sitzungs- bericht 191 3 entnommen.

Man sieht aus dieser Zusammenstellung, daß der Bereich der Anfangs-

geschwindigkeiten der a- Strahlen zwischen 1,37 variiert.

K. d. G. m. m. Bd x VhjtXk

10 und 2,06 10* cm/sec

30

466 22. £. GBHRCKBimdO.RsiCHBNHSiM: Die positiven Strahlen

Der Geschwindigkeitsverlust der a-Teilchen beim Durchgang durch Materie muß nach dem Satz von der Erhaltung der Energie wieder wettgemacht werden, indem die verlorene lebendige Kraft der Teilchen in andere Energieformen über- geführt wird. In der Tat erzeugen die a- Strahlen eine nicht unbeträchtliche wirmo- Wärmemenge bei der Absorption. Ob die a-Teilchen auch während des Durch- enenguag. gj^jjg^g ^nTch die Materie oder erst beim Steckenbleiben diese Wärme erzeugen, kann zunächst nicht beantwortet werden. Denn die Strahlen rufen auch noch Transformationen in andere Energieformen hervor. So erzeugen die a- Strahlen oberhalb der Geschwindigkeit 0,82 * lo* cm/sec eine starke Ionisation in lonitatioa. Gasen, leisten also lonisierungsarbeit. Auf Grund neuerer Versuche läßt sich ab- leiten, daß jedes a-Teilchen rund 160000 Gasionen erzeugt, bevor es absorbiert wird. Man sieht also« welch mächtigen Ionisator wir in den o- Strahlen vor uns haben. Unterhalb der Grenzgeschwindigkeit werden die a- Strahlen sehr stark absorbiert und sind dann schwierig zu untersuchen. Vielleicht wird der Haupt- betrag der Wärme erst bei geringen Geschwindigkeiten erzeugt, wenn die a-Teilchen bei der Reflexion an den Atomen einen Teil ihrer Energie an diese abgeben, bis Temperaturgleichgewicht zwischen den a-Teilchen und den anderen Atomen herrscht.

Es kann wohl kaum ein Zweifel darüber bestehen, daß man bei Anwendung genügender Beschleunigungsfelder auch in Geißler sehen Röhren positive Strah- len von den Eigenschaften der a- Strahlen erzeugen könnte. So läßt sich leicht ausrechnen, daß a-Strahlen von 0,82*10' cm/sec durch Potentialdifferenzen von etwa 700000 Volt aus ruhenden, zweiwertigen Heliumionen entstehen würden. Das sind Spannungen, deren künstliche Erzeugung heute durchaus im Bereich des Möglichen liegt.

23-

DIE RÖNTGENSTRAHLEN.

Von W. Kaufmann.

In den ersten Tagen des Jahres 1896 ging durch die Tagespresse eine Nach- siiiieitttag. rieht, die zuerst fast allgemein mit Unglauben und Kopfschütteln aufgenommen wurde: Der Physiker C.W. Röntgen in Würzburg sollte eine neue Art von Strahlen entdeckt haben, mittels deren man das Innere undurchsichtiger Kör- per, z. B. die Knochen eines lebenden Menschen, erkennen könne. Die Fach- leute, an die man sich zunächst um Auskunft wandte, wußten meist auch nichts Näheres oder hatten überhaupt noch keine Kenntnis von der sehr knappen ersten Mitteilung in einer wenig verbreiteten Zeitschrift, in welcher Röntgen seine Entdeckung niedergelegt hatte. Auch die Berliner Physiker, welche ge- legentlich eines Festes der physikalischen Gesellschaft die dort ausgestellten ,, Photographien mit Röntgenschen X-Strahlen" bewunderten, wußten zunächst nicht, was sie mit den seltsamen Bildern anfangen sollten. Als dann im Laufe der nächsten Wochen allmählich einige nähere Kenntnis sich verbreitete, machte man sich allenthalben eifrig ans Werk, die wundersamen Erschei- nungen nachzuprüfen.

Wohl selten ist auf einem neuen Gebiet mit solchem Nachdruck gearbeitet worden, wie hier; die Zahl der kleineren und größeren Abhandlungen über die neuen Strahlen überstieg schon in einem Jahre die 1000. Fragt man aber nach dem wissenschaftlichen Erfolg dieser Hochflut, so kann die Antwort nur lauten: Man war nach mehrjähriger Arbeit über die Eigenschaften der Strahlen selbst nicht viel besser unterrichtet, als durch die drei kurzen Mitteilungen, die Rönt- gen in den Jahren 1896 und 1897 veröffentlichte und denen er weitere dieses Gebiet betreffende nicht mehr folgen ließ. Unsere Kenntnisse über das Wesen der neuen Strahlen haben sich erst seit wenigen Jahren durch positive Versuchs- ergebnisse wesentlich vermehrt.

Dagegen hatte die neue Entdeckung gleich von Anfang an einen unge- heuren indirekten Erfolg, indem sie als mächtiges Anregungsmittel wirkte, ein bis dahin nur von wenigen Forschern bearbeitetes Gebiet, die elektrischen Ent- ladungen in Gasen nunmehr intensiv in Angriff zu nehmen und die mannig- fachen hierin verborgenen Probleme zu lösen. Außerdem wurden die Röntgen- strahlen zum Ausgangspunkt für eine weitere fundamentale Entdeckung, näm- lich der Radioaktivität (E. Becquerel, 1896).

Endlich aber entwickelte sich infolge der praktisch medizinischen An- praktuche wendbarkeit der Strahlen mit großer Schnelligkeit eine neue technische Spe- ^^^^ ""**

30

468 23. W. Kaufmann: Die Röntgenstrahlen

zialität, die heute meist als ,, Röntgentechnik" bezeichnet wird und sich auf die Herstellung und Verwendung der einschlägigen Hilfsapparate, wie Induktorien, Röntgenröhren usw. bezieht.

Es ging hier ganz anders zu, als sonst bei der Übertragung wissenschaft- licher Ergebnisse in die Praxis zu geschehen pflegt; meist geschieht diese zu einer Zeit, wo die Forschung auf dem betreffenden Gebiete bereits im wesent- lichen vollendet erscheint; die von Hertz im Jahre 1888 entdeckten elektri- schen Wellen fanden nach eingehender und vollständiger Durchforschung ihrer Eigenschaften im Laboratorium erst im Jahre 1896 den ersten Versuch einer praktischen Anwendung und erst nach weiteren fünf Jahren war man so weit, daß die praktische Verwendbarkeit zur drahtlosen Telegraphie als zweifellos erwiesen gelten konnte. Noch viel größer war der Zeitraum zwischen der Ent- deckung der induzierten elektrischen Ströme durch Faraday i. J. 1831 und ihrer praktischen Anwendung zur maschinellen Erzeugung starker elektrischer Ströme durch Siemens (1867).

Bei den Röntgenstrahlen dagegen wies die Möglichkeit, am lebenden Men- schen die Knochen in ihrer natürlichen Lage und Bewegung sowie ihre etwaigen Verletzungen und Verlagerungen oder eingedrungene Fremdkörper erkennen zu können, so unmittelbar auf die medizinisch-praktische Anwendung hin, daß die Technik sofort alle Hebel in Bewegung setzte, um der Apparatur einen für die Praxis ausreichenden Vollendungszustand zu geben. Dieses Ziel ist denn auch in überraschend kurzer Zeit erreicht worden; war man im Januar oder Fe- bruar 1896 schon glücklich, mit halbstündiger Exposition eine leidlich scharfe Aufnahme der Hand- oder Armknochen zustande zu bringen, so schreckt man jetzt schon nicht mehr von kinematographischen Aufnahmen des pulsierenden Herzens mit sechs bis zwölf Momentaufnahmen in einer einzigen Sekunde zu- rück. Es ist klar, daß diese großen technischen Fortschritte, die sich gleich- mäßig auf alle Hilfsapparate, wie Induktor, Unterbrecher, Luftpumpe, Rönt- genröhre erstrecken, nicht ohne tiefgehenden Einfluß auf die gesamte physi- kalische Forschung geblieben sind, soweit diese sich der genannten Apparate bedient, uaupteigan- Röntgcn entdeckte seine neuen Strahlen bei einer Wiederholung der R^st^hien'Lenardschen Versuche über Kathodenstrahlen in freier Luft (vgl. Artikel 21); er fand nämlich, daß ein unter dem Einfluß von Kathodenstrahlen stark leuch- tendes Präparat, das Baryumplatincyanür in der Umgebung einer Lenard- schen Röhre auch an solchen Stellen leuchtete, zu denen die Kathodenstrahlen gar nicht gelangen konnten. Er fand dann weiter, daß überhaupt in der Um- gebung jedes beliebigen Entladungsrohres, wenn dasselbe nur weit genug aus- gepumpt war, das Leuchten eines mit Baryumplatincyanür bestrichenen Schir- mes wahrnehmbar sei. Allerdings mußte dazu im allgemeinen alles Nebenlicht sorgfältig abgeschirmt, die Röhre selbst mit schwarzem Papier oder einem Tuche völlig dicht umhüllt sein.

Absuchen der Röhre mit dem Leuchtschirm ergab als Ausgangsstelle der neuen Strahlen die von den Kathodenstrahlen hauptsächlich getroffenen Stellen

Haupteigenschaiten 469

der Glaswand, also diejenigen Stellen, welche am stärksten die bekannte grüne Fluoreszenz zeigten. Spätere Versuche zeigten dann, daß auch beliebige andere Körper, z. B. im Inneren der Röhre angebrachte und von den Kathodenstrahlen getroffene Metallbleche als Ausgangsstellen der Strahlen dienen konnten.

Mit den Kathodenstrahlen, denen sie ihre Entstehung verdanken, teilen die Röntgenstrahlen die Fähigkeit, sämtliche Körper zu durchdringen, und zwar in unvergleichlich stärkerem Maße als erstere, wie ja schon daraus hervorgeht, daß sie die Glaswand der Röhre durchsetzen, welche für die Kathodenstrahlen praktisch völlig undurchlässig ist. Auch für die Röntgenstrahlen schien in erster Linie die Dichte der Körper, nicht ihre sonstigen Eigenschaften, maß- gebend für die Durchlässigkeit zu sein. Je größer die Dichte, desto geringer die Durchlässigkeit; so warf ein Aluminiumblech auf dem Leuchtschirm einen kaum sichtbaren, ein Bleiblech einen tiefschwarzen Schatten.

Angesichts der sehr geringen Intensität der Leuchtwirkung, die sich mit Photographische den ersten noch unvollkommenen Apparaten erzielen ließ, war es ein wesent- " °°^' liches Hilfsmittel für die Forschung, daß Röntgen sogleich auch die Wirkung der Strahlen auf die photographischePlatte feststellen konnte. MitHilf e der Photo- graphie konstatierte er als weitere Fundamentaleigenschaften der Strahlen:

I. Geradlinige Ausbreitung durch alle Körper hindurch ohne die geringste Spur einer Brechung. 2. Diffuse Zerstreuung eines Teils der Strahlen, etwa wie die Zerstreuung des Lichts in einem mit Staub oder Nebel erfüllten Räume. 3. Keine nachweisbare Ablenkung durch den Magneten. 4. Mit wachsender Luftverdünnung in der Entladungsröhre also wachsender Entladungsspan- nung — zunehmendes Durchdringungsvermögen der Strahlen. 5. Luft und an- dere Gase werden durch die Strahlen elektrisch leitend gemacht, indem die Gasmoleküle sich in positiv und negativ geladene Teile, in Ionen** zerspalten.

Diese Ionisierung der Gase ist namentlich für quantitative Messungen auf Ionisierung dem vorliegenden Gebiete und auch auf dem der Radioaktivität eines der wich- ^""^ ^*****' tigsten und empfindlichsten Hilfsmittel geworden. Strahlungen, die auf dem Leuchtschirm gar nicht, auf der photographischen Platte erst nach tagelanger Exposition zur Wirksamkeit gelangen, zeigt das Elektroskop durch eine lang- same Entladung schon nach wenigen Sekunden oder Minuten an.

Nach diesem Überblick über die Haupteigenschaften der Strahlung wen- den wir uns den zu ihrer Erzeugung dienenden Hilfsmitteln zu. Dazu gehört in erster Linie ein Apparat zur Erzeugung elektrischer Energie von hoher Span- nung; für die Praxis dürften als solche wohl nur Ruhmkorffsche Funken- induktoren oder Transformatoren für Wechselstrom in Frage kommen, während stromqueUen. für wissenschaftliche Zwecke einer vielplattigen Influenzmaschine wegen der Konstanz des von ihr gelieferten Stromes der Vorzug zu geben ist. War auch der Funkeninduktor zur Zeit der Röntgen sehen Entdeckung ein seit Jahr- zehnten bekannter Apparat (Ruhmkorff, 1850), so gaben doch die Anforde- rungen des Laboratoriums den wenigen Mechanikern, die sich mit seiner An- fertigung auf. Grund rein erfahrungsmäßiger Regeln befaßten, wenig Veranlas- sung zu eingreifenden Verbesserungen.

470 23. W.Kaufmann: Die Röntgenstrahlen

Die mit der praktischen Anwendung der Röntgenstrahlen einsetzende enorme Nachfrage nach stark wirkenden Apparaten veranlaßte nicht nur eine genaue wissenschaftliche Untersuchung der sehr komplizierten physikalischen Vorgänge im Induktor, sondern vor allem auch eine technisch konstruktive Durchbildung seitens der die Fabrikation nunmehr in die Hand nehmenden Großindustrie, durch welche die Brauchbarkeit, Wirtschaftlichkeit und Be- triebssicherheit dieses auch für die drahtlose Telegraphie lange Zeit sehr wichtig gewesenen Apparates ganz wesentlich erhöht wurde. Röhre. Handelte es sich beim Induktor nur um eine technische Vervollkommnung

von bereits Vorhandenem, so mußte der eigentliche Erzeugungsapparat für die Strahlen, die „Röntgenröhre**, von Grund aus durchprobiert und -konstruiert werden; denn wenn auch jede beliebige Entladungsröhre bei genügend hohem Vakuum die Strahlen emittiert, so ist damit doch den Anforderungen der Praxis nicht gedient, welche verlanget, daß die Strahlen möglichst große Intensität be- sitzen, daß die Bilder möglichst scharf werden und daß die Eigenschaften der Röhre und damit auch der Strahlen sich im Laufe der 2^it möglichst wenig ändern. Geometrisch« Zum Verständnis des Folgenden vergegenwärtige man sich, daß die Rönt-

dM^RteS^ genbilder Schattenbilder sind. Bei ihrer Entstehung auf dem Leuchtschirm wid««- oder der photographischen Platte kommen keinerlei optische Apparate, also keine Linsen u. dgl. zur Anwendung, da ja wegen der Nichtbrechbarkeit der Strahlen damit gar keine Wirkung erzielt werden könnte: Die Strahlen be- wegen sich von ihren Ausgangspunkten aus geradlinig bis zum Schirm oder zur Platte und der dort entstehende Eindruck hängt nur von der Intensität der Strahlen ab. Alle Helligkeitskontrastp des Bildes entstehen dadurch, daß die Strahlen auf ihrem Wege Körper von mehr oder weniger starkem Absorptions- vermögen für die Strahlen durchdrungen haben und dadurch verschieden stark geschwächt sind. Die einzelnen Körper werfen also Schatten von abgestuften Graden der Dunkelheit auf die Platte. Das entstehende Schattenbild kann aber nur dann scharfe Ränder haben, feine Details können sich nur dann abbilden, wenn die Strahlungsquelle punktförmig ist; gehen die Strahlen von einer grö- ßeren Fläche aus, wie das bei den ersten Röhren, an deren Glaswand die Strah- len entstanden, der Fall war, so entstehen mehr oder weniger breite Halbschat- ten, die die Ränder verbreitern und alle Details unkenntlich machen. Die geo- metrischen Verhältnisse der entstehenden Bilder folgen aus den Gesetzen der sog. Zentralperspektive. Ein an Stelle der Röntgenröhre befindliches Auge würde den als durchsichtig und das Licht nicht brechend gedachten Gegenstand ebenso sehen, wie das Bild auf dem Schirme oder der Platte. Daraus folgt, daß z. B. die der Röhre näher gelegenen Körperteile auf dem Bilde gegen- über den entfernteren relativ zu groß erscheinen müssen. Soll diese Verzerrung, die namentlich bei dickeren Objekten, etwa dem menschlichen Brustkorb, sehr verwirrend wirkt, vermieden werden, so muß die Entfernung der Röhre mög- lichst vergrößert werden, was aber nur bei sehr intensiv wirkenden Röhren praktisch ausführbar ist.

Röntgentechnik 47 L

Damit ergeben sich als die Grundbedingungen für die Konstruktion einer Form der Röhre. brauchbaren Röhre: i. Die Strahlen dürfen nur von einer möglichst kleinen Fläche ausgehen; die erzeugenden Kathodenstrahlen müssen also durch geeig* nete Formgebung der Kathode in einem Punkte konzentriert werden. 2. Die Kathodenstrahlen müssen möglichst intensiv sein, was wegen der großen Wärme- entwicklung derselben (vgl. Artikel 21) nur möglich ist, wenn der Konzentra- tionspunkt nicht auf der Glaswand liegt, die sehr rasch schmelzen oder springen würde, sondern auf einer /

im Inneren der Röhre be- J

f indlichen Fläche aus hitze- ^^^ ^"'"'"^-jy y

beständigem Material (Pia- >v/^ jy ^r

tin oder Wolfram). '^'"^-Z^v J^ ./\

Aus obigem ergibt sich (^"^jy ^^ ^ y

die jetzt fast allgemein '\ ' rilliV-v-^^^^N^y r* jj

gebräuchliche Grundform . \S^^^^^y^/\ \\ I

der Röntgenröhre als eine '""'X^ x / \ i\ \ /

dünnwandige Glaskugel (s. \^ / / 1 \\.y

Figur), welche in einem An- '^ /C^ \ \^\

satzrohr eine Art Hohlspie- ^•'' / /'*\*'>i

gel aus Aluminium- oder ^ V

Nickelblech {K) trägt, von welchem die Kathodenstrahlen ausgehen; da letz- tere die Kathodenoberfläche senkrecht verlassen und schwach nach außen ge- krümmt sind, so vereinigen sie sich jenseits des Krümmungsmittelpunktes der Kathode auf einem Platin- oder Wolframblech (A K), der sog. „Antikathode* '. Von dieser Vereinigungsstelle gehen die Röntgenstrahlen aus; um ihnen ein möglichst großes freies Austrittsfeld zu geben, ist die Antikathode gegen die Achse des Kathodenstrahlbündels unter 45® geneigt. Als Anode dient entweder die Antikathode oder eine besondere Elektrode A.

Bei den hohen Anforderungen an die Strahlenintensität, welche die heutige KüUung. Technik stellt, genügt häufig die natürliche Wärmeausstrahlung der Anti- kathode nicht, um sie vor dem Durchschmelzen zu schützen, sondern man muß noch zu besonderen Kühlvorrichtungen greifen. Als solche dienen entweder große Flächen aus dünnem an der Oberfläche geschwärztem Kupferblech, welche mit der Antikathode in möglichst gut wärmeleitender Verbindung stehen, oder aber die Antikathode bildet, wie in der Figur angedeutet, den inneren Abschluß eines bis in die Mitte der Kugel hineinragenden Glasrohres, in welches Wasser hineingegossen oder bei längerem Betriebe mittels Zu- und Ableitungsröhren hindurchgeleitet wird.

Ist schon die Herstellung der Röntgenröhren, namentlich solcher größten Formates bis ca. 10 1 Inhalt für den Glasbläser nicht gerade einfach, so stellt die vorbereitende Behandlung an der Luftpumpe bis zum Abschmelzen ganz besondere Anforderungen an die Geschicklichkeit und Umsicht des Her- stellers, da von dieser Behandlung im wesentlichen die Lebensdauer der Röhre abhängt. Durch den Stromdurchgang wird nämlich der Gasinhalt der Röhre

472 23. W.Kaufmann: Die Röntgenstrahlen

und damit auch die Entladespannung, von der wiederum die Qualität der Strah- Hart- und l^u abhängt, in eigentümlicher Weise verändert. Erstens werden durch den

Weichwerden, strom uud durch die entwickelte Wärme Gase, namentlich Wasserstoff, welche in den Elektroden und den Glaswänden in großen Mengen gebunden ok- kludiert waren, freigemacht und verschlechtern das Vakuum; die Praxis be- zeichnet diesen Vorgang, der sich dem Auge sofort durch das Verschwinden der grünen Gasfluoreszenz und Auftreten weißlichen Lichtes im Gase selbst bemerkbar macht, als ,, Weichwerden** der Röhre. Zweitens aber werden durch die Entladung auch Gase gebunden, ein Vorgang, dessen Mechanismus noch wenig aufgeklärt ist; je nach dem Zustand der Röhre und der Strombelastung kann der erste oder der zweite Vorgang das Übergewicht haben. Im ersten Falle wird also, wie schon beschrieben, die Röhre ,, weich**, im zweiten wird das Vakuum immer höher, die Röhre wird ,,hart**. Dadurch verbessert sich zu- nächst die Durchdringungsfähigkeit der Strahlen; aber schließlich nimmt die Stärke der Entladung und damit die Intensität der Strahlen immer mehr ab, bis die Entladung überhaupt nicht mehr durch die Röhre geht, sondern in Form von Funken über die Röhrenoberfläche oder von Büschelentladungen aus den Zuleitungsdrähten in die Luft ihren Weg .sucht. EntgEMn. Dem Weichwerden läßt sich vorbeugen durch stundenlanges kräftiges Er-

hitzen der Röhre unter gleichzeitigem Stromdurchgang und Fortpumpen der entwickelten Gase.

Eine so vorbereitete Röhre wird selbst bei starker Belastung nicht mehr weich, wohl aber wird sie unfehlbar im Laufe der Zeit zu hart und damit eben- falls praktisch unbrauchbar. Je vollkommener die Röhre entgast ist, desto rascher tritt das Hartwerden ein, der Röntgentechniker befindet sich hier also zwischen Scylla und Charibdis, er kann der einen Gefahr nur entgehen, um der anderen zu unterliegen.

Kegenerienug. Als Gegenmittel gegen das Hartwerden hat man eine Reihe von Anord- nungen erdacht, welche alle das Gemeinsame haben, daß auf irgendeine Weise der verschwundene Gasinhalt der Röhre ersetzt wird. Hierzu dienen z. B. an- geschmolzene Platinröhrchen, welche von außen mit einer Spiritusflamme auf Rotglut erhitzt die Fähigkeit erlangen, Wasserstoff, welcher stets in den Flam- mengasen enthalten ist, hindurchdiffundieren zu lassen. Ferner benutzt man Hilfselektroden, die aus irgendeinem porösen und stark gashaltigen Stoff be- stehen — z. B. aus Kohle und so angebracht sind, daß der Strom, wenn er nicht mehr in genügender Stärke durch die Hauptelektroden hindurchgeht, von selbst in die Hilfselektrode übertritt und hier eine genügende Gasmenge frei- macht. Endlich ist es neuerdings gelungen, mittels geeigneter Ventile abge- messene Luftmengen in die Röhre einströmen zu lassen. Auf diese Weise kann man die Lebensdauer der namentlich in den größeren Formaten sehr kostbaren Röhren beträchtlich verlängern. Schließlich macht jedoch ein anderer Vorgang der Brauchbarkeit der Röhren ein Ende; es bedeckt sich nämlich die Rohrwand mit einem Beschläge zerstäubten Kathoden- und Antikathodenmetalls, durch welchen die Entladungsbedingungen in ungünstiger Weise verändert werden.

Röntgentechnik ^ y 3

Die genannten Regeneriereinrichtungen besitzen noch eine andere wich- Hbto- tige Bedeutung, nämlich die Möglichkeit der Einstellung der „Härte** auf ein "«^*^"'"«- für den vorliegenden Zweck gerade geeignetes Maß. Je nach Art und Dicke der zu durchleuchtenden Schichten wird man nämlich Strahlen ganz verschiedener Durchdringungsfähigkeit gebrauchen und sich eine Anzahl passender Röhren bereit halten oder aber die Härte jedesmal passend einstellen.

Eine von der bisherigen gänzlich abweichende Röhrenart ist kürzlich CooUdge-Rshi«. (Dez. 1913) von Cooli dge konstruiert worden: Der Verdünnungsgrad ist so- weit getrieben, daß eine eigentliche Entladung überhaupt nicht mehr mög- lich ist. Die Elektronen werden von einem glühenden Wolframdraht emittiert und ihre Menge hängt bloß vom Glühzustand ab (vgl. a. Art. 21, S. 453). Die Härte der Röhre wird ganz unabhängig davon durch Anlegen einer geeigneten Hilfsspannung reguliert, welche von einem Induktor geliefert wird.

Die sonstigen* Hilfsmittel der Röntgentechnik können hier nur kurz er- sonstige wähnt werden. Der Leuchtschirm ist ein mit fein gepulvertem Baryumplatin* *°" cyanür bedeckter Karton. Die photographischen Platten sind entweder die ge- wöhnlichen Trockenplatten des Handels oder besondere Röntgenplatten mit dickerer empfindlicher Schicht. Zu besonders raschen Aufnahmen dienen Ver- stärkungsschirme, die aus solchen Leuchtsubstanzen hergestellt werden, welche unter dem Einfluß der Röntgenstrahlen möglichst viel photographisch wirk- sames, also violettes oder ultraviolettes Licht aussenden und einfach auf die photographische Platte aufgepreßt werden.

Waren die Erwartungen der medizinischen Fachwelt von Anfang an sehr Medianiach hochgespannte, so kann man jetzt wohl sagen, daß der Erfolg der neuen Strah- i^*^ung. len diese Erwartungen bei weitem übertroffen hat; hielt man den Röntgenappa- rat anfangs für eine allenfalls nützliche Ergänzung des medizinischen Apparates, so würde heute wohl jede Klinik als unvollkommen gelten, die nicht im Besitz eines mit allen modernsten Verbesserungen ausgestatteten Röntgenlaborato- riums ist. Es hieße den Rahmen dieser Darstellung weit überschreiten, die man- nigfachen Anwendungen zur Erkennung von Veränderungen im Knochengerüst, zur Beobachtung der Funktionsweise innerer Organe, Lage von Fremdkörpern usw. hier auch nur aufzuzählen. Dagegen darf eine andere medizinische An- wendungsart der Röntgenstrahlen nicht unerwähnt bleiben, deren Entwicklung sich erst im Anfangsstadium befindet, nämlich die Verwendung der Strahlen zu Heilzwecken. Die Röntgenstrahlen teilen mit dem ultravioletten Lichte nicht verweadang bloß die Erregung der Fluoreszenz (Leuchtschirm), sondern auch die chemischen " **^ **' Wirkungen, zu welchen außer der bekannten Wirkung auf die photographische Platte auch diejenigen auf organische Gewebe gehören. Längere Einwirkung der Röntgenstrahlen auf die Haut erzeugt zunächst ähnliche Erscheinungen wie die Lichtwirkung, die unter dem Namen des Sonnenbrandes bekannt ist und sich als Rötung, Entzündung usw. bemerkbar macht. Was aber die Wirkung der Röntgenstrahlen gefährlicher macht, ist ihre größere Wirkung in die Tiefe, und mancher Techniker, Forscher und Arzt hat in den ersten Jahren, als man Ge&hrUchkeit mit diesen Gefahren noch weniger vertraut war, längeres sorgloses Experimen-

474 ^3* W. Kauihann: Die Röntgenstrahlen

tieren mit starken Röntgenstrahlen mit schmerzhaften Entzündungen, ja mit dem Verlust ganzer Gliedmaßen büßen müssen. Doch sei ausdrücklich bemerkt, daß alle diese Wirkungen erst bei langdauernder intensiver Bestrahlung auf- treten, und daß jeder Arzt durch richtige Dosierung und passend angebrachte Bleischutzblenden Schädigungen zu vermeiden weiß.

Gegenüber der oben geschilderten bis ins einzelne durchgearbeiteten prak- tischen Anwendung nahmen sich die Resultate der wissenschaftlichen Erfor- schung der Röntgenstrahlen bis vor kurzem nicht gerade glänzend aus. Das erste Jahrzehnt der Forschung brachte zwar wichtige Ergebnisse bezüglich der Wirkung der Strahlen, namentlich der Ionisierung der Gase, dagegen so gut wie gar keine sicheren Resultate bezüglich der Natur der Strahlen selbst. Erst die letzten Jahre haben eine Reihe von Eigenschaften der Strahlen er- geben, aus denen sich ziemlich sichere Schlüsse über ihre Natur ziehen lassen, stoket- Die jetzt wohl allgemein geltende Anschauung über die physikalische

^^**JJ^* Natur wenigstens eines Teiles der Röntgenstrahlen beruht auf der von Stokes und von Wiechert i. J. 1896 aufgestellten Ätherimpulshypothese. Wenn näm- lich ein Kathodenstrahl, d. h. ein rasch fliegendes Elektron, beim Auftreffen auf ein materielles Atom plötzlich gebremst wird, so entsteht in dem das Elek- tron umgebenden und mit ihm fortbewegten elektromagnetischen Felde eine theoretisch genau bestimmbare Deformation, die sich mit Lichtgeschwindigkeit nach allen Seiten ausbreitet. Die äußere Grenze dieses sich in den Raum aus- breitenden „Ätherimpulses" geht vom Elektron im Moment des Beginnes des Bremsungsvorganges aus; die innere Grenze verläßt das Elektron im Augenblick des Schlusses der Bremsung. Dauert der Bremsvorgang also eine gewisse kleine Zeit tf so dauert auch der Durchgang des Impulses an jeder beliebigen Stelle des Raumes dieselbe Zeit, und wenn die Lichtgeschwindigkeit mit c bezeichnet wird, so hat der Impuls die „Breite**: c *t. impobbreite. Diesc Impulsbrcitc hat für die Röntgenstrahlen und ihre Eigenschaften eine ganz ähnliche Bedeutung, wie die Wellenlänge für die Eigenschaften der Lichtstrahlen. Physikalisch sind beide Vorgänge offenbar aufs engste verwandt, da wir ja auch das Licht als elektromagnetische Schwingungen des Äthers auf- fassen; nur haben wir es bei den Röntgenstrahlen mit einem einmaligen Stoß, beim Lichte mit regelmäßigen Schwingungen zu tun. Das Verhältnis beider zu- einander ist also ähnlich, wie in der Akustik dasjenige eines Knalles zu einem Tone. (Über eine zweite aus periodischen Schwingungen bestehende Art von Röntgenstrahlen siehe weiter unten.)

Die Theorie läßt voraussehen, daß derartige Impulse ohne Brechung durch materielle Körper hindurchgehen und daß sie um so weniger absorbiert werden müssen, je kürzer die oben definierte Impulsbreite ist; man muß also den „här- teren** Strahlen die kürzere Impulsbreite zuschreiben. Geschwindigkeit. Da nach der Theorie die Geschwindigkeit gleich derjenigen des Lichtes sein soll, so ist eine möglichst direkte Messung dieser Größe von entscheidender Wichtigkeit. Von früheren unvollkommenen Versuchen abgesehen liegen meh- rere Versuchsreihen von E. Marx aus den Jahren 1905— 1910 vor, aus welchen

Physikalische Eigenschaften ^j^

hervorgeht, daß die Strahlen sich mit der Geschwindigkeit elektrischer Draht- wellen, also derjenigen des Lichtes ausbreiten.

Aus der Theorie folgt ferner, daß die Strahlen nicht nach allen Seiten mit lateaaitits- gleicher Intensität emittiert werden, sondern am stärksten in einer Richtung, ^**'*"^»- die bei weichen Strahlen annähernd senkrecht auf derjenigen der erzeugenden Kathodenstrahlen steht und bei härteren sich immer mehr derjenigen der Katho- denstrahlen nähert. Diese Asymmetrie in der Intensitätsverteilung ist von meh- reren Beobachtern tatsächlich gefunden worden (Han 1910, Friedrich 1912).

Die Energie der Röntgenstrahlen bestimmt man durch die Wärme, welche Bn«rgi« bei ihrer Absorption in irgendeinem Körper produziert wird; daß eine solche**' ^traUw Erwärmung wirklich stattfindet, hat zuerst Dorn (i. J. 1897) nachgewiesen. Aus diesen und späteren Messungen anderer Autoren geht hervor, daß der Nutz- effekt der Röntgenstrahlenerzeugung ein äußerst geringer ist; nur etwa Viooo der Energie der Kathodenstrahlen wird in solche der Röntgenstrahlen verwan- delt. Da sich theoretisch berechnen läßt, welche Energie in einem Impuls be- stimmter Breite nach Bremsung eines Elektrons bestimmter Geschwindigkeit enthalten sein muß, so kann man aus den gemessenen Werten des Nutzeffektes und der Geschwindigkeit der erzeugenden Kathodenstrahlen die Impulsbreite berechnen (W.Wien 1905), wobei etwa io~"cm (ein zehnmilliardenstel Zenti- meter) herauskommt, also ca. 100 000 mal weniger als die Wellenlänge der kür- zesten bekannten Lichtwellen.

Diese außerordentliche Kleinheit macht Interferenzversuche mittels Beu- Beogang. gung an feinen Spalten fast aussichtslos, da selbst an Spalten von wenigen Tausendsteln Millimetern Breite sich nur Beugungsphänomene erwarten lassen, die hart an der Grenze des Beobachtbaren stehen. In der Tat waren die ersten in Betracht kommenden Versuche von Haga und Wind (1902) durchaus nega- tiv; aus ihnen ergab sich nur so viel, daß, wenn überhaupt eine Beugung vor- handen war, die Impulsbreite jedenfalls unter io~* cm liegen mußte. Neuer- dings hat dann P. P. Koch (191 2) die photographischen Platten der Beugungs- versuche von Walter und Pohl aus dem Jahre 1909 photometrisch genau durchgemessen und mit einer theoretischen Berechnung von Sommerfeld ver- glichen; es ergab sich eine Andeutung einer Beugung, aus welcher sich eine Im- pulsbreite von etwa 4 * 10''' cm ergab. Wenn dies auch etwa das 40 fache des obigen Berechnungsergebnisses ist, so ist darin doch noch kein Widerspruch gegen die Theorie zu erblicken, da einerseits die Nutzeffektmessungen nicht sehr genau sind, anderseits aber auch die Impulsbreite vom Zustand der Röhre abhänget und man bei der Energiemessung eine möglichst harte, bei den Beu- gungsmessungen eine möglichst weiche Röhre, um überhaupt einen Effekt zu erhalten, nimmt.

Auf eine ganz andere und überraschend einfache Weise wurde durch Gitterbettgung. Friedrich und Knipping (1912) auf Veranlassung von Laue eine scharf ausgeprägte Interferenzerscheinung an Röntgenstrahlen erhalten, die ganz den scharfen Beugungsmaximis entspricht, die man in der Optik an sog. Beugungsgittern, d. h. einem System möglichst vieler paralleler enger Spalte,

476 23. W.Kaufmann: Die Röntgenstrahlen

erhält. In der Optik pflegt man ein solches Gitter durch Einritzen ganz feiner paralleler Linien in Abständen von einigen Tausendsteln Millimetern herzu- stellen. Der Strichabstand beträgt ako nur ein kleines Vielfaches der Wellen- länge des Lichtes. Um ähnliche Erscheinungen an den Röntgenimpulsen zu er- halten, durften die Strichabstände also nur etwa io~* cm (ein hundertmillion- stel Zentimeter) betragen. Das sind aber schon etwa die Abstände der Moleküle eines festen Körpers, und so kam Laue auf den Gedanken, einen festen Körper mit regelmäßig angeordneten Molekülen, das ist eine Kristallplatte, als Beugungs- gitter zu verwenden. Es zeigte sich, daß ein schmales Röntgenstrahlenbündel, das eine aus irgendeinem gut ausgebildeten Kristall geschnittene Platte durch- setzte, auf einer photographischen Platte außer dem direkten Auftreffpunkt der Strahlen noch eine Anzahl in regelmäßiger Weise angeordnete Flecke er- zeugte, deren Anordnung sich ganz genau als ein durch eine Anzahl verschie- dener Wellenlängen erzeugtes Beugungsphänomen deuten ließ. Die berech- neten Wellenlängen lagen zwischen etwa l und 5 lO""' cm. PoUruatkm. Aus der Stokcs- Wicchertschcn Theorie folgt, daß ein Röntgenstrahl- impuls, der senkrecht zur Richtung der erzeugenden Kathodenstrahlen emittiert wird, vollständig polarisiert sein muß, indem der elektrische Kraftvektor nur in derjenigen Ebene schwingt, welche durch die Fortpflanzungsrichtung und die Richtung des Kathodenstrahls bestimmt ist.

Die Existenz einer derartigen Polarisation ist zuerst von Barkla (1905) festgestellt worden, und spätere Beobachter haben seine Resultate durchaus bestätigt. Eine Abweichung von der Theorie ergab sich insofern, als die Polari- sation keine vollständige war, sondern nur eine teilweise, und daß sie von dem Antikathodenmetall abhing. Der Grund für diese Abweichungen ist unterdessen Seknndar- auch aufgeklärt worden: Er rührt von den Sekundärstrahlen her, die jeder von Fioo^^xeia. I^ö^^g^i^trahlen getroffene Körper emittiert. Diese Sekundärstrahlen sind •*«"•»• teils diffus zerstreute Primärstrahlen, teils durch einen der Fluoreszenz ana- logen Vorgang seitens des getroffenen Körpers emittierte Strahlen. Sie sind stets gänzlich unpolarisiert. Da nun auch von der Antikathode selbst solche Fluoreszenzstrahlen emittiert werden, so lagert sich über den polarisierten Anteil immer ein unpolarisierter, welcher den gesuchten Elff ekt verschleiert. Für diese Fluoreszenzstrahlen sind namentlich durch Barkla und Sadler seit dem Jahre 1908 eine Reihe interessanter Gesetzmäßigkeiten aufgefunden worden, deren nähere Aufführung hier zu weit führen würde; das wichtigste Resultat ist, daß jedes chemische Element zwei ihm charakteristische Fluoreszenzstrahlungen bestimmter Härte besitzt, die es nur dann aussendet, wenn die Härte des Primärstrahls gleich oder größer ist als jene. Es ist dies ein vollständiges Analogon zu dem Stokes sehen Gesetz der Fluoreszenz, wonach ein Körper nur dann fluoresziert, wenn die erregenden Lichtwellen kürzer sind als die erregten. Neueste Versuche von Bragg sowie von Moseley, welche mit- tels der oben geschilderten Interferenzen an Kristallplatten die Fluoreszenz- strahlungen untersuchten, ergaben, daß diesen ganz bestimmte Wellenlängen von 1,4 bis 3,4 10""' cm zukommen, daß es also periodische Bewegungen

Physikalische Eigenschaften ^yy

sind. Die Wellenlängen sind dem Quadrat des Atomgewichts^) umgekehrt weUeniingen proportional; hier ist also eine Spektroskopie der Röntgenstrahlen im Werden begriffen. Die Berechnung der Wellenlängen setzt Kenntnis des atomisti- schen Aufbaus der benutzten Kristalle voraus; die Übereinstimmung der unter verschiedenen Bedingungen erhaltenen Resultate stützt die Anschau- Krisuustraktur. ung von der Raumgitterstruktur der Kristalle und zeigt, daß die Röntgen- strahlen ein wichtiges Hilfsmittel zur Untersuchung des feineren Aufbaus der Kristalle sind.

So sind doch recht wichtige positive Resultate bezüglich der Röntgen- strahlen in den letzten Jahren erreicht; aber noch viel mehr bleibt der Forschung zu tiin übrig und noch mancher überraschende Einblick in die Welt des Kleinsten, der Atome, wird uns gerade durch dieses eigenartige Hilfsmittel ge- boten werden.

I) Nach neuesten Ergebnissen genauer dem Quadrat der um eins verminderten Ord- nungsnummer im periodischen System der Elemente.

Literatur.

Für den medizinischen Teil: Kienböck, Radiotherapie. Stuttgart 1907. Für den phy- sikalischen Teil: Pohl, Physik der Röntgenstrahlen. Braunschweig 19x2. Femer Mt^LLSR. Pouillet's Lehrbuch der Physik, Band IV, 3 (bearbeitet vom Verfasser dieses Artikels). Braunschweig 191 4.

24-

ENTDECKUNGSGESCHICHTE UND GRUNDTATSACHEN DER RADIOAKTIVITÄT.

Von

J. Elster und H. Geitel.

Eutdeckaag Nach der Auffindung der Röntgenstrahlen ist mehr als einem Physiker

' der Gedanke gekommen, es möchte diese neue Strahlenart auch auf anderem Wege erhalten werden können, als auf dem bekannten vermittels der elektri- schen Entladung im Vakuumrohre. Das grüne Fluoreszenzlicht des Glases, das in den ersten Röntgenröhren die Stelle sichtbar machte, aa der die Kathoden- strahlen ihre Energie verloren und von der die Röntgenstrahlen ausgingen, schien nicht nur äußerlich, sondern auch ursächlich mit ihrer Erzeugung im Zusammenhange zu stehen. War ja doch der Vorgang der Fluoreszenz selbst noch nicht geklärt genug, so daß man sich einer ganz unerwarteten Begleit- erscheinung wohl versehen durfte.

Die angedeutete Gedankenverbindung verdichtete sich zu der bestimmten Fragestellung: Ist die Fluoreszenz, auch wenn sie nicht durch elektrische Ener- gie angeregt wird, eine Quelle der Röntgenstrahlung }

Es gibt eine große Zahl von Stoffen, die nicht nur im elektrischen Ent- ladungsrohre, sondern auch von gewöhnlichem Licht getroffen fluoreszieren, d. h. selbst wieder Licht aussenden, dessen Wellenlänge von der des erregenden verschieden, in der Regel größer als bei jenem ist. Wenn die Fluoreszenz nun mit der Aussendung von Röntgenstrahlen untrennbar zusammenhing, so mußte in der Nähe solcher Stoffe, solange diese dem Lichte ausgesetzt waren, eine photographische Platte verändert werden, die zur Abhaltung des gewöhnlichen Lichtes in schwarzes Papier, Holz oder Metallfolie eingehüllt war, welche Sub- stanzen bekanntlich von den Röntgenstrahlen leicht durchsetzt werden.

Merkwürdigerweise fielen einige Versuche, die von Henry, Nieuwen- glowski und Troost mit dem fluoreszierenden Schwefelkalzium und Schwefel- zink angestellt wurden, in bejahendem Sinne aus: Unter diesen Stoffen zeigte sich eine photographische Platte durch eine lichtdichte Scheidewand hindurch nach der üblichen Behandlung im Entwickler geschwärzt. Wie diese Wirkungen zustande gekommen sind, dürfte jetzt schwer zu entscheiden sein, es gelang noch nicht, sie mit Sicherheit wieder zu erhalten.

H. Becquerel, der sich vergeblich um diesen angeblichen Effekt bemüht hatte, griff zu anderen fluoreszierenden Stoffen und wählte dabei, nicht ohne vom Glück begünstigt zu sein, die Salze des Metalls Uran, speziell das schön

Uranstrahlen

479

grün fluoreszierende Urankaliumsulfat. Während alle anderen Substanzen keine Wirkung zeigten, war diese bei den Uransalzen unverkennbar. Es schien also doch der gesuchte Zusammenhang sichergestellt zu sein, es bestand eine durchdringende, der Röntgenschen ähnliche Strahlung bei den Uransalzen, und nichts hätte nach dem Vorhergegangenen natürlicher erscheinen können, als in der Fluoreszenz jener Salze die unmittelbare Quelle der Strahlung zu suchen, die letztere selbst also als verwandelte Lichtenergie aufzufassen.

Leicht konnte die Forschung an dieser Stelle auf einen Irrweg geraten. Becquerel war vorsichtig genug, sich durch den ersten Erfolg nicht blenden zu lassen.

Die Fluoreszenz der Uransalze, soweit sie wenigstens dem Auge sichtbar ist, erlischt in etwa Vioo Sekunde, sobald sie dem erregenden Lichte entzogen werden, dagegen zeigte sich die Schwärzung der lichtgeschützten photographi- schen Platte in gleicher Stärke, mochte das Uransalz während der Dauer des Versuches von der Sonne bestrahlt oder zeitweilig im Dunkeln gehalten sein.

Noch eine weitere Wahrnehmung kam hinzu. Es ist bekannt, daß nicht alle Uranverbindungen fluoreszieren. Hing die neue Strahlung tatsächlich mit der sichtbaren Fluoreszenz zusammen, so mußte sie bei den nichtfluoreszieren- den fehlen.

Der Versuch ergab dagegen das ausnahmslose Zusammengehen der Strah- lung mit der Gegenwart des Urans, ganz unabhängig sowohl von der Fluores- zenz sowie den sonstigen Eigenschaften der Verbindung; die stärkste Wirkung fand sich bei dem metallischen Uran selbst. Um den vorausgesetzten Zusam- menhang zwischen der Fluoreszenz und den neuen Strahlen zu retten, hätte man dem Uran als Element eine besondere bis dahin unbekannte Art von Flu- oreszenz zuschreiben können, die aus einem etwa während einer vorherge- gangenen Belichtung oder aus anderer äußerer Quelle aufgespeicherten Ener- gievorrate stammte; Gedanken dieser Art sind von verschiedenen Seiten ge- äußert worden, ohne daß sie durch Tatsachen belegt werden konnten.

Becquerel schloß dagegen aus seiner fortgesetzten Untersuchung der neuen Erscheinung auf ihre völlige Unabhängigkeit vom Lichte und auf ihre Unveränderlichkeit in der Zeit, das Uran erwies sich ihm als die Quelle einer durchdringenden Strahlung ohne ersichtliche erregende Ursache.

Es ist nicht zu verwundern, daß diese Feststellungen auf Zweifel stießen, schienen sie doch mit dem Energieprinzip im Widerspruche zu stehen. Anderer- seits wurden sie bestätigt überall, wo man sich dazu entschloß, dieBecquerel- schen Versuche zu wiederholen.

Die Nachprüfung und die weitere Erforschung der neuen Strahlenart wurde sehr erleichtert durch eine weitere Ähnlichkeit mit den Röntgenstrahlen; sie machen die Luft und andere Gase, die von ihnen getroffen werden, elektrisch leitend. Diese Eigenschaft ermöglicht in weit vollkommenerem Maße wie die photographische Wirkung eine quantitative Messung, die bei Verwendung ge- eigneter Elektrometer zu äußerster Empfindlichkeit gesteigert werden kann.

Gegenüber der Unsicherheit, die der Deutung schwacher photographischer

480 24* J* Elster u. H. GeiteL: Entdeckungsgeschichte u. Grundtatsachen der Radioaktivität

Eindrücke anhaftet, und die ja auch bei den erwähnten Versuchen an den Sul- fiden des Zinks und Kalziums irreführend erfreulicherweise mit günstigem Erfolge gewirkt hatte, gewährleistete die elektrische Methode eine vollkom- mene Objektivität des Beobachters und mußte auch den Ungläubigen von der Existenz der Uranstrahlen überzeugen. Dabei waren die elektrischen Vor- gänge innerhalb der Luft, die eben ihre Leitfähigkeit bedingten, bequem auf Grund der Theorie der Gasionen zu übersehen, die ursprünglich zur Erklärung des elektrischen Verhaltens der Flammengase aufgestellt, sich auch für die übrigen bekannten Fälle von Elektrizitätsleitung in Gasen bewährt hatte.

Man verdankt der elektrischen Untersuchungsmethode den sicheren Nach- weis, daß die Intensität der Strahlung der Uranverbindungen proportional ihrem Gehalt an dem Element Uran ist; die Strahlungsfähigkeit oder „Radio- aktivität" erscheint daher als eine Atomeigenschaft jenes Metalles. An dieser wesentlichen Feststellung ist außer Bec quer el Frau Curie beteiligt, ebenso gemeinsam mit G. C. Schmidt an dem Nachweise der Radioaktivität bei einem anderen Elemente, dem Thorium.

Inzwischen war auch für die Röntgenstrahlen festgestellt, daß sie in keiner Weise mit der Fluoreszenz des Glases der Vakuumröhre in ursächlichem Zu- sammenhange standen; die Gedankenverknüpfung, von der die Entdeckung der Radioaktivität ausging, entbehrte demnach durchaus der tatsächlichen Grundlage, Die itark aktiven Während Bccquerel sich ganz den physikalischen Eigenschaften der derPwhWelide Uranstrahlen zuwandte, besonders der durch sie an der Oberfläche beliebiger Körper erregten sog. Sekundärstrahlung, die seinem Scharfblicke nicht ent- gangen war, wurde Frau Curie dadurch zu ungeahnten Erfolgen geführt, daß sie den Einfluß der chemischen Natur der Uranverbindungen auf ihr Strah- lungsvermögen weiter verfolgte.

Sie hatte bemerkt, daß die in der Natur vorkommenden Uranmineralien wesentlich stärker radioaktiv waren als die künstlichen Verbindungen von glei- cher chemischer Zusammensetzung, ja z. T. das chemisch rein dargestellte Uran- metall übertrafen. In dieser Tatsache würde ein Widerspruch gegen die soeben genannte Erfahrung liegen, nach der die Aktivität einer künstlich hergestellten Uranverbindung nur von ihrem Urangehalt abhängt, solange man nicht annahm, daß in den natürlichen Uranmineralien ein fernerer strahlender Bestandteil von größerer Aktivität als das Uran selbst enthalten wäre. Frau Curie zog diese Folgerung und unternahm es, unter Mitwirkung ihres Gatten und des Herrn B6mont, den unbekannten Stoff abzuscheiden.

Als Ausgangsmaterial diente das am häufigsten vorkommende Uranerz, die sog. Pechblende, deren Aktivität, verglichen nach der elektrischen Methode, etwa das Dreifache von der des metallischen Urans ist. Die Pechblende würde als reine Uranverbindung gedacht nach der Formel Ur^ Og zusammengesetzt sein, das natürliche Mineral enthält aber neben Uran und Sauerstoff noch eine sehr große Anzahl anderer chemischer Elemente, unter diesen Eisen, Blei, Silber, Kupfer, Wismut, Antimon, Arsen, Schwefel, auch Thorium, Lanthan, ferner

Polonium und Radium ^3i

Baryum, Lithium und das gasförmige Helium. Alle diese letztgenannten Elemente, mit Ausnahme des nur spurenweise in der Pechblende enthaltenen Thoriums, sind inaktiv, und es mußte der gesuchte aktive Stoff durch ein um- ständliches Scheidungsverfahren gewonnen werden. Die Trennungsmethoden für die bekannten Elemente waren die gegebenen der Mineralanalyse; auf rein physikalischem Wege, durch Messung der Radioaktivität der einzelnen Bestand- teile vermittels der durch sie erregten Leitfähigkeit der Luft konnte festgestellt werden, welchem bekannten Elemente der unbekannte radioaktive Stoff sich angeschlossen hatte. Als Ergebnis der mit großer Umsicht geführten Unter- suchung stellte sich heraus, daß die größte Radioaktivität an denjenigen Teil- produkten haftete, die das Wismut und das Baryum enthielten. Da diese beiden Elemente in ihrem chemischen Verhalten sehr stark verschieden sind, so konnte auf die Existenz zweier neuer radioaktiver Stoffe außer Uran und Thor in der •Pechblende geschlossen werden, deren einer durch die chemischen Trennungs- methoden bei dem Wismut, deren anderer beim Baryum angesammelt wird. Die Aktivität dieser Stoffe im reinen Zustande mußte ungemein viel höher sein als die des Urans, da das erhaltene ,, Radiowismut** und „Radiobaryum**, die chemisch sich von reinen Wismut- und Baryumverbindungen kaum unter- schieden, schon das mehrhundertfache der Aktivität des Urans zeigten.

Den beiden so entdeckten hochaktiven Substanzen hat Frau Curie be- kanntlich die Namen Polonium und Radium gegeben unter der Annahme, daß es chemische Elemente in dem hergebrachten Sinne seien. Für das Radium ließ sich der Beweis in derselben Art führen, die uns etwa aus der Entdeckungs- geschichte des Cäsiums und Rubidiums geläufig ist; es wurde gezeigt, daß sich aus dem Radiobaryum durch fraktionierte Kristallisation eines Salzes, nämlich des Chlorides, in wässeriger Lösung ein leichter und ein schwerer lösliches Salz ab- scheiden ließ. Das erstere ist im wesentlichen Chlorbaryum, das letztere ent- hält um so mehr Radium, je weiter die Fraktionierung fortgesetzt wird. Man gelangte zu einem Endprodukte, das sowohl beim Verdampfen im elektrischen Funken, wie auch nach späterer Feststellung von Giesel, der die Bromide zur Fraktionierung vorschlug, in der Bunsenflamme ein selbständiges Spektrum liefert. Chemisch steht das Radium dem Baryum sehr nahe, gehört also zu der Gruppe der Metalle der Erdalkalien; auch sein Spektrum, das dem des Baryums, Strontiums und Kalziums ähnelt, bezeugt diese Verwandtschaft.

Mit Hilfe eines Präparates von Radiumchlorid, dessen Spektrum nur noch schwache Spuren der Baryumlinien zeigte, bestimmte Frau Curie das Atom- gewicht des neuen Elementes zu 225. Spätere Bestimmungen haben diese Zahl etwas erhöht, der wahrscheinlichste Wert dürfte (nach Hönigschmid) nahe bei 226 liegen. Es ist bemerkenswert, daß die radioaktiven Elemente Uran (238,2), Thorium (232,2) und Radium zugleich die höchsten aller Atomgewichte haben.

Auch die Abscheidung des metallischen Radiums ist geglückt, und zwar nach derselben Methode, die beim Baryum zum Ziele führt. Das elektro- lytisch gewonnene Amalgam des Metalles wird im Vakuum durch Erhitzung

K.d.G.in.in,Bdz Physik 3I

482 24. J. Elster u. H. Gbttel: Entdeckungsgeschichte u. Grundtatsachen der Radioaktivität

von dem Quecksilber befreit, wobei, wenn die richtige Temperatur eingehalten wird, das reine silberweiße Radiummetall zurückbleibt. Auffallende Eigen- schaften außer dem Strahlungsvermögen, das es ja mit allen seinen Verbindun- gen teilt, sind an dem freien Radium nicht wahrgenommen. Gleich den anderen Erdalkalimetallen ist es an der Luft unbeständig; um es vor Oxydation zu schützen, muß man es im Vakuum aufbewahren. Bei allen Versuchen mit Ra- diumstrahlen bedient man sich, wie bekannt, nicht des Metalles selbst, sondern solcher chemischer Verbindungen, die luftbeständig sind, gewöhnlich des Chlo- rides oder Bromides.

Weit größere Schwierigkeiten stellten sich dem Nachweise der elementaren Natur des Poloniums, des aktiven Begleiters des Wismuts entgegen. Es gelang zwar auch hier, Präparate bis zu der millionenfachen Aktivität des Urans herzustellen, dem spektralen Befunde nach bestanden sie aber allein aus Wis- mutverbindungen. Dabei zeigte sich an ihnen eine Eigenschaft, die für das Ver- ständnis der Radioaktivität von größter Bedeutung werden sollte, nämlich die allmähliche Erschöpfung ihres Strahlungsvermögens. Wollte man an der ele- < mentaren Natur des Poloniums festhalten, so hätte man hiernach entweder sein allmähliches Verschwinden oder seine Umwandlung in eine weniger ak- tive Substanz annehmen müssen, beides nicht ohne Widerspruch gegen die grundsätzlich noch geltende Unveränderlichkeit des chemischen Elementes. Er- gänzend sei bemerkt, daß spätere Untersuchungen an reicherem Materiale auch für das Polonium die Existenz bestimmter Spektrallinien wahrscheinlich ge- macht haben.

Aber mit dem Radium und Polonium waren die hochaktiven Bestandteile der Pechblende noch nicht erschöpft. Von Debierne und Giesel wurde eine dritte „Häufungsstelle*' der Aktivität in den Produkten der chemischen Ana* lyse gefunden, und zwar bei den sog. seltenen Erden, dem Thorium nach De- bierne, dem Lanthan nach Giesel. Debierne gab dem neuen hypothetischen Elemente den Namen Aktinfum, während Giesel für das seinige die Bezeich- nung Emanium vorschlug. Gewisse Unstimmigkeiten in den Eigenschaften der beiden Produkte, die anfangs für identisch gehalten wurden, sind später durch Boltwood aufgeklärt; es liegen tatsächlich zwei radioaktive Stoffe vor. Der jetzt allgemein als Aktinium bezeichnete ist mit Giesels Emanium identisch, während das Debiernesche Aktinium außerdem einen weiteren hochaktiven Bestandteil enthielt, nämlich das von Boltwood zuerst unter- schiedene lonium.

Sehr überraschend war das gemeinsame Vorkommen aller dieser Radioele- mente, deren Reihe durch weitere Untersuchungen noch verlängert wurde, in der Pechblende. Aber nicht nur in diesem seinem Haupterze, sondern auch in sämtlichen anderen natürlichen Vorkommen wird das Uran von allen diesen Stoffen mit einziger Ausnahme des Thoriums, das auch fehlen kann, begleitet Nun kennt man zwar auch bei manchen der übrigen Elemente die ständige Ver- gesellschaftung an ihren natürlichen Fundstellen, wie z. B. die des Kaliums mit dem seltenen Rubidium und Cäsium, des Zinks mit dem Kadmium, aber in die-

Aktinium und andere Radioelemente 483

sen Fällen liegt eine annehmbare Erklärung in der nahen Übereinstimmung der chemischen Reaktionen, die der Trennung selbst durch den planmäßig arbeiten- den Chemiker Schwierigkeiten bereitet.

Das Uran, das Radium, Polonium und Aktinium gehören dagegen weit aus- einanderliegenden Gruppen der Elemente an, sie zeigen in ihren Reaktionen keinerlei Ähnlichkeit miteinander, und es ist vom Standpunkte des Chemikers aus nicht verständlich, wie sie sich bei der natürlichen Bildung der verschie- densten Uranerze, der Oxyde, Phosphate, Vanadate und zwar obendrein, wie sich später herausstellte, fast ausnahmslos in konstanten Gewichtsverhält- nissen — immer wieder zusammengefunden haben sollten. Viel eher dürfte man meinen, daß z. B. das Radium mit dem Baryum vergesellschaftet vor- käme, von dem es chemisch nur sehr schwer abtrennbar ist, aber diese Erwar- tung trifft nicht zu, die Baryummineralien, mit einziger Ausnahme des in den Sedimenten von radiumhaltigen Thermalquellen vorkommenden Schwerspa- tes, sind radiumfrei, wenn sie nicht zugleich Uran enthalten. Man hätte schon auf Grund dieses Zusammengehens der genannten Radioelemente mit dem Uran in der Natur auf den genetischen Zusammenhang unter ihnen schließen können, der auf anderer Grundlage später von Rutherford aufgefunden ist. Wie an das Uran, so schließt sich auch an das Thorium eine Familie weiterer Radioelemente an, von denen das Mesothorium (von Hahn entdeckt) und das Radiothor mit den Curi eschen hochaktiven Elementen Radium und Polonium an Aktivität vergleichbar sind.

Durch die chemische Darstellung des Radiums, Poloniums und Ak- Die Grundeigen- tiniums wurden die unscheinbaren Wirkungen des Urans, die den Weg in das dorstndüeii neue Forschungsgebiet gewiesen hatten, zunächst dem Hauptinteresse ^^t- ^^' '^^^^^""^^ zogen. Die Strahlen der neuen Stoffe bewirkten in wenigen Sekunden dieselbe Veränderung an photographischen Platten, zu der das Uran Stunden und Tage beansprucht hatte, sie machten die Gase elektrisch leitend in dem Maße, wie man es von Kathoden- und Röntgenstrahlen kannte, und erregten gerade wie diese Lichterscheinungen an phosphoreszierenden Körpern. Selbst durch zentimeter- starke Eisen- und Bleiplatten hindurch ließ sich die Radiumstrahlung an einem Baryumplatincyanürschirm sichtbar machen. Es liegt auf der Hand, daß die physikalische Untersuchung der neuen Strahlen durch diese Steigerung ihrer Stärke ganz wesentlich gefördert werden mußte. In der Tat erwies sich auch dies Forschungsgebiet nicht weniger fruchtbar als das der chemischen Untersuchung.

Schon an den Strahlen des Urans wie des Thoriums hatte E, Rutherford nach dem Grade ihrer Absorbierbarkeit in materiellen Schichten zwei Arten unterschieden. Die eine, die er als a- Strahlen bezeichnete, wurden durch dünne Blätter Papier oder Metallfolie vollständig zurückgehalten, die andere, die ß- Strahlen, hatten ein weit größeres Durchdringungsvermögen, die Abnahme ihrer Intensität beim Durchgange durch homogene Stoffe folgte demselben Gesetze, welches für Lichtstrahlen in einem absorbierenden Medium gilt. An hochaktiven gealterten Präparaten von Radium traten mit besonderer Deut- lichkeit Strahlen von sehr großer Durchdringungsfähigkeit hervor, die man als

31*

484 ^4 J- Elster u. H. Geitel: Entdeckungsgeschichte u. Grundtatsachen der Radioaktivität

T- Strahlen von den vorigen unterschied, und schließlich zeigten sich an allen mit a- Strahlung begabten radioaktiven Körpern äußerst leicht absorbierbare, sog. b- Strahlen.

Die Einteilung erscheint zunächst nicht frei von Willkürlichkeit, die Unter- schiede der Klassen sind noch fließend. In der Folge hat sich indessen ihre in- nere Berechtigung herausgestellt, es handelt sich um absolute, nicht relative Verschiedenheiten. Nach ihrem physikalischen Verhalten ist die a- und ß- Strah- lung korpuskularer Art; die erstere besteht aus materiellen, mit der positiven doppelten elektrischen Elementarladung^) (9,3 io"~" elektrostatischen Einh.) behafteten Partikeln, den Atomen des Elementes Hehum, die ß- Strahlung wird durch negative elektrische Elementarladungen freie Elektronen gebildet, die sich mit sehr großen, in gewissen Fällen der des Lichtes nahekommenden Geschwindigkeiten bewegen, beide, a- und ß- Strahlung, stammen aus dem Ato- me des radioaktiven Elementes. Die b- Strahlung ist, abgesehen von der weit ge- ringeren Geschwindigkeit der bewegten Elektronen, mit der ß- Strahlung von gleicher Natur.

Die T- Strahlen endlich sind elektrisch neutral, sie gleichen durchaus den Röntgenschen, nur daß unter ihnen solche vorkommen, deren Durchdringungs- fähigkeit (Härte) die der härtesten Röntgenstrahlen übertrifft. Man hat sie dem- nach, seit durch Laue und seine Mitarbeiter die Wesensgleichheit der Röntgen- strahlen mit sehr kurzwelligem Lichte erwiesen ist, als Licht (d. h. als elektro- magnetische Wellen) von der kleinsten bis jetzt bekannten Wellenlänge (Impuls- breite) aufzufassen. Die a- und ß- Strahlen sind nicht für alle radioaktiven Stoffe von derselben Art. Den ersteren eigentümlich ist das anscheinend voll- ständige Erlöschen nach dem Passieren einer bestimmten Schichtdicke homo- genen Stoffes. Sie haben, wie Bragg und Klee man fanden, eine gewisse nach Zentimetern zählende Reichweite in Luft normaler Dichtigkeit, die für das betreffende a-strahlende Radioelement eine spezifische Konstante ist.

Ein weiteres Kennzeichen der a- Strahlung bildet die Art der durch sie am Zinksulfid, Diamant und anderen phosphoreszierenden Stoffen erregten Licht- erscheinung, die aus sternartig aufblitzenden Lichtpünktchen besteht. Auch die ß- Strahlen sind ihrer Anfangsgeschwindigkeit nach von der Natur des ak- tiven Materials abhängig. Die a- Strahlung kann nahezu frei von ß- und T* Strahlen vorkommen, wiez. B. beim Polonium und lonium, ß- und y- Strahlen treten wie a- und b- Strahlen immer zusammen auf.

Die ß- und y- Strahlen veranlassen beim Zusammentreffen mit Materie das Auftreten der schon erwähnten, von Becquerel entdeckten Sekundärstrahlen. Diese bilden eine sehr zusammengesetzte Erscheinung; sie bestehen teils aus diffus zerstreuten Strahlen, die mit den einfallenden von gleicher Natur sind, teils aus ß- Strahlen verschiedener Geschwindigkeit, deren langsamste zur Klasse der b- Strahlen gehören, teils schließlich aus t- Strahlen, deren Härte von der Natur des getroffenen Stoffes abhängt.

1) Als Elementarladuug ist die des einwertigen Wasserstoffions zugrunde gelegt.

Natur der Strahlen. „Induzierte" Aktivität 485

Auch der Durchgang der a- Strahlen durch Materie ist immer mit der Ent- wicklung von b- Strahlen verbunden.

Die hier nur kurz berührten Unterschiede der Strahlenarten wurden auf eine feste Grundlage gestellt durch den Nachweis der magnetischen Ablenkung der ß-Strahlen durch Giesel, St, Meyer und von Schweidler und Becquerel, und die Entdeckung ihrer negativen Eigenladung durch Frau Curie. Später ge- lang E. Rutherford auch die Ablenkung der a- Strahlen in sehr kräftigen Ma- gnetfeldern und aus dem Sinne der Ablenkung, der entgegengesetzt war wie bei den ß- Strahlen, der Beweis für ihre positive Ladung. So hat sich die von Becquerel entdeckte unsichtbare Strahlung bei näherer Prüfung als von we- sentlich zusammengesetzterer Natur erwiesen wie die Röntgensche, der sie anfangs äußerst ähnlich erschien.

Eine weitere, zunächst höchst rätselhaft anmutende Eigenschaft mancher Die mdasierte radioaktiver Stoffe bestand nach Herrn P. Curies Entdeckung darin, daß sie '^£^'[[^tio^'J„^'* ihr Strahlungsvermögen auf ganz beliebige unwirksame Körper übertrugen. Wieder trat die Versuchung hervor, auf die alte Analogie mit der Fluoreszenz und Phosphoreszenz zurückzugreifen. Wie die Lichtstrahlen in manchen Kör- pern ein mehr oder minder schnell abklingendes Nachleuchten erregen können, so zeigten sich beliebige Stoffe, die mit Radiumpräparaten in demselben Räume eingeschlossen gewesen waren, ebenfalls radioaktiv; die gleiche Übertragung fand sich bei Aktinium und Thorium wieder.

Das auf diese Weise der neutralen Materie mitgeteilte Strahlungsvermögen war wie die Phosphoreszenz nicht beständig; je nach dem Radioelemente, von dem es herrührte, nahm es in rascherem oder langsamerem Tempo an Stärke ab, um endlich ganz zu erlöschen. Der Name „induzierte Aktivität** bezeichnet die Wirkung treffend ihrer äußeren Erscheinung nach, ihr Wesen ist von Ru- therford richtig . erkannt worden. Nicht um die vorübergehende Erregung eines Zustandes handelt es sich, sondern um eine Übertragung radioaktiven Stoffes. Rutherford zeigte, daß das Thorium, dessen Aktivität, »induzierend** auf neutrale Körper zu wirken vermag, ein besonderes Gas entwickelt, das selbst radioaktiv ist. Aus ihm bilden sich im Laufe der Zeit andere aktive, nicht gasförmige Körper, die im Zustande äußerster Verteilung (als radioaktive Niederschläge) an allen Körpern oberflächlich anhaften, mit denen das Gas, die sog. Emanation des Thoriums, in Berührung kommt. Eigentümlicherweise wird diese Übertragung dadurch wesentlich befördert, daß man jene Körper negativ elektrisiert. Die Umwandlungsprodukte der Emanation müssen daher im Augenblicke ihrer Entstehung freie positive Elektrizität enthalten, trotz- dem die Umwandlung unter Aussendung von a- Strahlen, also Abgabe posi- tiver Elektrizität, erfolgte. Es erklärt sich dies aus dem gleichzeitigen Auf- treten von b- Strahlen, durch welches jener Verlust an positiver Ladung mehr als aufgewogen wird. Bei den verschwindend kleinen Mengen, in denen die Emanation nur erhalten wird, konnte der Nachweis ihrer stofflichen Natur zunächst nur indirekt etwa durch Messung ihrer Diffusionsge- schwindigkeit — geschehen. Später ist die von Dorn zuerst beobachtete

aus

486 24. J, Elster u. H Geitel : Entdeckungsgeschichte u. Grundtatsachen der Radioaktivität

Emanation des Radiums durch Ramsay in wägbarer Menge dargestellt, durch Druck und Abkühlung (mittels flüssiger Luft) ist sie in flüssigem Zustande gewonnen. Außer dem Thorium und Radium entwickelt auch das Aktinium eine Emanation.

Die „induzierten" Aktivitäten sind demnach diejenigen aktiven Stoffe, die aus den Emanationen hervorgehen. Sie verwandeln sich selbst wieder unter Strahlenaussendung in neue Produkte, bis die Reihe mit einem inaktiven Schluß- gliede endigt. Man pflegt die einzelnen Glieder mit den Anfangsbuchstaben des Alphabets zu bezeichnen, indem man den Namen desjenigen Radioelementes zufügt, von dem sie sich herleiten. So bedeutet Radium A den ersten der aus der Umwandlung der Radiumemanation hervorgegangenen aktiven Stoff. Die Geschwindigkeit, mit der der Übergang in das folgende Glied der Reihe vor sich geht, ist für jeden einheitlichen radioaktiven Körper unveränderlich. Ge- wöhnlich wird sie gemessen durch die Halbierungszeit, d. h. durch die Zeit, die zur vollständigen Verwandlung seiner halben Masse erforderlich ist. Beim Radium beträgt diese etwa 1700 Jahre, bei der Radiumemanation rund vier Tage, bei der des Thoriums etwa eine Minute.

Da die Umwandlung der Radioelemente unausgesetzt fortschreitet, so folgt, daß man keins von ihnen völlig frei von seinen Nachkommen herstellen kann. Ein frisch durch Kristallisation gewonnenes Radiumsalz enthält da- her schon Spuren der Radiumemanation und ihrer Abkömmlinge. Anfangs wird dieser Emanationsgehalt mit der Zeit zunehmen, da aber um so mehr da- von zerfällt, je mehr in dem Salze eingeschlossen ist, und die Neubildung aus dem Radium immer gleich bleibt, so muß ein Zeitpunkt eintreten, von welchem an der konstante Zufluß den Verlust gerade deckt. Man sagt dann, die Radium- emanation befinde sich mit ihrer Muttersubstanz, dem .Radium, im Gleich- gewicht. Wenn wie in dem vorliegenden Falle die Emanation eine bei weitem kleinere Halbierungszeit hat als die Muttersubstanz, so gilt das Gesetz, daß ihre Menge (gemessen gedacht durch die Zahl der vorhandenen Atome) zu der des Radiums in demselben Verhältnisse steht wie die entsprechenden Hal- bierungszeiten. Die Gleichgewichtsmenge der Radiumemanation für i g Radium beträgt 0,59 cmm bei und Atmosphärendruck, sie wird als Einheit für die Angabe von Emanationsmengen des Radiums benutzt und als ein „Curie** bezeichnet. Das Curiesche Polonium hat sich nach Rutherford als eines der Glieder der Radiumreihe erwiesen (als Radium F), und zwar ist es das letzte, das noch Radioaktivität zeigt und eben dadurch nachweisbar ist. Seine Halbierungskonstante beträgt 136 Tage. Man hat nach dem Vorgange von Boltwood vermutet, daß sein nächstes Umwandlungsprodukt (Radium G) das Blei wäre. Die Helium- Eine der unerwartetsten Entdeckungen auf diesem Gebiete ist die oben

ri^olktivcn ^^^^^^^® ^^^^^^^^8 ^^^ ^^^^^^^^"^^^^^ ^" ^^^ Helium, jenem gasförmigen

Stoffen. Stoffe, der schon, bevor er auf der Erde aufgefunden wurde, sich durch die helle

gelbe Linie seines Spektrums in der Sonnenatmosphäre und den Protuberanzen

verraten hatte. Die Abscheidung des Argons aus dem atmosphärischen Stick-

Die Emanationen. Helium. Radioaktive Mafibestimmungen 487

Stoff durch Rayleigh und Ramsay veranlaß te den letzteren Chemiker zu der genauen Analyse der in dem Uranerze Cleveit enthaltenen Gase, er fand unter diesen das durch sein Spektrum unverkennbar charakterisierte Helium. Im Verlauf einer Untersuchung der von Radiumverbindungen entwickelten Gase ergab sich die allmähliche Entstehung des Heliums aus der Radiumemanation, und Rutherford konnte schließlich zeigen, daß das Helium geradezu der ma- terielle Träger der a- Strahlung ist. Von den Radioelementen, sofern sie a- Strahlen aussenden, werden positiv geladene Heliumatome wie Projektile ab- geschleudert. Im freien Räume geben sie nach Verlust ihrer Ladung und des größten Teiles ihrer Geschwindigkeit das gasförmige Helium, in festen Körpern bleiben sie stecken und erst durch mechanische und chemische Einwirkungen sowie durch Erhitzung kann das Helium aus ihnen in Freiheit gesetzt werden.

So erklärt sich der Heliumgehalt aller Mineralien, in denen a-strahlende Radioelemente vorkommen, speziell der Uranerze. Das Helium ist ein sicherer Zeuge für den Ablauf radioaktiver Umwandlungen in diesen Gesteinen, mag auch die Verwandlung schon ihrem Ende nahe sein oder es erreicht haben. *

In betreff der bis ins einzelne durch die Erfahrung bestätigten, von di« »dioiJcüve Rutherford und Soddy begründeten Theorie der radioaktiven Umwand- «ndUireMSIung. lungen muß auf die ausführliche Darstellung der Herren St. Meyer und E. von Schweidler (Artikel 25) verwiesen werden. Hier möge nur noch der Hinweis Platz finden, daß die Frage nach der Energiequelle für die radio- aktiven Erscheinungen, die im Laufe der fortschreitenden Kenntnis der Tat- sachen immer dringender geworden war, ebenfalls durch dieselbe Theorie erledigt ist.

Eis gibt danach eine besondere Art der Energie, die eben in den radioakti- ven Elementen aufgespeichert ist und während der Umwandlung der letzteren in immer energieärmere Stoffe für uns wahrnehmbar wird, indem sie eine der allbekannten Formen, etwa die der kinetischen Energie (in der korpuskularen Strahlung), der Wärme und andere annimmt.

Hierdurch scheint nun auch die Methode der Messung radioaktiver Ener- gie und der Vergleichung verschiedener Aktivitäten grundsätzlich vorgezeich- net zu sein.

Wir werden zwar die in der Masseneinheit einer aktiven Substanz enthal- tene Gesamtmenge radioaktiver Energie noch nicht bestimmen können, da über das Ende des radioaktiven Prozesses nichts Sicheres bekannt ist, doch liegt hierfür auch bis jetzt kein Bedürfnis vor. Wohl aber ist es erforderlich und auch möglich, den Energiebetrag zu messen, der aus ihr in der Zeiteinheit frei wird. Das natürliche Maß der Radioaktivität wäre demnach die in Kalorien aus- gedrückte Wärmemenge, die von einem Gramm aktiver Substanz in einer Se- kunde entwickelt wird, wenn sich die gesamte Energiestrahlung durch Absorp- tion in Wärme verwandelt. Praktisch hat diese Art der Messung allerdings ihre Schwierigkeiten und Mängel. Die kalorimetrische Bestimmung der entwickelten Energie ist für schwach radioaktive Stoffe, wie z. B. das Uran, wegen ihrer Kleinheit schwer ausführbar. (Für Radium im Zustande des Gleichgewichts

488 24. J. Elster u. H. Geitkl: Entdeckungsgeschichte u. Grundtatsachen der Radioaktivität

mit seinen Nachkommen beträgt diese Konstante nach den neuesten Bestim- mungen 138 Grammkalorien in der Stunde.)

Zur praktischen Bestimmung des Radiumgehalts von Erzen und Prä- paraten verwendet man allgemein elektrische Methoden. Bei der einen wird die Stärke der durchdringenden y- Strahlung der zu untersuchenden Probe mit der eines Standardpräparats von bekanntem Radiumgehalte verglichen, wobei als Maß der Höchstbetrag eines elektrischen Stromes gilt, den man durch ein ab- geschlossenes von den Strahlen unter gleichen Bedingungen durchsetztes Luft- volumen (die lonisierungskammer) schicken kann.

Eine andere Methode benutzt die, ebenfalls elektrisch meßbare, Maximal- menge von Radiumemanation (ausgedrückt in Curies*'), die man aus dem zu prüfenden Objekte entnimmt. Ist die Radio- Durch. die Entdeckung der Radioaktivität und der radioaktiven Um-

oine^aiigemeine wandlungeu haben wir Kenntnis von einer Art Veränderungen erhalten, die ^^Mltorie ? 2W^^ ^^^ chemischen Eigenschaften der dabei beteiligten Körper betreffen, an- dererseits aber über den bis dahin zugestandenen Bereich chemischer Vorgänge

hinausgreifen. Eine gegebene Menge nicht radioaktiver Materie (gemessen durch ihre träge oder auch ihre gravitierende Masse) kann durch chemische Methoden in eine Reihe in sich gleichartiger Stoffe zerlegt werden, die wir Ele- mente nennen. Die Menge und die Beschaffenheit dieser Bestandteile ist un- abhängig von dem Wege, auf dem sie dargestellt wurden, und von der Zeit, die vor und während der Analyse verflossen ist. Die Summe ihrer gravitierenden Massen ist nach dem La voisier sehen Prinzip der Masse des Ausgangsmaterials gleich.

Bei einer radioaktiven Substanz ist das Ergebnis der chemischen Analyse nicht mehr unabhängig von der Zeit, ja es erscheint immerhin fraglich, ob die Gesamtmasse der einzelnen Elementarbestandteile für alle Zeiten der an- fänglichen Masse gleich ist.

Der Begriff des unveränderlichen chemischen Elements verliert im Ge- biete der radioaktiven Materie seine Gültigkeit.

Es erhebt sich nun die sehr weitreichende Frage, ob wir es in der Radio- aktivität mit einer Eigenschaft gewisser Arten des Stoffes oder mit einer solchen des Stoffes überhaupt zu tun haben; mit anderen Worten, ob alle chemischen Elemente in Umwandlung begriffen sind, oder ob dies nur von dem Uran und seiner Familie zu der auch Radium und Aktinium gehört sowie von dem Thorium und den von ihm abstammenden Elementen gilt.

Am nächsten liegt die Erwartung, daß überall, wo Änderungen der elemen- taren Beschaffenheit der Materie vor sich gehen, sie in ähnlicher Weise sich äußern werden, d. h. durch Aussendung von Strahlen von entsprechenden Eigen- schaften, wie wir sie von den Radioelementen kennen. Man hat deshalb mit den empfindlichsten uns zur Verfügung stehenden Methoden die Prüfung sämt- licher chemischer Elemente auf Anzeichen von Radioaktivität durchgeführt. Lang ausgedehnte Versuche an photographischen Platten, bei denen selbst eine äußerst schwache Wirkung sich im Laufe der Zeit zu merklichem Betrage an- häufen mußte, sowie Bestimmungen der elektrischen Leitfähigkeit der Luft

Die Frage der allgemeinen Radioaktivität des Stoffes ^Sg

mittels hochempfindlicher Elektrometer bei Gegenwart der zu untersuchenden Substanzen haben im allgemeinen zu keinem Ergebnis geführt, nur bei drei Elementen, dem Blei, dem Kalium und dem Rubidium, ist eine sehr geringe Radioaktivität gefunden worden. Nun liegt in diesem Befunde an sich noch kein Beweis für eine spezifische Aktivität dieser drei Elemente, es war vielmehr noch festzustellen, ob nicht die schwachen Wirkungen (auf elektrischem Wege gemessen Vioo ^^^ Viooo "^^^ ^^^ Gesamtstrahlung des Urans) auf Beimengung kleinster Mengen der bekannten Radioelemente zurückführbar wären.

Bei dem Blei bot diese Frage noch ein besonderes Interesse dar. Es stand, wie schon bemerkt wurde, in dem Verdachte, das Schlußglied der Uran-Radium- reihe zu sein. Die Gedankenverbindung, die zu dieser Annahme führte, ist durchaus bezeichnend für den durch die Erschließung der Radioaktivität ein- geleiteten Wandel in der Auffassung der chemischen Elemente. Seit feststand, daß die a-Teilchen aus einzelnen positiv geladenen Atomen von Helium be- standen, schien ein einfaches Mittel gegeben, aus dem Atomgewicht eines a- strahlenden Elementes das seines unmittelbaren Nachfolgers zu finden.

Helium hat die doppelte Dichte des Wasserstoffes und ist ein einatomiges Gas, während die Moleküle des Wasserstoffes bekanntlich zweiatomig sind. Da- nach ist die Masse des Heliumatoms die vierfache von der in der Regel als Einheit gewählten des Wasserstoffatoms, Der Verlust eines einzigen Helium- atoms bedeutet demnach für das Atom eines radioaktiven Elementes eine Ab- nahme seiner Masse um vier Einheiten. Macht man nun die Annahme, daß bei einer radioaktiven, mit a- Strahlung verbundenen Umwandlung nur ein einziges a-Teilchen aus jedem Atom abgespalten wird, so müssen die Atomgewichte der aufeinanderfolgenden Elemente einer radioaktiven Umwandlungsreihe um je vier Einheiten sinken für jede a- Strahlung, die vorhergegangen ist. Nun hat das Radium das Atomgewicht 226 nach direkter Bestimmung, von ihm bis zu Polonium einschließlich gibt es fünf a- Strahler, demnach müßte auf das Polo- nium ein Element mit dem Atomgewicht 206 folgen. Diese Zahl liegt aber nahe bei der für das Blei (207) gültigen. Nun ist allerdings der Schluß von der nahen Übereinstimmung der Atomgewichte auf Identität der chemischen Eigenschaf- ten, wie andere Beispiele nahezu massengleicher Atome zeigen, nicht bindend. Immerhin würde eine wenn auch schwache Eigenaktivität des Bleies den Ver- dacht verstärken können, daß es eine gewisse Unbeständigkeit seines Atoms eben als Glied der Radiumreihe überkommen hätte.

Demgegenüber konnte nun allerdings festgestellt werden, daß die geringe, allen Bleipräparaten wie dem metallischen Blei zukommende Radioaktivität auf äußerst winzigen Mengen von Polonium beruht, das zugleich mit seinen bei- den unmittelbaren Vorfahren, Radium D und Radium E, als eine Art von Ver- unreinigung in allem Blei enthalten ist. Die Aufnahme dieser Stoffe erfolgt ohne Zweifel schon während des Hüttenprozesses aus schwach radiumhaltigen Beimengungen der Bleierze. Jahrhunderte altes Blei zeigt diese Aktivität nicht oder kaum mehr, da die genannten Radioelemente infolge ihrer natürUchen Um- wandlung von selbst darin erloschen sind.

^go 34. J. Elster u. H. Gsitel: Entdeckungsgeschichte u. Grundtatsachen der Radioaktivität

Die Annahme, daß das Blei das letztbekannte Glied der Umwandlungs- reihe des Urans sei, wird durch diesen negativen Befund offenbar nicht widerlegt. Die neuerdings von F. Soddy und K. Fajans gegebene Einord- nung der Radioelemente in das periodische System aller chemischen Grund- stoffe hat sie in gewissem Sinne bestätigt. Hiernach ist das Radium G (ebenso wie das Endglied der Thorreihe) ein Element, das in seinem rein chemischen Verhalten von dem gewöhnlichen Blei in keiner Weise unterscheidbar ist, während gewisse physikalische Eigenschaften (wie z. B. die spezifische Wärme, die Löslichkeit seiner Salze) von den entsprechenden des Bleis abweichen können.

Gegenüber den beiden Alkalimetallen Kalium und Rubidium, deren sämt- liche Verbindungen ähnlich wie das Uran die photographische Platte bei Aus- schluß des Lichtes verändern und Gase ionisieren beides allerdings in tau- sendfach geringerem Grade als das Uran , sind bis jetzt alle Bemühungen vergeblich gewesen, die Aktivität abzutrennen. Man wird ihnen bei dem jetzigen Stande unserer Kenntnis ein spezifisches Strahlungsvermögen zu- erkennen müssen, wenn man nicht für jedes von ihnen einen besonderen radio- aktiven Begleiter annehmen will, der wie das Radium G mit dem Blei in seinen rein chemischen Eigenschaften mit dem betreffenden Alkalimetalle überein- stimmen müßte.

Wenn die Erscheinung wirklich von derselben Natur ist wie bei den Ele- menten der Uran- und Thorfamilie, also auf einer elementaren Umwandlung beruht, so kann der oben angedeuteten Regel, daß Radioelemente ein besonders hohes Atomgewicht haben, keine allgemeine Gültigkeit mehr zugeschrieben werden, beträgt doch das Atomgewicht des Kaliums nur 39 1 Zählen wir nun auch auf Grund dieser Strahlenemission das Kalium und Rubidium unter die instabilen Elemente,, so ist damit für die übrigen Grundstoffe, an denen solche Strahlen bis jetzt nicht nachweisbar waren, noch nichts ausgesagt.

Man hat zwar geltend gemacht, es könnten auch von jeder Materie a- und ß- Strahlen ausgesandt werden, die wegen zu geringer Geschwindigkeit weder auf Gase ionisierend noch chemisch verändernd auf Bromsilber wirkten. Dann müßte aber in genügend großen Anhäufungen beliebigen Stoffes eine Tempera- turerhöhung gegen die Umgebung infolge der Absorption der Strahlungsenergie in der eigenen Masse bemerkbar werden. Aber hiervon sind bis jetzt sichere An- zeichen nicht aufgefunden. Allerdings ist zu bedenken, daß dieser Nachweis der Radioaktivität sehr unempfindlich ist und überfeine Methoden bei sehr großen Massen zur Bestimmung der Temperaturdifferenzen erfordern würde.

Man wird, wenn man auf dem Boden der experimentell gesicherten Er- fahrung bleiben will, die Annahme einer allgemeinen^ im Laufe der Zeit sich vollziehenden Veränderlichkeit der chemischen Elemente noch als Hypothese zu betrachten haben, die allerdings durch die Beziehung der radioaktiven Umwand- lungsreihen zum periodischen Systeme an Wahrscheinlichkeit gewonnen hat.

Ebenfalls dürfte die Frage, ob eine künstliche Umwandlung gewisser chemischer Elemente in andere vermittels der Einwirkung der Strahlen radio-

Hypothetische Umwandlung der Materie. Radioelemente in der Erde ^gj

aktiver Stoffe herbeigeführt werden könne, nach den vorliegenden Erfahrungen zu verneinen sein« Die behauptete Überführung des Kupfers in Lithium auf diesem Wege (die auch den Lithiumgehalt der Uranerze erklären sollte) hat sich nicht bestätigt, auch steht der Annahme solcher Vorgänge die Tatsache ent- gegen, daß selbst der Ablauf schon bestehender Umwandlungen, wie in den eigentlichen Radioelementen, durch Vermehrung der Strahlungsenergic in keiner Weise beeinflußt wird, sie verlaufen unabhängig von der Konzentra- tion des radioaktiven Bestandteiles.

Gegenüber der Fülle von unerwarteten Erscheinungen der verschieden- Die Verbreitung

der Radio- elemente in der Erde.

sten Art, die im Verlaufe von nicht zwei Dezennien infolge der Becquerel- «lemente**

sehen Entdeckung der Uranstrahlen aufgefunden werden konnten, fragt man sich wohl verwundert, wie es kam, daß bei der rastlosen Arbeit in allen Teilen der Physik nicht die eine oder die andere davon schon früher bemerkt und zu einem Stützpunkt für die Erschließung des neuen Gebietes geworden ist. Die Antwort lautet, daß allerdings radioaktive Erscheinungen längst bekannt ge- wesen, aber unrichtig gedeutet worden sind.

Schon bei den ersten elektrostatischen Versuchen im 17. Jahrhundert er- kannte man die Unmöglichkeit, eine freie Ladung auf einem isolierten Körper dauernd zu erhalten, und iio Jahre vor dem Becquer eischen Grundversuche hat Coulomb das Gesetz gefunden, nach dem ein elektrisierter Körper in Luft seine Ladung allmählich verliert. Durch eine merkwürdige Verkettung von irr- tümlichen Annahmen und unrichtig aufgefaßten Beobachtungen wurde die na- türlichste Vorstellung, daß dieser Elektrizitätsverlust auf ein gewisses elektri- sches Leitvermögen der Luft hinweist, zurückgedrängt und durch unhaltbare Meinungen, wie die von einer Fortführung der elektrischen Ladung durch Staub und Wasserdampf, ersetzt oder wenigstens verdunkelt. Es kann jetzt kein Zwei- fel darüber sein, daß die altbekannte „Elektrizitätszerstreuung*' in der Luft im wesentlichen eine Erscheinung der Radioaktivität ist.

Wie für die Gewässer der Erde der Ozean, so ist die Atmosphäre für alle Gase, die vom Erdkörper abgegeben werden, das Sammelbecken. Auch die radioaktiven Gase, die Emanationen, die aus den Uran- und Thormineralien ent- springen, müssen demnach in der atmosphärischen Luft enthalten sein. Frei- lich führen die Mineralien, aus denen wir Uran und Thor gewinnen, bei der Seltenheit ihres Vorkommens nur so geringe Spuren von Emanationen in end- lichen Zeiten dem Luftmeere zu, daß deren volumetrischer Nachweis auch mit den empfindlichsten Methoden unmöglich erscheint, ja auch in den größten Zeiträumen kann diese Zufuhr sich nicht über einen bestimmten, unmerklich kleinen Betrag hinaus summieren, da ja jede Emanation als radioaktiver Stoff nach Maßgabe der zugehörigen Halbierungszeit zerfällt. Und doch zeigt ein einfacher von den Verf. herrührender Versuch, daß die Luft überall radio- aktive Emanationen enthält, weit ab von den Orten, an denen Lagerstätten von Uran oder Thormineralien bekannt sind. Ein beliebiger Leiter der Elektri- zität, am bequemsten ist ein Metalldraht, wird isoliert in der freien Luft ausge-

49 2 ^^* J* ^i'STSR u. H. Gettel: Entdeckungsgeschichte u. Grundtatsacben der Radioaktivität

spannt und mehrere Stunden lang auf einer negativen elektrischen Spannung von einigen looo Volt gehalten. Er hat dadurch vorübergehend Eigenschaften angenommen, die ihm vorher fremd waren. Bringt man ihn aufgerollt in die Nähe eines elektrisierten Körpers, so beobachtet man eine vermehrte Elektri- zitätszerstreuung. Der Draht erteilt demnach der Luft in seiner Umgebung ein höheres elektrisches Leitvermögen. Durch Abreiben mit einem Stück Leder läßt sich diese Eigenschaft dem Drahte nehmen und auf das Leder übertragen. Die Spur, die der Draht auf dem Leder hinterlassen hat, wirkt schwärzend auf eine photographische Platte und im völlig dunklen Räume erkennt man, wie sie an einem genäherten Leuchtschirme aus Zinksulfid das Spiel aufblitzender Fünkchen hervorruft, das für jede a- Strahlung kennzeichnend ist.

Nach Verlauf von wenigen Stunden sind diese Erscheinungen schon sehr geschwächt, nach einem Tage meist völlig erloschen. Was wir beobachtet haben, stellt insgesamt das Bild der „induzierten'* Aktivität dar, wir hätten mit demsel- ben, nur deutlicheren Erfolge den Draht in einem Räume ausspannen können, in dem künstlich Emanation aus irgendeinem Präparat von Radium entwickelt wurde. Eine genaue Bestimmung des Gesetzes, nach dem diese durch die at- mosphärische Luft induzierte Aktivität abklingt, läßt in der Regel nicht nur die Abkömmlinge des Radiums, sondern auch die des Thoriums auf dem Drahte erkennen. Die relativen Mengen sind von Ort zu Ort auf der Erde verschieden und auch der Zeit nach veränderlich.

Es schien zunächst unglaublich, daß das selbst in den so sparsam' vorkom- menden Uranerzen nur in verschwindender Menge enthaltene Radium sowie das seltene Thorium geradezu allgegenwärtig auf der Erde sein sollten. Aber da auf dem angegebenen Wege die Emanationen der beiden Elemente in der Luft überall und andauernd nachweisbar waren, so konnten auch die Muttersub- stanzen nicht fern zu suchen sein. Eine Kette weiterer Beobachtungen wies im- mer zwingender auf den Erdboden als die Quelle der Emanationen hin. Die größte Radioaktivität erhielt man bei dem geschilderten Versuche, wenn man den Draht in einem Keller oder einer natürlichen Höhle, deren Boden und Wände luftdurchlässig sind, mit negativer Ladung aufhing, und ganz besonders wirk- sam war solche Luft, die man direkt aus dem Boden mittels eines eingesenkten Rohres emporgesaugt hatte. Hierbei ergaben sich zugleich wesentliche Unter- schiede je nach der Beschaffenheit des Bodens, aus dem die Luft stammte: aus Sandboden war nur wenig Radiumemanation herauszuholen, während tonige Erde, das Verwitterungsprodukt der Feldspate und Glimmer, am meisten da- von enthielt. Dementsprechend fand sich bei scharfer Prüfung beliebiger Pro- ben tonigen Erdreiches auch an ihnen die Eigenschaft, die Luft in ihrer Nähe elektrisch leitend zu machen, ein Kennzeichen für ihren Gehalt an Spuren radio- aktiver Elemente. Der Nachweis auf chemischem Wege, daß sich aus solchem schwach aktiven Tone mittels derselben Methoden, die zur Trennung des Ra- diums aus Uranerzen angewandt werden, eine dem Radium gleichende hoch- aktive Substanz gewinnen läßt, glückte zuerst bei dem „Fango**, einer Erdart, die von den heißen Quellen von Abano und Battaglia in Oberitalien ausgeworfen

Radioaktivität der Erde und der Atmosphäre 493

wird, später auch an gewöhnlichem Ton. Es müssen demnach diese Erdarten wirklich Radium enthalten; die aus ihnen entwickelte Emanation teilt sich der in dem Erdboden eingeschlossenen Luft mit und dringt mit dieser durch Dif- fusion oder bei sinkendem äußeren Luftdruck durch einfache Expansion der Bodenluft in die Atmosphäre ein, wo sie durch den beschriebenen Versuch nach- weisbar wird. Alle Eruptiv- und die meisten Sedimentärgesteine enthalten, wie spätere Untersuchungen von Strutt, Joly u. a. gezeigt haben, ebenfalls Spuren von Radium, auch für das Thorium ist in gleicherweise das Vorkommen im Erdboden und den verschiedensten Felsarten nachgewiesen. Dabei sind Radium und Thorium sowie auch das weit schwieriger nachweisbare Uran ur- sprünglich an winzige kristallinische Einschlüsse des Eruptivgesteins gebun- den, die im wesentlichen aus Silikaten der seltenen Erden bestehen. Nach Ver- witterung des Muttergesteins gelangen sie in die metamorphischen Fels- und Bodenarten hinein. Wie die Bodenluft, so führt auch das Wasser innerhalb der Erde überall jene beiden Emanationen mit sich. Sehr reich daran, besonders an der des Radiums, sind die aus großen Erdtiefen entspringenden Quellen, unter anderen viele Thermalwässer. Wenn diese nach ihrem Zutagetreten feste Sub- stanzen, sog. Sedimente oder Sinter abscheiden, findet sich meist das Radium auch in diesen, in hervorragender Menge in denen der Thermen von Gastein, Baden-Baden, Kreuznach in Österreich und Deutschland und vielen des Aus- landes. War doch der ,, Fango", an dem die Abscheidung des Radiums glückte, ebenfalls ein solches Sediment einer Therme. Die naheliegende Annahme, es könne der Heilwert der Thermalwässer durch ihre Radioaktivität, insbesondere durch den Gehalt an Radiumemanation mitbedingt sein, hat durch physio- logische Untersuchungen der neueren Zeit hohe Wahrscheinlichkeit erhalten. Der auf uralte Erfahrung gegründete Glaube an die heilende Kraft der aus den Tiefen der Erde quellenden Gewässer würde dadurch seine wissenschaft- liche Rechtfertigung erfahren.

Durch den Nachweis der allgemeinen Verbreitung radioaktiver Stoffe in der Erde selbst wie in ihrer Atmosphäre tritt die neu entdeckte Energieform in die Reihe der Faktoren ein, die den physikalischen Zustand unseres Planeten bedingen; die Radioaktivität erheischt die ihr zukommende Stellung in der Geophysik.

Vornehmlich ist es die Erforschung der atmosphärischen Elektrizität und die des Wärmeaustausches zwischen dem Erdinneren und dem Welträume, die durch die neuen Erfahrungen unverhoffte Förderung und festere Ziele gewonnen haben. Es muß an dieser Stelle der Hinweis darauf genügen, erwähnt möge nur noch werden, wie die Bestimmung des Heliumgehaltes der Uranmineralien ein Mittel an die Hand gibt, für ihr Alter eine untere Grenze zu finden. Die so erhal- tenen Zahlen dürften zu den sichersten Angaben gehören, die der Geologie für ihre Zeitbestimmungen von Seiten der Physik zur Verfügung gestellt werden können.

Welche Bedeutung der Radioaktivität für die Wärme und Lichtentwick- lung der Sonne und der Fixsterne beizumessen ist, liegt fast noch ganz außer- halb des Bereichs unserer Erfahrung.

494 24. J. Elstbru. H. Gettel: Entdeckung^geschichte u. Grundtatsachen der Radioaktivität

Die Gegenwart großer Mengen von Helium auf der Sonne und manchen Fixsternen, die Aussendung von Strahlen aus der Tiefe der Sonnenflecken, die den ß-Sti:ahlen ähnlich sind, legt den Gedanken an die Betätigung radioaktiver Energie auf dem Zentralkörper .unseres Planetensystems nahe genug.

Der unscheinbare Versuch Becquerels an den fluoreszierenden Kristall- brocken von Uransalzen hat uns schließlich zu den großen Fragen nach den Quellen der kosmischen Energien geführt. Die Stellung des Menschen diesen gegenüber ist nicht unähnlich derjenigen, die er zu den radioaktiven Vorgängen einnimmt. Wir sind machtlose Zuschauer der kosmischen Ereignisse, wir aiüssen abwarten, welche Energieäußerungen aus jenen Gebieten zu uns dringen, und aus diesen uns Antworten zu formen suchen auf die Ersten nach ihrem Ursprünge und ihren Gesetzen. So ist auch die Radioaktivität eine Gruppe von Energie- wirkungen, die aus einer Welt zu uns hindurchsickern, zu der wir anscheinend keinen Zugang haben. Wir müssen hinnehmen, was davon in den Bereich un- serer Instrumente kommt, und diesen Anteil mit allem Bemühen erforschen. Ob die Scheidewand, die uns von dem Sitze der radioaktiven Energie trennt, einmal fallen wird, dafür liegen noch keine Anzeichen vor. Noch scheint es nicht aussichtsvoller, die in einem Stück Uran aufgespeicherte Energie ent- fesseln zu wollen, als auf Mittel zu sinnen, in den Ablauf kosmischer Vorgänge einzugreifen.

Literatur.

M. Curie, 1904: Untersuchungen über die radioaktiven Substanzen.

, igii: Die Radioaktivität

£. RUTHERFORD, 1907: Radioaktive Umwandlungen

, 1907: Die Radioaktivität.

, i9i3> I^ie radioaktiven Substanzen und ihre Strahlungen.

25-

RADIOAKTIVE STRAHLUNGEN UND UMWANDLUNGEN.

Von

Stefan Meyer und Egon v. Schweidler.

Einleitung. Nach der Entdeckung der radioaktiven Stoffe und der von Einleitung, ihnen ausgehenden Strahlen war die experimentelle und die theoretische For- schung vor eine doppelte Aufgabe gestellt: Zunächst galt es auf Grund der experimentell gefundenen Eigenschaften der Strahlen und ihrer Analogien mit anderen bereits bekannten ähnlichen Erscheinungen, wie Kathoden- und Rönt- genstrahlen, bestimmte Anschauungen über das Wesen dieser Strahlungs- vorgänge selbst auszubilden, diese Anschauungen wieder durch die Ergebnisse des Experimentes zu prüfen und womöglich durch exakte quantitative An- gaben zu ergänzen, also mit einem Worte: eine Theorie der radioaktiven Strahlungsvorgänge zu entwickeln. Dann waren aber auch die Bedingun- gen klarzulegen, unter denen die Emission dieser Strahlen stattfindet, also, da erfahrungsgemäß nur bestimmte Stoffe als Quellen auftreten, der Theorie der radioaktiven Strahlungsvorgänge eine Theorie der radioaktiven Stoffe an die Seite zu stellen.

Eis liegt in der Natur der Sache, daß die Lösung der ersten Aufgabe zum Teil unabhängig von der der zweiten ist, ja, daß eine gewisse Kenntnis vom Wesen der Strahlen die Vorbedingung für die Erkenntnis der Ursachen ihrer Entstehung bildet; so wurden zum Beispiele auf dem Gebiete der Optik die geo- metrischen Gesetze der Lichtausbreitung, die Erscheinungen der Dispersion und der Interferenz in der klassischen Wellentheorie des Lichtes von einheit- lichem Gesichtspunkte aus dargestellt, während die Frage nach dem Mecha- nismus des Vorganges in den Zentren der Lichtemission, die Frage, wie, unter welchen Bedingungen und nach welchen Gesetzen die Erregung der ,, Äther- schwingungen** oder der elektromagnetischen Wellen zustande komme, erst viel später einer theoretischen Behandlung zugänglich wurde.

Allerdings ist eine solche Scheidung der Probleme weder vom logischen Standpunkte aus restlos durchführbar noch zweckmäßig vom heuristischen aus. Tatsächlich wurden denn auch an die ersten halbwegs gesicherten Er- kenntnisse von der Natur der Strahlung sofort Hypothesen über die Art ihrer Entstehung geknüpft, und die brauchbaren unter diesen führten wieder zur Vervollkommnung der Theorie der Strahlung.

496 25- Stefan Meyer u. Egon v. Schweidler: Radioaktive Strahlungen u. Umwandlungen

Wenn daher die folgende Darstellung diese Scheidung beibehält, so ge- schieht dies mehr zum Zwecke einer übersichtlichen Gliederung des Stoffes, als im unmittelbaren Anschlüsse an die Zickzackwege der historischen Ent- wicklung.

Die Grundtatsachen in den Erscheinungen der Radioaktivität, die Eigen- schaften und das Vorkommen der radioaktiven Stoffe, die Methoden ihrer Trennung und Reindarstellung sind dabei als bekannt vorausgesetzt, da ja der vorige Artikel 24 dies behandelt; ebenso ist eine genaue Darstellung der Me- thoden, nach denen bei sog. ,, Korpuskularstrahlen** die wesentlichen Be- stimmungsstücke, wie Masse, Ladung und Geschwindigkeit der hypotheti- schen Teilchen bestimmt werden können, in den Auf sätzen „Positive Strahlen*' und „Kathodenstrahlen*' besprochen. Nur um allzu zahlreiche lästige Rück- verweisungen zu vermeiden, ist hier bisweilen bereits Bekanntes wiederholt.

A. Die Theorie der Strahlungsvorgänge.

Die Theorie Wie bcrcits im Artikel 24 näher ausgeführt wurde, hatten die Unter-

^%^^?^™**" suchungen der Wirkungen und charakteristischen Merkmale der Becquerel- strahlen bald die Erkenntnis gebracht, daß im allgemeinen die von einem radio- aktiven Körper ausgehende Strahlung aus mehreren Gruppen mit verschiede- nen physikalischen Eigenschaften zusammengesetzt sei. Einerseits die Unter- schiede in der Durchdringungsfähigkeit, andererseits das Verhalten gegen ab- lenkende magnetische oder elektrische Kräfte und die Erscheinung eines Trans- portes elektrischer Ladungen zugleich mit der Strahlung, führten zu der bereits erwähnten Einteilung in a-, ß- und T" Strahlen. Auch zeigte sich eine be- merkenswerte Analogie zwischen den Eigenschaften dieser drei Gruppen und denen von Strahlenarten, die schon als Begleiterscheinung elektrischer Ent- ladung in gasverdünnten Räumen auftretend bekannt waren und bis zu einem gewissen Grade eine befriedigende theoretische Erklärung gefunden hatten.

Es lag also nahe, diese Ergebnisse auf die Becquerelstrahlen zu übertragen und nach den gleichen Methoden, die sich bei der Untersuchung der Kathoden- und Kanalstrahlen bewährt hatten, eine durch zahlenmäßige Angaben präzi- sierte Vorstellung von ihrer Natur zu gewinnen.

Eine Übersicht über die für die Theorie besonders in Betracht kommenden Merkmale und die daraus abgeleiteten Bestimmungsstücke der drei Strahlen- arten gibt nebenstehendes Schema.

Zu einer befriedigenden Erklärung der empirisch gefundenen Tatsachen führt also die Annahme, daß die a- und ß- Strahlen korpuskularer Natur sind, d. h. in der Ausschleuderung elektrisch geladener Teilchen bestehen, während für die y- Strahlen neben der am meisten verbreiteten Hypothese, daß sie in der Ausbreitung elektromagnetischer Impulse bestehen, eine Zeitlang auch eine Korpuskulartheorie doch ohne präzise Angaben über die Natur der Kor- puskeln — ihre Vertreter fand.

a-/^y-Strahlen

497

Durchdringungsfahigkeit Magnetische Ablenkung Elektrische Ablenkung . Ladungstransport .... Analogon

Träger

Masse

Ladung

Geschwindigkeit

a- Strahlen

genng positiv positiv positiv Kanalstrahlen

a- Partikeln » Heliumatome

6 6 X xo "■ '*

nahe 4, bezogen auf H-i

-f 2 Elementar- quanten

V„ - % Lichtgeschwmdigkeit

ß- Strahlen

groß

negativ

negativ

negativ

Kathodenstrahlen

ß-Partikehi s Elektronen

{

9x lo""**

1/1840, bezogen auf H«i

~- 1 Elementar- quantum

bis nahe zur Lichtgeschwindigkeit

Y- Strahlen

sehr groß nicht vorhanden nicht vorhanden nicht vorhanden Röntgenstrahlen

Elektromagneti- sche Impulse

Lichtgeschwindig- keit

Es wurde bereits in den Artikeln 21 und 22 über „Kathodenstrahlen** und über „Positive Strahlen** auseinandergesetzt, wie nach den bekannten Gesetzen der allgemeinen Elektrodynamik aus den Beobachtungen der magne- tischen und der elektrischen Ablenkung sich zahlenmäßige Angaben ableiten lassen (vgl. Artikel 15). Man erhält auf diesem Wege einerseits die Größe der Geschwindigkeit, mit der sich die hypothetischen Teilchen bewegen, ande- rerseits ihre sog. „spezifische Ladung**, das ist das Verhältnis der Ladung zur Masse. Einzeln lassen sich die Werte von Ladung und Masse hieraus nicht finden, erst die Hilfsannahme, daß die Ladung der Teilchen dieselbe sei wie die eines ein- oder eventuell zweiwertigen Ions eines Elektrolyten, ergänzt das zunächst noch nicht eindeutige unmittelbare Ergebnis der Messung.

Gerade bei den Strahlen radioaktiver Stoffe lassen sich aber, wie noch näher ausgeführt werden wird, unmittelbare Bestimmungen der Zahl der Teil- chen anstellen, die in gegebener Zeit ausgeschleudert werden; in Verbindung mit den Messungen der von den Strahlen übertragenen Ladungen, die ja nichts anderes als das Produkt aus Teilchenzahl und Einzelladung darstellen, kann man daher diese beiden Größen einzeln berechnen und damit die Richtig- keit der Hilfsannahme prüfen.

Auf diese Weise konnten die im vorstehenden Übersichtsschema erwähnten Daten ermittelt werden.

Im einzelnen ergeben sich daraus folgende Vorstellungen von der Natur der verschiedenen Strahlenarten und den Gesetzen ihrer Ausbreitung im Räume:

I. Die a- Strahlen. Ihre Träger, die a- Partikel, besitzen eine positive «-Strahlen- Ladung vom doppelten Betrage des sog. ,, Elementarquantums** der Elektrizi- tät, das nach den neuesten Bestimmungen nahezu 4,8 X I0"'° Einheiten des elektrostatischen Maßsystemes enthält, und eine Masse von gleicher Größe wie die der Heliumatome. Daß nicht bloß eine zufällige Gleichheit dieser bei- lud, g. iil m, Bd z Physik 32

498 2$. Stefan Meykr u. Egon v . Schweidler : Radioaktive Strahlungen u. Umwandlungen

den Massen besteht, sondern daß die a -Partikel nichts anderes ist, als ein positiv geladenes Heliumatom, beweisen die Versuche über Heliumerzeugung durch a -strahlende Stoffe, wie im Aufsatze über „Positive Strahlen** (vgl. Ar- tikel 22) ausgeführt wurde.

Die Anfangsgeschwindigkeit der Teilchen ist dieselbe für alle Strahlen, die von einer bestimmten einheitlichen a-strahlenden Substanz ausgehen, und schwankt etwa zwischen den Werten 1 3 700 km in der Sekunde (für die a- Strah- len des Uran) und 20 600 km/Sek. (für die Strahlen des aus Thoriumemanation gebildeten aktiven Belages).

Im leeren Räume, bei Abwesenheit starker elektrischer oder magnetischer Kräfte, entspricht die Ausbreitung der Strahlung der ungehinderten Trägheits- bewegung der Teilchen; trifft eine a- Partikel ein auf ihrer Bahn liegendes Atom, so wird sie dadurch nicht vollständig gehemmt, sondern durchquert das Hindernis, wobei ihre Geschwindigkeit etwas verringert wird, und zwar um einen Betrag, der von der Masse des getroffenen Atomes abhängt (an- genähert der Wurzel aus dem Atomgewicht proportional ist) ; zugleich tritt eine im allgemeinen nur sehr geringe Änderung der Bewegungsrichtung ein, nur in sehr seltenen Fällen eine starke Ablenkung.

Je geringer die Geschwindigkeit geworden ist, um so stärker ist die Ge- schwindigkeitsabnahme bei der Durchquerung eines Atomes, so daß nach Zu- rücklegung eines bestimmten Weges, d. h. nach Durchquerung einer bestimm- ten Zahl von Atomen (von der Größenordnung looooo) die a-Partikel zum Stillstand gebracht wird.

In einem Bündel paralleler a- Strahlen tritt daher beim Durchsetzen einer Platte eine Verminderung der Intensität auf, die im wesentlichen auf einer Verlangsamung der Teilchen beruht, während die Zahl der durchgehenden Teilchen und für die meisten auch ihre Bewegungsrichtung nahezu unverändert bleibt. Nach Durchdringen einer bestimmten, von der Natur des absorbieren- den Stoffes abhängigen Schichtdicke, der sog. „Reichweite**, erlischt die Strahlung fast plötzlich.

Eine Zusammenstellung der Anfangsgeschwindigkeiten und der Reich- weiten in Luft für die a- Strahlen verschiedener radioaktiver Stoffe findet sich im Aufsatze „Positive Strahlen** (Artikel 22). Bei Metallschichten kann an- genähert einer Luftschicht von l cm (bei Zimmertemperatur und normalem Luftdruck) in der absorbierenden Wirkung gleichgesetzt werden: 0,0059 nini Aluminium, 0,0027 mm Silber,

0,0047 ^^ Zinn 0,0021 mm Blei oder Platin.

Von besonderer Wichtigkeit für die genaue Erforschung der Natur der a- Strahlen war der Umstand, daß infolge der großen Energie auch die Wir- kung einer einzelnen a- Partikel noch wahrgenommen werden kann. Zunächst war es die szintillierende Fluoreszenz d.i. die Erscheinung, daß ein Leuchtschirm (gewöhnlich aus Zinksulfid, für messende Versuche noch besser aus einem Diamantdünnschliff hergestellt) unter dem Einflüsse der a- Strahlen nicht gleichmäßig leuchtet, sondern räumlich und zeitlich unregelmäßig ver-

a-Strablen 499

teilte momentan aufblitzende Lichtpunkte zeigt , die es wahrscheinlich machte, daß hier in jeder Szintillation die dem Aufprall eines einzelnen a-Teil- chens entsprechende Fluoreszenzwirkung beobachtet werde (vgl. Artikel 24). Versuche von Rutherford und anderen zeigten, daß bei geeigneten Anord- nungen, deren genaue Beschreibung hier zu weit führen würde, auch die ionisierende Wirkung einer einzelnen a- Partikel durch eine ruckweise Änderung des Elektrometerausschlages nachweisbar sei.

Es ist daher nach diesen beiden Methoden möglich, die a-Teilchen zu zählen, die innerhalb einer gewissen Zeit entweder auf einen Szintillations- schirm fallen oder durch ein für a- Strahlen durchlässiges Fenster in einen auf seinen lonisationszustand geprüften Gasraum eindringen, vorausgesetzt, daß die Aufeinanderfolge der einzelnen Partikel nicht allzu rasch ist, also ein Strahlenbündel geringer Intensität untersucht wird.

Das Ergebnis solcher Versuche war, daß die Zahl der von einem gegebenen radioaktiven Präparat in der Zeiteinheit ausgesandten a- Partikel nicht nur nach diesen beiden Methoden gleich gefunden wurde, sondern daß der so er- haltene Wert auch übereinstimmt mit jener Zahl, die aus der später zu be- sprechenden Zerfallstheorie vorausberechnet werden konnte. Ebenso stehen die quantitativen Ergebnisse bezüglich der von einem a- Strahler gebildeten Heliummengen z. B. 40 mm' Helium innerhalb eines Jahres aus i g Radium; 160 mm* Helium innerhalb eines Jahres aus i g{Ra + Ra Emanation + RaA + RaB + RaC) vollkommen damit in Einklang.

Schließlich ist es Wilson gelungen, die Bahn eines einzelnen a-Teilchens in einem Gase sichtbar zu machen und auch zu photographieren. Diese Ver- suche beruhen auf der Tatsache, daß in einem mit Wasserdampf übersättigten Gase die vorhandenen Ionen die Kerne sind, an denen die Kondensation des Dampfes zu Nebeltröpfchen erfolgt (vgl. Artikel 20). In von a-Strahlen durch- setzter Luft entstehen daher bei Übersättigung fadenförmige Nebelstreifen von einigen Zentimetern Länge,. die den Weg, längs welchem die a-Teilchen ioni- sierend wirkten, abbilden.

Nach den allgemeinen Gesetzen der Mechanik ist zu erwarten, daß bei der Ausschleuderung einer a-Partikel das emittierende Atom, genauer gesprochen der zurückbleibende Rest, einen Rückstoß erfahre. Da die Masse der a-Par- tikel abgerundet gleich 4 (Atomgewicht des Heliums), die eines radioaktiven Atomes zwischen 200 und 240 liegend angenommen werden kann, berechnet sich die Geschwindigkeit dieser „Rückstoßatome** zu etwa ^l^hv& Veo^^^ ^^' schwindigkeit der a-Partikel. In der Tat ist dieser Vorgang, der selbst den Charakter einer Korpuskularstrahlung mit ähnlichen Eigenschaften wie die a- Strahlung besitzt, empirisch nachgewiesen worden. Nur ist die Absorption dieser Rückstoßstrahlung infolge der geringeren Geschwindigkeit der Teilchen eine viel stärkere, so daß ihre Reichweite in Luft normaler Dichte nur etwa 7i0 mm betrs^t und daher die von ihr hervorgerufene Ionisierung auf die unmittelbare Nachbarschaft des radioaktiven Körpers beschränkt bleibt.

IL Die ß-Strahlen. Die Träger der ß-Strahlen sind „Elektronen", /^-strahioa.

32*

500 25. Stefan Meyer u. Egon v. Schweidler: Radioaktive Strahlungen u. Umwandlungen

also Teilchen mit einer negativen Ladung im Betrage des Elementarquantums und mit einer Masse, deren Wert von der Geschwindigkeit abhängt (vgl. Ar- tikel 15). Bei kleiner Geschwindigkeit ist der Wert der Masse angenähert Y^g^ von der des Wasserstoffatomes, also etwa Vtsw ^^^ einer a-Partikel.

Im Gegensatz zu den a- Strahlen sind die von einem einheitlichen radio- aktiven Stoffe ausgesandten ß- Strahlen nicht homogen, d. h. von gleicher Ge- schwindigkeit; vielmehr zeigen Versuche, bei denen durch ablenkende Wirkung eines magnetischen Feldes die Strahlen verschiedener Anfangsgeschwindigkeit auf ungleich gekrümmte Bahnen gelenkt werden, daß für einen bestimmten Stoff dieses so erhaltene ,, magnetische Spektrum** bald aus mehreren Grup- pen homogener Strahlen besteht (magnetisches Linienspektrum), bald Strahlen umfaßt, deren Geschwindigkeiten über ein größeres oder kleineres Intervall kontinuierlich verteilt sind (kontinuierliches oder Bandenspektrum). Die tat- sächlich beobachteten Werte der Geschwindigkeit reichen von etwa 0,29 bis zu 0,99 der Lichtgeschwindigkeit (= 300000 km/Sek.).

Die Absorption der ß- Strahlen beim Durchgange durch Materie kann häu- fig mit genügender Annäherung durch ein einfaches Exponentialgesetz dar- gestellt werden, d. h. durch ein Gesetz, nach welchem gleiche Schichtdicken eines bestimmten Mediums gleiche Bruchteile der einfallenden Strahlung absorbieren. Je größer die durchschnittliche Geschwindigkeit der untersuchten ß-Strahlen ist, um so geringer erweist sich die Absorption. Wählt man Alu- minium als absorbierendes Mittel, so liegen für die ß- Strahlen verschiedener radioaktiver Substanzen die sog. „Halbierungsdicken**, das sind die Schichtdicken, welche die Strahlung gerade auf die Hälfte schwächen, zwischen 0,01 mm und 0,5 mm. Für andere absorbierende Körper ist in erster Annähe- rung die Halbierungsdicke umgekehrt proportional ihrer Dichte.

Während bei den a- Strahlen die Absorption hauptsächlich auf einer Ver- langsamung der Teilchen beruht, kann sie bei den ß- Strahlen in erster Linie aufweine Verringerung der Zahl der durchgehenden Teilchen zurückgeführt werden, der Einfluß der Geschwindigkeitsabnahme tritt dagegen zurück.

Eine genauere Analyse der bei der Absorption auftretenden Erscheinungen zeigt aber, daß hier sehr verwickelte Vorgänge stattfinden, für die derzeit noch keine exakte theoretische Darstellung gegeben werden kann. Im allgemeinen kann man annehmen, daß die ß-Partikel analog wie die a-Partikel auf ihrer Bahn liegende Atome durchqueren und hierbei eine Geschwindigkeitsabnahme erfahren, außerdem aber— imGegensatz zumVerhalten der a- Strahlen eine be- trächtliche Ablenkung, so daß ein Bündel ursprünglich paralleler ß- Strahlen beim Durchgang durch die Materie eine Zerstreuung nach allen Richtungen erleidet.

In einem mit übersättigtem Dampfe erfüllten Räume kann auch bei ß- Strahlen die Bahn eines einzelnen Teilchens nach der früher erwähnten Wilson sehen Methode durch eine Nebelspur abgebildet werden, ystrahicn. III. Die T" Strahlen. Die Eigenschaften der y-Strahlen stimmen im wesentlichen mit denen der Röntgenstrahlen überein, nur in der Durch- dringungsfähigkeit (Härte) übertreffen sie diese noch bedeutend. Die Absorp-

ß- und /-Strahlen 501

tion läßt sich wieder durch ein Ebcponentialgesetz darstellen, somit für jedes absorbierende Medium durch die Angabe der Halbierungsdicken kennzeichnen. Dabei sind wieder die Halbierungsdicken verschiedener Medien angenähert ihrer Dichte umgekehrt proportional. So gelten z* B. für die von Radium ausgehenden y- Strahlen angenähert die Werte der Halbierungsdicken: Luft ... 160 m Quecksilber . . 1,2 cm

Wasser . . 16 cm Blei i,4 i>

Um die Strahlung bis auf ein Promille zu absorbieren, ist die zehnfache Hal- bierungsdicke erforderlich.

Auch besteht häufig die von einer einheitlichen Substanz ausgesandte Y- Strahlung aus mehreren Gruppen, die jede für sich einem exponentiellen Ab- sorptionsgesetz folgen, aber verschiedene Durchdringungsfähigkeiten (Halbie- rungsdicken) besitzen.

Die T- Strahlen bestehen nach der, wie bereits erwähnt, am meisten ver- breiteten Theorie— in elektromagnetischen Impulsen, die sich mit Licht- geschwindigkeit ausbreiten. Nach den Gesetzen der allgemeinen Elektrodyna- mik entstehen solche Impulse, wenn elektrische Ladungen eine plötzliche Ge- schwindigkeitsänderung erfahren. Da die ^Strahlung in der Regel eine Begleiterscheinung der ß- Strahlung ist, wird man die Geschwindigkeitsände- rungen der Elektronen entweder im Momente der Emission oder bei der Bremsung, die sie noch innerhalb des emittierenden Atomes beim Durchqueren der Elektronenringe (vgl. später das Ru therf ordsche Atommodell) erleiden als unmittelbare Ursache der t * Strahlen anzusehen haben. Nach neueren Versuchen (Chadwick und Russell) tritt bisweilen eine allerdings sehr schwache t* Strahlung auch als Begleiterscheinung einer a- Strahlung auf.

Die neben der Impulstheorie seinerzeit aufgestellte Korpuskulartheorie der Röntgen- und t- Strahlen ist durch die neueren Ergebnisse über die Interferenz- erscheinungen in Kristallen (vgl. Artikel 23) wenigstens für die Röntgenstrahlen experimentell widerlegt und kommt daher jetzt auch für die y- Strahlen kaum mehr in Betracht.

IV. Die Sekundärstrahlen. Neben den sog. primären Strahlen, die seknndir- von den Atomen der radioaktiven Substanzen ausgehen und sich in eine der *** drei besprochenen Arten einreihen lassen, treten im allgemeinen in der Um- gebung eines radioaktiven Körpers auch Strahlen auf, deren Ursprungsstelle dort liegt, wo die primären eine Absorption erfahren haben. Man bezeichnet diese im weiteren Sinne des Wortes als „Sekundärstrahlen". Da in der Regel ein radioaktiver Körper nicht in unendlich dünner Schicht gegeben ist, daher einzelne seiner Partien die in anderen Partien entstandenen Strahlen absorbieren, sind auch die von einem radioaktiven Präparate selbst ausgehen- den Strahlen z. T. nicht primäre, sondern sekundäre.

In ihren Eigenschaften sind die Sekundärstrahlen den primären ganz ana- log, und zwar zeigen sie entweder den Typus der ß- oder den der y- Strahlen.

Es ist in der Regel nicht ohne weiteres zu entscheiden, ob solche Sekundär- strahlen (im weiteren Sinne) nur durch Zerstreuung aus ihrer ursprünglichen

502 »5. Stefan Meyer u. Egon v. Schweidler: Radioaktive Strahlungen u. Umwandlungen

Bahn abgelenkte Primärstrahlen sind, oder aber „eigentliche" Sekundärstrah- len, die von den absorbierten Primärstrahlen erregt wurden.

Sichergestellt ist vorläufig, daß die Absorption der a- Strahlen in festen Körpern sowohl von der Erregung einer sekundären, allerdings geringfügigen y- Strahlung begleitet wird, als auch von der Erregung einer ß- Strahlung, die aber im allgemeinen durch eine geringe Anfangsgeschwindigkeit gekenn- zeichnet ist, daher keine merkliche ionisierende Wirkung besitzt und haupt- sächlich durch den Transport negativer Ladungen empirisch nachweisbar wurde. Speziell wird die in einer a-strahlenden Substanz durch die Absorption der Eigenstrahlung erregte sekundäre Strahlung von diesem Typus gewöhnlich als b- Strahlung bezeichnet.

Primäre ß- Strahlen liefern als Sekundärstrahlen neben solchen, die als zerstreute Primärstrahlen aufzufassen sind, eine eigentliche erregte Sekundär- strahlung vom T-Typus, deren Intensität und Durchdringungsfähigkeit von dem Atomgewicht des absorbierenden Stoffes abhängt.

Primäre y- Strahlen endlich liefern analog wie Röntgenstrahlen eine se- kundär erregte ß- Strahlung und sekundäre f- Strahlen, die wieder im wesent- lichen zerstreute primäre sein dürften. Energie V. Die Eucrgic der Strahlung. Bei den radioaktiven Vorgängen wer-

dcr Strahlung, j^^ Q- Partikel, ß- Elektronen und y- Strahlen emittiert, die Restatome werden mit beträchtlicher Geschwindigkeit weggeschleudert; aus der im Stoffe der radioaktiven Substanz jeweils vorhandenen Energie wird daher ein großes Quantum in Bewegungsenergie (kinetische Energie) umgesetzt, und wenn die Strahlung absorbiert, d. h. diese kinetische Energie völlig gebremst wird, so muß sie sich als Wärme wiederfinden. Das Auftreten von Wärme wurde auch sehr bald konstatiert (vgl. Artikel 24).

Von vornherein bliebe es dabei unsicher, ob in der Energie der genannten Strahlen auch schon die gesamte Energie des radioaktiven Vorganges ent- halten ist, oder vielmehr noch andere Energieumwandlungen die Strahlung begleiten. Die Versuchsergebnisse schienen bis vor kurzem zu erweisen, daß die bei den angeführten Strahlungsprozessen auftretende Wärme quantitativ über- einstimmt mit derjenigen, die sich aus ihrer kinetischen Energie berechnen läßt; neuere Bestimmungen der Geschwindigkeiten durch E. Rutherford lassen es wieder als wahrscheinlicher gelten, daß noch andere Energieumwandlungen simultan stattfinden.

Die kinetische Energie oder „lebendige Kraft" der a-Partikel und analog der Rückstoßatome ist nach den Definitionen der Mechanik durch das halbe Produkt ihrer Masse mit ihrem Geschwindigkeitsquadrat gegeben. Ihre Zahl ist nach den Methoden S. 499 bestimmbar (z. B. für i gRa oder ein mit diesem im Gleichgewicht stehendes Zerfallsprodukt = 3,4 X 10^** a-Partikel in der Sekunde; für i g Uran 2,2 X lO* a- Partikeln in der Sekunde; für i g Thor 2,7 X IG* a-Partikeln in der Sekunde). Die Energie einer a-Partikel oder eines Rückstoßatomes multipliziert mit der sekundlich emittierten Zahl derselben liefert das Maß für die sekundlich entwickelte Wärmemenge.

Wärmeentwicklung durch radioaktive Substanzen ^03

Für die ß- und t- Strahlen wird der relativ kleine Betrag aus dem Verhält- nis ihrer gesamten ionisierenden Wirkung zu der der a- Strahlen erschlossen.

So berechnet man z. B. für den Gleichgewichtskomplex (Ra + Ra Ema- nation + RaA + RaB + RaCj, der gewöhnlich als „Radium** schlechthin bezeichnet wird und das Radium darstellt, wie es zumeist zur Messung gelangt, die entwickelte Wärmemenge nach den neuesten Daten zu 122 Grammkalorien pro Stunde.

Die experimentellen Wärmemessungen an ganz reinen Radiumsalzen er- gaben für die Absorption aller Strahlen 138 Kai. pro Stunde. Weitere Stützen der angegebenen Werte lieferten Messungen der Wärmeentwicklung von Radium- Emanation allein sowie von Radium, das von der Emanation und den Folge- produkten befreit war.

« _ _

Analog bestimmt man für die mit i g Radium im Gleichgewicht stehende Menge von „Polonium** (0^2 mg) eine stündliche Wärmeentwicklung von 27 Kai.

Ein Gramm Uran im Gleichgewicht mit allen seinen Zerfallsprodukten (vgl. Tabelle S. 510), wie es z. B. in der natürlichen Uranpechblende vorkommt, entwickelt stündlich rund 8 X 10 ""^j i Gramm Thorium samt allen seinen Zerfallsprodukten 2,5 X 10""^ Grammkai.

Während seiner ganzen Lebensdauer würde i g Radium insgesamt 2900 Millionen Grammkai. entwickeln. Ein „Curie** Radium-Emanation, d. i. die- jenige Menge, die mit l g Radium im Gleichgewicht steht und als Gas 0,6 mm^ erfüllt, entwickelt (samt den Zerfallsprodukten bis RaC) während seiner ganzen Lebensdauer rund 15000 Grammkai.; i g Radium-Emanation ergäbe in glei- cher Weise 2500 Millionen Grammkai.

B. Die Theorie der radioaktiven Stoffe.

Die im vorstehenden zusammengefaßten Ergebnisse über die Natur der Theorie Strahlungsvorgänge als solcher zeigen, daß von den radioaktiven Stoffen ver- ***' 'stoffl''^*" hältnismäßig bedeutende Energiemengen ausgesandt werden, und zwar haupt- sächlich in der Form kinetischer Energie einer Korpuskularstrahlung ähnlicher Art, wie sie an beliebigen Stoffen künstlich (im Vakuum bei hohen elektrischen Spannungen) erzeugt werden kann. Die nächsten Probleme sind daher, erstens die Energiequelle der radioaktiven Strahlung aufzudecken, und zweitens zu erklären, warum gerade eine Anzahl bestimmter Stoffe, die in ihrem sonsti- gen chemischen und physikalischen Verhalten sich von nicht aktiven nicht wesentlich unterscheiden, durch diese Strahlungsfähigkeit ausgezeichnet ist.

Daß die Strahlung unabhängig von äußeren Umständen, wie Be- lichtung, Temperatur usw. in gleicher Stärke erfolgt, daß die Eigenschaft der „Radioaktivität** den Atomen der betreffenden Elemente zukommt, unab- hängig von der Art ihrer chemischen Bindung an andere Stoffe, endlich daß die zunächst als radioaktiv erkannten Elemente (Uran, Thorium, dann Radium) besonders hohes Atomgewicht besitzen, waren wie bereits im vorigen Artikel 24 ausgeführt wurde die zunächst feststellbaren Tatsachen, welche die Grundlage für die Weiterentwicklung der Theorie bilden mußten.

504 ^5* Stefan Meyer u. Egon v. Schweidler: Radioaktive Strahlungen u. Umwandlungen

Mit dem Prinzip von der Erhaltung der Energie vereinbar sind zwei wesentlich verschiedene Auffassungen dieser Vorgänge: i. die Energie der ausgesandten Strahlung entstammt einem in den Atomen der verschiedenen radioaktiven Stoffe aufgespeicherten Energievorrate; 2. die Strahlung beruht auf der Umwandlung einer in noch aufzuklärender Weise den radio- aktiven Atomen von außen zugeführten Energie in Strahlungsenergie.

Gegen die Richtigkeit der ersten Auffassung sprach anfangs der Umstand, daß gerade die zuerst entdeckten radioaktiven Stoffe, wie Uran, Thorium und Radium, im Laufe der Zeit keine merkliche Abnahme der Strahlung zeig- ten, während doch eine Erschöpfung des Energievorrates früher oder später eintreten müßte. Dagegen stand die zweite Erklärungsart in Übereinstim- mung mit der Erfahrung über die Entstehung der den Becquerelstrahlen ver- wandten Erscheinungen: Röntgenstrahlen werden erregt durch Absorption der auftreffenden Kathodenstrahlen, eine Sorte von diesen wieder kann erzeugt werden durch die Absorption ultravioletten Lichtes. Eine vorläufig unbekannte Strahlung, die gerade von den radioaktiven Atomen absorbiert wird, könnte daher die Energiequelle darstellen. Allerdings müßte diese unbekannte er- regende Strahlung dauernd wirksam sein und alle nicht aktiven Stoffe un- gehindert durchdringen, denn nicht nur in Gebäuden, sondern auch in Tunnels, Bergwerken und natürlichen Höhlen bleibt die Strahlung der radioaktiven Substanzen in unveränderter Stärke erhalten, wie eigens angestellte Versuche bewiesen. Die Annahme, daß etwa die von allen über den absoluten Nullpunkt erwärmten Körpern ausgehenden Wärmestrahlen die erregende Ursache seien, hätte zwar nicht dem Energieprinzip, wohl aber dem zweiten Hauptsatze der mechanischen Wärmetheorie widersprochen, auch war sie mit der Tatsache der Temperaturunabhängigkeit der Radioaktivität schwer vereinbar. So blieb der zweite der genannten Erklärungsversuche zwar prinzipiell nicht widerleg- bar, aber heuristisch unfruchtbar.

Der Einwand von der Unveränderlichkeit der Strahlung gegen die erste Erklärungsart verlor nun viel an Beweiskraft, als neben den früher genannten Stoffen auch solche entdeckt wurden, die tatsächlich im Laufe der Zeit ihre Aktivität einbüßten, so das Uran X, die „Emanationen*' und die „induziert aktiven** Körper, deren Auffindung ja im ersten Teile bereits besprochen wurde. zeriaiistheorie. E. Ruthcrf ord und F. Soddy entwickelten daher im Jahre 1902 eine der ersten Erklärungsart entsprechende Theorie der Vorgänge in radioaktiven Stof- fen, die durch ihre Kühnheit und ihre revolutionär erscheinende Annahme einer Umwandlung der Atome zuerst Bedenken erregte, bald aber auch von den ursprünglichen Gegnern anerkannt wurde. Denn überraschend schnell konnte diese Theorie von einheitlichem Gesichtspunkte aus das Chaos unverständlicher Einzeltatsachen ordnen und verknüpfen, in zielbewußter Fragestellung neue Probleme aufrollen und dann lösen, zuletzt die Richtigkeit ihrer Voraussetzungen bis zu einem gewissen Grade unmittelbar durch das Experiment bestätigen.

Nicht die „Emanationen**, die „induzierte Aktivität** zwar vorsichtig aber unbestimmt als „Lokalisation radioaktiver Energie in der Umgebung radio-

Zei:faUstheorie ^05

aktiver Körper" aufzufassen, wie es vorher geschehen war, sondern in gewagt phantasievoller aber anschaulicher Weise als etwas Stoffliches - die Ema- nationen als radioaktive Gase, die induzierten Aktivitäten als einen Nieder- schlag eines festen radioaktiven Stoffes auf der Oberfläche der betreffenden Körper , das war der Leitgedanke der Begründer dieser Theorie.

Die Grundannahmen der Rutherford - Soddyschen Zerfalls- oder Umwandlungstheorie sind folgende:

Wie schon aus verschiedenen vor der Entdeckung der Radioaktivität be- kannten Tatsachen unter anderen gewissen Beziehungen zwischen den Atomgewichten der Elemente, der komplizierten Struktur der Emissions- spektren, der Abspaltbarkeit von Elektronen aus den Atomen bei lonisierungs- vorgängen usw. wahrscheinlich gemacht wird, ist das Atom eines Elementes keine unteilbare letzte Einheit der Materie, sondern ein aus kleineren sub- atomistischen Bestandteilen zusammengesetztes Gebilde von verhältnismäßig kompliziertem Aufbau. Elektrische Ladungen bestimmter Größe (Elementar- quanten der Elektrizität), die den Bestandteilen zukommen, bedingen an- ziehende und abstoßende Kräfte zwischen diesen und führen zu einer bestimm- ten Gleichgewichtslage. Die Zahl der zu einem Aggregat vereinigten Elemen- tarbestandteile (und somit das Atomgewicht) sowie deren Anordnung be- stimmen die physikalischen und chemischen Eigenschaften des Atomes.

Während nun bei den Atomen der gewöhnlichen inaktiven Elemente diese Anordnung einem stabilen Gleichgewichte entspricht, so daß sich diese Atome den uns bekannten Naturvorgängen gegenüber tatsächlich wie un- veränderliche unteilbare Einheiten der Materie verhalten, wird bei den radio- aktiven Atomen ein labiler Zustand vorausgesetzt. Eine Störung des Gleichgewichtes bewirkt dann, daß die ursprüngliche Anordnung in eine neue übergeht, wobei entweder nichts als die Gruppierung sich ändert („strahlen- lose Umwandlung**) oder zugleich einer oder mehrere der Elementarbestand- teile infolge der nun überwiegenden Abstoßung mit großer Geschwindigkeit abgeschleudert werden (Umwandlung unter Aussendung einer Korpuskular- strahlung). Positive a- Partikel und negative Elektronen wären also jedenfalls unter den Elementarbestandteilen vertreten, wenn auch nicht allein am Auf- bau der Atome beteiligt. (Die Ebcistenz des Wasserstoff atomes H = i, zeigt, daß obige Bausteine allein nicht für die Konstruktion aller Elemente aus- reichen.) Das nach der Gleichgewichtsstörung entstandene Gebilde unter- scheidet sich vom ursprünglichen Atom mindestens bei strahlenloser Um- wandlung — durch die Anordnung, sonst aber auch durch seine Masse; es ist daher ein Atom anderer Art, das eines neuen Elementes geworden.

Sind die Atome eines solchen „Zerfallsproduktes** selbst wieder in- stabil, so ist auch dieses als „radioaktives** Element zu betrachten, das sich in ein drittes umwandelt und so fort, bis nach einer größeren oder kleineren Zahl von Umwandlungsstufen eine stabile Anordnung erreicht, also ein be- ständiges Element im gewöhnlichen Sinne des Wortes gebildet wird. Die Ge- samtheit der dabei auf tretenden Zerfallsprodukte stellt eine „Zerfallsreihe**

506 25. Stefan Meyer u. Egon v. Schweidler : Radioaktive Strahlungen u. Umwandlungen

dar, in der jedes Glied genetisch mit dem voranstehenden verknüpft bt. Die Umwandlung erfolgt aber nicht für alle Atome gleichzeitig, sondern für jedes Atom tritt unabhängig vom Zustand der anderen der Zerfall ein, sobald sein Gleichgewichtszustand gestört wird.

Wie hat man sich nun die Anordnung der Elementarbestandteile in sta- bilen und instabilen Atomen zu denken; durch welche Ursachen wird in den in- stabilen der Zerfall herbeigeführt, nach welchen Gesetzen erfolgt der zeitliche Ablauf der Umwandlungsprozesse das sind die Hauptfragen, auf welche diese Theorie führt.

Von LfOrd Kelvin zuerst ausgesprochene Ideen weiter verfolgend gelangte J. J. Thomson zu folgendem „Atommodel 1'*: In einer mit positiver Ladung gleichmäßig erfüllten Kugel sei eine Anzahl von punktförmigen negativen La- dungen (Elektronen) verteilt, deren Gesamtladung jener der Kugel entgegen- gesetzt gleich ist. Unter Wirkung einerseits der Anziehung, die alle Elektronen gegen den Mittelpunkt der Kugel treibt, andererseits der abstoßenden Kräfte, die sie untereinander ausüben, ordnen sich die Elektronen auf konzentrischen Kreisen oder Kugelschalen symmetrisch an und bilden so eine Gleichgewichts- figur. Durch allerdings sehr komplizierte Rechnungen kann dann gezeigt werden, daß je nach der Zahl der Elektronenringe oder -schalen und der Zahl der Elektronen in einem einzelnen Ring die Anordnung stabil oder instabil ist; ferner daß gewisse Anordnungen infolge Hinzutretens von Zentrifugalkräften stabil bleiben, solange das ganze System mit hinreichender Geschwindigkeit rotiert, dagegen instabil wird, sobald die Rotationsgeschwindigkeit unter einen bestimmten kritischen Wert sinkt.

Etwas davon abweichend ist die Form eines Atommodelles, das Ruther- ford erdachte, um die Beeinflussung der a -Teilchen bei der Durchquerung eines Atomes und die Emission von ß- Strahlen verschiedener Anfangsgeschwin- digkeit eines radioaktiven Atomes darzustellen. Hier werden Elektronenringe angenommen, die sich um einen aus positiven EUementarbestandteilen gebilde- ten Kern von sehr kleiner Ausdehnung gruppieren.

Alle diese Modelle geben nur eine ungefähre Vorstellung davon, wie die eine oder andere Eigenschaft *des Atomes (Stabilität oder Instabilität, Ab- lenkung und Verlangsamung durchgehender Korpuskularstrahlen usw.) mög- licherweise auf die Atomstruktur zurückgeführt werden kann, und beanspruchen nicht, als genaues Bild der wirklichen Struktur zu gelten. Nachdem die physi- kalischen Ergebnisse der letzten Jahre die eine Zeitlang in den Hintergrund gedrängten atomistischen Vorstellungen aus dem Bereich der Hypothese in den erfahrungsmäßig gesicherter Erkenntnis gebracht haben, wäre es verfrüht, schon jetzt ein vollständiges und genaues Wissen in der viel schwierigeren Frage nach dem Aufbau der Atome zu fordern; aber diese bewußt ganz hypothetischen Fiktionen zeigen, daß man erwarten kann, bei genauerer Untersuchung solcher Vorgänge, wie z. B. der Absorption und Zerstreuung von Korpuskularstrahlen, im Laufe der Zeit exakt begründete Anschauungen zu gewinnen, wo heute eine in allgemeinen Zügen gehaltene Darstellung genügen muß.

Zerfall und Bildung radioaktiver Substanzen

507

V

-

^

^

•-

\

>/

^

V

>

>^

\

/

K

V

r

i

A

^

s

k.

/

\

/

<

-

/

i

=5

■*

••

xo so

40

60

80

ZOO

'I^

Die Gesetze, welche den zeitlichen Ver- lauf der Umwandlungs Vorgänge bestimmen, lassen sich in einfacher Weise empirisch festlegen^ wenn ein solches Umwandlungsprodukt durch! irgendwelche chemische oder physikalische Me-| thoden (wie Ausfällung, Verdampfung, elektroly- tische Abscheidung usw.) von der es erzeugenden Muttersubstanz abgetrennt werden kann und wenn dann die zeitlichen Änderungen der Strahlung messend verfolgt werden.

Ein einfaches Beispiel hierfür liefert das bereits erwähnte Uran X. Eine Uranverbindung liefert im allgemeinen sowohl a- als p* und f-Strahlen, und zwar in unveränderter Stärke bei Messungsreihen, die sich über längere 2^it erstrecken. Wird nun der Lösung eines Uransalzes ein inaktiver geeigneter Stoff, z. B. Barium, beigemengt und dann dieses durch entsprechende chemische Operationen wieder ausgefällt und durch Filtrieren von der Uransalzlösung getrennt, so zeigt sich, daß die ganze durchdringende Strahlung an dem aus- gefällten Barium haftet, während die Lösung des Uransalzes zunächst nur a- Strahlen aussendet. Wiederholt angestellte Messungen ergeben nun, daß die Stärke der ß- und f- Strahlung des ausgefällten Teiles mit der Zeit nach einem Ex ponentialgesetz abnimmt, das heißt in gleichen Zeiten um gleiche Bruchteile ver ringert wird, so wie dies die Kurve I der Figur in graphischer Darstellung zeigt

Das Gesetz des zeitlichen Verlaufes ist somit durch eine einzige Zahlen angäbe festlegbar. Man benützt hierzu entweder die sog. „Zerfallskon staute** X, d. i. die Abnahme innerhalb der Zeiteinheit in Bruchteilen des je weiligen Anfangswertes ausgedrückt; oder die „Halbierungszeit'' T, d. i die Zeit, nach welcher die Strahlungsintensität auf die Hälfte des Ursprung liehen Wertes abgesunken ist. Im gewählten Beispiel beträgt die Zerfalls konstante 2,82 Prozent im Tag, die Halbierungszeit 24,6 Tage. Allgemein auch bei anderen Zahlenwerten, die andere radioaktive Substanzen aufweisen gilt die Beziehung: T = 0,693 -j.

Wird zugleich die Uransalzlösung untersucht, so erhält man neben einer konstant bleibenden a- Strahlung eine allmählich anwachsende ß-y- Strahlung; der zeitliche Verlauf der letzteren wird durch die Kurve II dargestellt. Es nimmt also in einer beliebigen Zeit die Strahlung der Uranverbindung um genau ebensoviel zu, als die Strahlung des abgetrennten Teiles abnimmt.

Die Interpretation dieser Vorgänge nach der Umwandlungstheorie ist fol- gende: Die Atome des Urans (genauer Uran I) wandeln sich unter Aussendung von a- Partikeln in Atome eines Uran X genannten Elementes um. Die Zer- fallskonstante des Urans ist so klein (vgl. Tabelle), daß selbst innerhalb längerer Zeit die Zahl der zerfallenden Atome gegen die der noch vorhandenen ver- nachlässigt werden kann. Da in der Zeiteinheit stets ein bestimmter Bruch- teil der jeweils vorhandenen Atome zerfällt, bleibt daher die Zahl der aus- gesandten a- Partikeln und damit die unmittelbar beobachtete Stärke der Strahlung für unsere Meßgenauigkeit konstant.

5o8 25. Stefan Meyer u. Egon v. Schweidler : Radioaktive Strahlungen u. Umwandlunsren

Vom Uranatom verschieden durch seine Masse die um die Masse einer a-Partikel, also eines Heliumatomes verringert wurde und durch die Anord- nung der Elementarbestandteile, besitzt das Uran X-Atom andere physikalische und chemische Eigenschaften. Es ist selbst instabil also Uran X ist ein radioaktives Element , und zwar zerfallen von einer beliebigen Anzahl vor- handener Atome 2,82 Prozent im Tage, indem sie sich unter Aussendung von ß-Partikeln (und gleichzeitig von y- Strahlen) in die eines neuen (nicht ß-strah- lenden) Elementes (Uran II) umwandeln. Die Menge des vorhandenen Uran X wächst daher im Beisein von Uran I so lange an, bis die in konstantem Betrage erfolgende Neuerzeugung aus Uran und der der wachsenden Menge proportional sich steigernde Zerfall sich kompensieren, also bis eine bestimmte Gleich- gewichtsmenge erreicht ist. Entstehen z. B. aus einer gegebenen Menge Uran 326 Uran X- Atome in der Sekunde, oder rund 28 Millionen im Tag, so enthält die „Gleichgewichtsmenge von Uran X** gerade looo Millionen Atome, von denen 2,82 Prozent, das sind 28,2 Millionen im Tage, zerfallen.

Nach der durch die physikalisch-chemische Verschiedenheit des Uran X ermöglichten Abtrennung wird dann das Zerfallsgesetz für Uran X unmittelbar beobachtbar, während die Nachbildung der Gleichgewichtsmenge aus der Uranlösung an dieser verfolgt wird.

Ganz analog lassen sich die Zerfallskonstanten oder Halbierungszeiten für die Emanationen, die die induzierte Aktivität hervorrufenden Umwand- lungsprodukte, für Polonium u. a. ermitteln. Ist die Zerfallskonstante eines Umwandlungsproduktes sehr groß, also die Halbierungszeit sehr klein, wie z. B. bei der Emanation des Aktiniums, so ist die von einer gegebenen Menge der Muttersubstanz aufrecht erhaltene Gleichgewichtsmenge außerordentlich klein; sie ist dann nur durch die Strahlung erkennbar, entzieht sich aber jedem Nachweis durch Wägung oder selbst durch die empfindlichsten spektralana- lytischen Methoden. Langlebige Zerfallsprodukte dagegen können in wäg- barer Menge erhalten und auf ihre chemischen Eigenschaften untersucht wer- den, so z. B. Polonium, Radium D, Radium- Emanation u. a.

Für sehr langlebige Stoffe, wie Uran, lonium, Thorium usw., kann die Zer- fallskonstante nicht unmittelbar aus der zeitlichen Abnahme bestimmt wer- den, da diese selbst in Jahrhunderten nicht die Fehlergrenze der Strahlungs- messung übersteigen würde; gleichwohl läßt sich auf indirektem Wege diese Konstante ermitteln auf Grund der früher besprochenen Methoden der 2^- lung der a-Partikeln. So kann z. B. bestimmt werden, wie viele a-Strahlen in der Sekunde von einer sehr dünnen Schicht ausgesendet werden, die i g Uran enthält und damit die Zahl der Uranatome, die in der Zeiteinheit zer- fallen; anderseits kennt man die Masse der Uranatome (rund 60 X 6,6 X lO^'^g, da das Atomgewicht des Urans rund 240 beträgt, also 60 mal größer als das der a-Partikel oder Heliumatome ist) und hieraus die Zahl der in l g vorhande- nen Uranatome. Hieraus berechnet sich, daß von je einer Billion Uranatome innerhalb eines Jahres etwa 140 zerfallen, oder daß die Halbierungszeit des Urans rund 5000 Billionen Jahre beträgt.

Die radioaktiven Familien 509

Eine Zusammenstellung der unmittelbar chemisch nachweisbaren oder aus dem zeitlichen Verlauf der Strahlung erschlossenen Umwandlungsprodukte mit den sie kennzeichnenden Werten der Halbierungszeit und der Angabe der Art ihrer Strahlung enthält folgende Tabelle (S. 510), deren Anordnung zu- gleich den genetischen- Zusammenhang der aufeinanderfolgenden Glieder dar- stellt. (Die Halbierungszeit bzw. in Sekunden (s), Minuten (m), Stunden (h), Tagen (d) oder Jahren (a).)

Alle drei Zerfallsreihen zeigen untereinander weitgehende Analogien, ins- besondere herrscht ein ausgesprochener Parallelismus zwischen der Thorium- und Aktiniumreihe.

Im Hinblick darauf, daß Aktinium stets in konstantem Verhältnis mit Uran und Radium in den natürlichen Mineralien gefunden wird, darf ein ge- netischer Zusammenhang vermutet werden. Vielfach wird angenommen, daß die Aktiniumfamilie von einer der Verzweigungsstellen der Uranreihe ausgeht, also vielleicht als Abkömmling von UY anzusehen ist.

Die stabilen Endprodukte aller drei Reihen sind noch nicht sichergestellt. Zweifellos muß in alten Uran- bzw. Thormineralien das Endprodukt der be- treffenden Zerfallsreihe vorhanden sein.

Als solche Endprodukte kommen für die Radium-Aktiniumreihen be- sonders Blei und Thallium, für die Thoriumreihe das Wismut in Frage. Tat- sächlich hat B. B. Boltwood gezeigt, daß speziell das Blei in allen alten Uran- mineralien in nahe konstantem Verhältnis vorhanden ist. Wäre dies gesichert, so könnte umgekehrt aus der in einem Uranmineral gefundenen Menge auf das geologische Alter desselben ein Schluß gezogen werden.

Die Annahme, daß Blei als Endglied der Uranreihe und Wismut als solches der Thoriumfamilie gelten könnten, findet noch eine Stütze in den betreffenden Atomgewichten; acht in der Gleichgewichtsreihe einander folgende a-Strahler der ersteren Familie würden das Atomgewicht des Uran (238,2) um ca. 32 auf ca. 206,2 vermindern; 6 a- Strahler in analoger Weise das Atom- gewicht des Thorium (232,2) auf ca. 208 herabdrücken. Diese Atomgewichte stehen tatsächlich denen des Blei und Wismut nahe. In letzter Zeit ist jedoch der Nachweis gelungen, daß es sich nur um Elemente handle, die im Atom- gewicht und chemisch-physikalischen Verhalten außerordentlich nahe dem Blei stehen, ohne jedoch mit ihm absolut identisch zu sein.

Wahrscheinlichkeitsbetrachtungen. Das tatsächlich bestehende wahnchoinUch- Zerfallsgesetz sagt aus, daß von einer gegebenen Anzahl gleichartiger radio- tungen. aktiver Atome innerhalb der Zeiteinheit ein bestimmter Bruchteil zerfällt. Man könnte versuchen, für dieses einfache Gesetz eine Erklärung zu finden, indem man geeignete Hypothesen über die Ursache des Zerfalles einführt. Aber eben dieses Gesetz zeigt ja, daß anscheinend gleichbeschaffene Atome sich ganz verschieden verhalten, indem die einen früher, die anderen später ihre Umwandlung erleiden. Weder eine auf alle in einem radioaktiven Körper ent- haltenen Atome gleichzeitig wirkende äußere Ursache noch eine im Innern der Atome gleichartig verlaufende Zustandsänderung kann den Zerfall herbei-

5 1 o 25< Stefan Meyer u. Egon v. Schweidlbr : Radioaktive Strahlungen u. Umwandlungen

00

M

O

M

u3 a

so ^

o

10

I s

O *1

€*»

a a

•c

o

O

N

a

CO

o

>

4-»

o »o

CS

u

u

0)

vi H

M N

a o

9

a

I I I X i <

0'rM-i'M-^'S-i' zfr s-r B-r s-r *S ^ S *C -C "C 'C 'C

<v«

•c

o

c/a

<«. eo. CS O CS

CS

9.

tn

ä " "

s a

S

o

d

s

<

D

<v«

I

ä o

*£3

a s i

9 9

«3 Q

a

9

C/3

*&

t£%

i

d

O

3

«O

O k/k to oo

a

o

a

00

M

a -j

d

a *•

00 M

00

«>

'^

••8

§

'S

o

CS

» o Jb

^ :3 D D

g a a a a a I

o 5 5 /3 *9 5 *^/3

,;S W PQ K K K^oOQ

a

.2

(2

a

ta

a

9

I

'S

i

"S

e

9 U

S 0< M

'S

Die „Wahrscheinlichkeit" des Zerfalles ^H

führen, da ja dieser bei jedem Atom unabhängig von dem aller anderen erfolgt. Hätte man ein einzelnes radioaktives Atom herausgegriffen, dessen Zerfall ja (bei a- Strahlung) empirisch konstatiert werden könnte, so wäre der Zeitpunkt des Zerfalles gänzlich unbestimmt; man könnte bloß Wahrscheinlichkeits- betrachtungen anstellen, wie über den vermutlichen Ausgang eines Hazard- spieles, z. B. i gegen i wetten, daß das Atom vor Ablauf der Halbierungszeit des betreffenden Stoffes zerfällt, oder 3 gegen i, daß dies vor Ablauf der dop- pelten, 1023 gegen i, daß es vor Ablauf der zehnfachen Halbierungszeit ge- schieht. Die „Zerfallskonstante'' ist nichts anderes als die Wahrscheinlich- keit, daß ein Atom bestimmter Gattung innerhalb der Zeiteinheit zerfällt.

Mit anderen Worten: gerade die Unbestimmtheit, die für unsere unvoU^ kommene Kenntnis der Bedingungen scheinbare Zufälligkeit des Zerfalles eines Einzelatomes hat zur Folge, daß für eine größere Anzahl von Atomen das obige Gesetz gilt; es ist ein Gesetz, das sich auf statistische Mittelwerte bezieht, aus allgemeinen Prinzipien der Wahrscheinlichkeitsrechnung (dem sog. Gesetz der großen Zahlen) ableitbar ist, ohne daß irgendeine Kenntnis vom Mecha- nismus des Zerfallsprozesses dazu erforderlich ist, ebendeshalb uns aber auch keinen Einblick in diesen verschaffen kann.

Die Ursachen kennen zu lernen, die zum Zerfall eines instabilen Atomes führen, die Art der Gleichgewichtsstörung zu präzisieren, bleibt daher ein Problem, dessen Lösung der Zukunft vorbehalten ist. Nur so viel ist derzeit festgestellt, daß physikalische Einwirkungen, wie die des Druckes und der Temperatur oder Auftreffen korpuskularer Strahlung, die von benachbarten Atomen ausgeht, keinen Einfluß auf die Zerfallsgeschwindigkeit eines radioaktiven Stoffes ausüben.

Endlich wäre zu erwähnen, daß bei a -strahlenden Elementen ein deutlicher Zusammenhang zwischen der Zerfallskonstante und der Anfangsgeschwindig- keit, daher auch der Energie der a-Partikel besteht. Je größer die Zerfalls- konstante, desto größer ist auch die Anfangsgeschwindigkeit, oder umgekehrt ausgedrückt: je größer der Energiebetrag ist, der bei der Umwandlung des Atomes aus potentieller Ejiergie in kinetische der Korpuskularstrahlung um- gesetzt wird, desto größer ist auch die Wahrscheinlichkeit, daß diese Umwand- lung tatsächlich erfolgt.

Vielleicht ist dieses Ergebnis der erste Schritt auf einem Wege, der zur Erkenntnis der Ursachen des Zerfalles führt.

Überblick. Durch die Umwandlungstheorie in Verbindung mit derübeAHck. Theorie der Korpuskularstrahlungen erhalten wir ein zwar noch nicht voll- ständiges, aber scharf umrissenes Bild vom Wesen der radioaktiven Vorgänge. Es läßt uns erkennen, daß es mehr darstellt als ein bloßes Kuriosum der Natur, daß es einmal in vollkommener Ausführung uns den Einblick in derzeit noch unübersehbare Zusammenhänge gewähren wird. Freilich die praktische Bedeutung der Radioaktivität entspricht vielleicht nicht allen Erwartungen, die daran geknüpft wurden. Zwar ist die Konzentration von Energie auf kleinem Raum und in kleinen Stoffmengen bei den radioaktiven

512 25. Stefan Meyer u. Egon v. Schwbidler : Radioaktive Strahlungen u. Umwandlungen

Körpern bisweilen eine ungeheure, aber ihre Umsetzung in nutzbare Energie erfolgt allmählich, von uns nicht beeinflußbar, nach unveränderlichen Ge- setzen. Ebenso erscheint die Umwandlung der Grundstoffe zwar nicht mehr als etwas seinem Wesen nach Unmögliches, aber auch nicht als ein Vorgang, den wir nach Willkür einleiten und lenken können, wie die Reaktionen der tech- nisch angewandten Chemie; und so stehen wir der Erfüllung der alten Älchi- mistenträume nicht näher als zuvor. Hoffnungsvoller ist vielleicht die Anwen- dung der Radioaktivität in der Medizin. Mag auch bei den derzeit gemeldeten Erfolgen vielfach die wirklich vorhandene Wirkung durch Einflüsse des Zu- falls oder der Suggestion überdeckt sein, so hat doch die exakte Erforschung biologischer Wirkungen der Radioaktivität bereits begonnen und so manche schon gewonnene Ergebnisse lassen erwarten, daß sie nicht die einzigen bleiben, werden.

Viel weiter reichend ist die theoretische Bedeutung unserer Kennt- nisse von den Erscheinungen der Radioaktivität. Manches Nachbargebiet der Wissenschaft kann Nutzen aus ihnen ziehen; so wurde bereits im vorigen Artikel 24 ausgeführt, welch wesentliche Rolle die Strahlung radioaktiver Stoffe für die elektrischen Vorgänge in der Erdatmosphäre spielt, wie in der Geo- logie aus Radioaktivität und Heliumgehalt der Gesteine Schätzungen ihres Alters abgeleitet werden können und wie die Tatsache der Wärmeentwicklung, die die Umwandlungsprozesse begleitet, von Wichtigkeit für den Wärmehaus- halt der Erde und vielleicht auch anderer Weltkörper ist.

Vor allem aber sind es unsere Auffassungen vom Aufbau der Materie aus kleinsten Bestandteilen und von deren Wechselwirkungen, die eine ungeahnte Erweiterung, Vertiefung und Sicherung gewonnen haben. Nicht starr, unverän- dert und ewig ist hiernach die Welt der Atome, nicht in ihrer wechselnden Bindung und Lösung, in ihrer Bewegung und im Austausch ihrer Energien allein erschöpft sich die Mannigfaltigkeit der Elementarvorgänge, sondern Stoffe als solche entstehen und verschwinden, als das flüchtige Ergebnis eines Entwicklungsvorganges.

Ist auch wie bereits im ersten Teil besprochen wurde die Radio- aktivität, d. h. die Umwandelbarkeit der Atomstruktur, nicht für alle sog. Elemente, sondern nur für eine Anzahl unter ihnen nachweisbar, so ist doch die Möglichkeit nicht ausgeschlossen, daß nur in der Geschwindigkeit des Ab- laufes der Unterschied zwischen radioaktiven und scheinbar beständigen Grundstoffen liegt.

Die Umwandlungen der radioaktiven Elemente nun werden gedeutet als Zerfallsprozesse, die aus unbekannter Ursache eintretend Masse und Energieinhalt der Atome stückweise verringern. Ist diese Art von Umwand- lungen die einzige, die in der Natur wirklich vorkommt? Wenn ja, dann erhält der zweite Hauptsatz der mechanischen Wärmetheorie ein Seitenstück: wie bei den Umwandlungen der Energie ist auch bei denen der Stoffe die eine Rich- tung bevorzugt, ein einsinniger Ablauf der Gesamtheit aller Einzelvorgänge an den Urbestandteilen der Materie gegeben.

Überblick 5 1 j

Oder sind die Zerfallsprozesse umkehrbar, tritt an Stelle des Zerfalles unter geänderten Bedingungen der Aufbau der Atome, die Entstehung an Masse und Energieinhalt zunehmender Gebilde einer aufsteigenden Ent- wicklungsreihe ?

Noch liegt die Entscheidung außerhalb des Bereiches unseres Urteiles; denn Versuchsergebnisse, die eine Neubildung von Atomen aus kleineren oder aus Urbestandteilen anzudeuten scheinen, können nicht als gesicherte an- gesehen werden. Vielleicht aber bringt die Zukunft genauere Kenntnis von den Ursachen des Zerfalles und damit zugleich von der Unmöglichkeit oder von der Möglichkeit und der Wahrscheinlichkeit des entgegengesetzten Vor- ganges.

Dann würde auf Erfahrungstatsachen gegründetes Wissen bis in jene Tiefen reichen, in denen die uralten, niemals gelösten und doch niemals ver- stummenden Fragen nach Ursprung und Ende, nach Endlichkeit oder Ewigkeit des Kosmos wurzeln.

Literatur.

Detaillierte Angabe der Literatur ist wegen deren allzugroßer Ausdehnung untunlich. Es seien daher von zusammenfassenden Werken nur genannt :

M. Curib: Traitd de Radioactivit^, Paris bei Gauthier- Villars, 19 10. Deutsche Ausgabe: Die Radioaktivität Akad. Verlagsgesell. Leipzig 1 9 1 2.

£. Rutherford : Radioactive Substances and their radiations, Cambridge 191 3. Deutsche Aus- gabe: Handbuch der Radiologie II. E. Rutherford: Radioaktive Substanzen und ihre Strahlungen. Akad. Verlagsgesell. Leipzig 19 14.

F. Soddy: The chemistry of the Radioelements, beiLongmans, Green and Co., London. 1. 1911 ; II. 1914. Deutsche Ausgabe: Die Chemie der Radioelemente. J. A. Barth, Leipzig 1912, 1914.

K. d. G. in. m, Bd i Phynk 33

LEHRE VOM LICHT

33*

26.

ENTWICKLUNG DER WELLENLEHRE DES UCHTES.

Von

Otto Wiener.

I. Die Fragestellung. Das Auge ist dem Menschen die halbe Welt. FragosteUang. Kein anderer Sinn vermittelt in ähnlichem Maße die Kenntnis der Außenwelt. Kein anderer Sinn läßt ihn mit einem Schlage eine gleiche Mannigfaltigkeit von Tatsachen erkennen. Es bedürfte der Zeit von Tagen, um dem Geist durch das Ohr all die Dinge zu übermitteln, die das Auge etwa beim Blick auf eine reich geformte Landschaft auf einmal übersehen kann, und es bedürfte der Zeit von Jahren, um ihm durch Tasten solche Kenntnis zu verschaffen. Ja, wir brauchen nur den Blick auf den nächtlichen Sternhimmel zu wenden, um inne zu werden, daß Tasten und Hören überhaupt versagen, wo das Auge allein Nachricht gibt.

Wie kommen diese Leistungen des Auges zustande ? Was verdanken wir dem Auge, was dem Licht ? Wie entsteht das Licht, wie kommt die Verbindung zwischen dem Leuchtenden und dem Auge zustande ? Wie nimmt das Auge die Eindrücke auf? Welche Eigentümlichkeiten des Gesehenen sind durch Vor- gänge in uns, welche Eigentümlichkeiten sind durch Vorgänge außer uns be- dingt ? Welche Schlüsse dürfen wir also aus den Gesichtseindrücken auf die Be- ziehungen der Dinge untereinander ziehen ?

Würden wir alle diese Fragen mit Genauigkeit zu beantworten vermögen, so würden wir bereits die Grundtatsachen der Erkenntnislehre, der Physik und der Physiologie unseres wichtigsten Sinnes erfaßt haben.

Was wir bis jetzt darüber wissen und wie die Menschheit zu diesem Wissen gelangt ist, soll uns beschäftigen, vor allem die Frage nach der Art der Verbin- dung zwischen Gesehenem und Auge. Wie das Licht selbst entsteht, soll nur gestreift werden, welche Besonderheiten das Auge den Gesichtsempfindungen beimischt, soll nur so weit Gegenstand der Betrachtung sein, daß wir die Schlüsse auf die äußeren Vorgänge der Lichtübermittlung in genügender Rein- heit übersehen können.

2. Die Optik vor der Wellenhypothese. Vergeblich suchten die al- opttic ten Griechen über den rätselhaften Vorgang des Sehens klar zu werden. Daß hypothese. es in geraden Linien erfolge und in unmeßbar kurzer Zeit, das lehrten die alier- einfachsten Beobachtungen. Ob aber die „Strahlen** von den Gegenständen zum Auge oder umgekehrt von den Augen zum Gegenstand hin gingen, schon dar- über konnten sie nicht einig werden.

Wie sie in der Philosophie fast alle erdenkbaren Weltanschauungen er- schöpften, so bildeten sie über den Vorgang des Sehens eine große Zahl verschie- denster Hypothesen aus, nur die nicht, der wir heute huldigen.

5i8 26. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

s«iutra]üen- Wie man auch in anderer Hinsicht den Mensch als Mittelpunkt der Welt theorie. j^jjgg^jj^ gQ schrieb man beim Sehen dem Auge die tätige Rolle zu. Ihm wohnte schon nach der Vorstellung der alten Inder ein ewiges Feuer inne. Die Pytha- goreer ließen von ihm heiße Ausdünstungen ausgehen, die sich bei den spä- teren in eine Art Fühlfäden umbildeten, durch die es die Körper betasten und ihre Natur wahrnehmen konnte.

Diese „Sehstrahlentheorie** wurde von bedeutenden Gelehrten wie Euklid (um 300 V. Chr.) und Ptolemäus (70—147 n. Chr.) angenommen und durch den Almagest**, die arabische Übersetzung der gesammelten Werke des Ptole- mäus, weit bis ins Mittelalter hinein überliefert. Es war das um so merkwür- diger, als schon Aristoteles (384—322 v. Chr.) gegen diese Lehre den schlagen- den Einwand erhoben hatte, daß dann die Körper auch im Dunkeln sichtbar sein müßten.

Daß freilich auch von der Sonne Strahlen ausgingen, wurde nicht bez^xrei- f elt. Und so war es ein Fortschritt, wenn die Atomistiker die Ansicht vertraten, daß von den Körpern Abdrücke, wie Demokrit (460 ca. 370 v.Chr.) meinte, Abbilder, wie Epikur (341— 270 v. Chr.) annahm, ausgestrahlt würden. EmiuioBstkeorie. Dicse Hypothesc wurde später von Gassendi (1592— 1655) dahin abge- ändert, daß von den leuchtenden Körpern kleine Kügelchen als eine Art Licht- atome ausgestrahlt würden, die, mit großer Geschwindigkeit bewegt, im Auge die Lichtempfindung auslösten. Dies ist die Emissions theorie **, die später von Newton weitergebildet wurde, synaugie. Auch an Vermittelnden Vorstellungen fehlte es im Altertum nicht, wonach die Sehstrahlen den Körperstrahlen begegneten und durch das Zusammentref- fen das Sehen ermöglichten, eine Hjrpothese, die von Empedokles (492 432 V. Chr.) aufgestellt und von Plato (429—347 v. Chr.) unter dem Nanaen „Synaugie** ausgebaut wurde.

Äthertheorie. Am nächstcu kam noch Aristoteles unseren heutigen Vorstellungen, in- dem er das Sehen als einen Vorgang auffaßte, bei dem die Körper auf das Auge unter Vermittlung des zwischenliegenden Mittels einwirkten. Diese Vorstellung entsprach seiner Grundauffassung, wonach es keinen leeren Raum gab, und da er sich durch einen solchen hindurch überhaupt keinerlei Wirkung sich vollziehend denken konnte, so dachte er auch den Raum, in dem sich die Sterne bewegten, als mit einem feinen Stoff erfüllt, den er im Anschluß an alte Überlieferung der griechischen Dichter den „Äther** nannte. Descartei Dcu Thcorien der Alten hat Descartes(i 596— 1 650) noch eine neue Hypo- these zugefügt. Auch er huldigt gleich Aristoteles der Vorstellung einer die interplanetaren Räume erfüllenden feinen Materie, die er gleichfalls Äther nennt, und die aus unmittelbar aneinanderstoßenden Kügelchen bestehen soll, auf die die leuchtenden Körper drücken. Dieser Druck wird augenblicklich von ihnen auf das Auge übertragen, wo er das Sehen veranlaßt. Geometniche Alle dicsc naturphilosophischcn Hypothesen standen ziemlich in der Luft,

Reflexionsgeseta. da sic ZU kaum ciucm anderen Zwecke gebildet waren, als um die eine Tatsache

der unmeßbar raschen geradlinigen Übermittlung des Lichtes zu erklären. Un-

Optik vor der Wellenhypothese

519

e a b

.Einfallswinkel I Attsfallswinkol Brechungswinkel

abhängig davon war die „geometrische Optik**, welche die griechischen Mathe- matiker begründeten, und die sich auf der Geradlinigkeit der Strahlen aufbaute und auf dem den Alten wohlbekannten Reflexionsgesetz, wonach der Winkel zwischen dem einfallenden Strahl und der Spiegelnormalen oder dem Einfallslot, den man Einfallswinkel nennt, gleich dem Ausfallswinkel ist, der von dem ausfallenden Strahl und dem Lot eingeschlossen wird (Fig. l).

Allmählich kam dann auch noch der ins durchsichtige Mittel eintretende Brechungsgcsetz. Strahl als Gegenstand der Betrachtung hinzu. Das Gesetz dieser Brechung, näm- lich die Abhängigkeit des Brechungs- winkels, d. h. des Winkels zwischen ge- brochenem Strahl und Einfallslot (Fig. i), von dem Einfallswinkel blieb freilich lange unbekannt. Ptolemäus hält noch die beiden Winkel für einander proportional. Der arabische Physiker Alhazen (f 1038) macht auf die Abweichungen von diesem Gesetz bei größerem Einfallswinkel aufmerksam. Kepler (i 571 1630) trägt dieser Abweichung in einem ziemlich verwickelten Brechungsgesetz Rechnung, und erst Snellius (1591 1626) verdankt man die Kenntnis von dem richtigen Brechungsgesetz, wonach das Verhältnis des Sinus des Einfallswinkels zum Sinus des Brechungswinkels eine konstante Größe darstellt, die man heute den „Brechungsexponenten*' des brechenden Mittels nennt.

Übrigens soll das richtige Brechungsgesetz auch bereits Leonardo da Vinci (1452— 1519) bekannt gewesen sein, einem frühen Anhänger der Wellen- lehre des Lichtes. Indes blieben die Aufzeichnungen des Leonardo lange un- bekannt und konnten nur geringen Einfluß auf die Entwicklung unserer Wissen- schaft gewinnen. Erst später begann man sie der Vergessenheit zu entreißen.

Mit der Kenntnis von der Brechung des Lichtes entwickelt sich auch all- Uwen. mählich die Kenntnis von der Wirkungsweise der Linsen und nachfolgend die Kenntnis von der Rolle, welche die Augenlinse beim Sehen spielt.

Noch Alhazen, dem die Wirkungsweise der Linsen schon bekannt ist, Büde«eagong läßt die Bilder auf der Augenlinse entstehen. Leonardo da Vinci betrachtet das Auge richtig als eine Camera obscura einfachster Art. Maurolykus (1494— 1575) erkennt, daß darin die Linse der bilderzeugende Teil ist, läßt das Bild aber auf dem Sehnerv entstehen. Erst Kepler entdeckt den wahren Zu- sammenhang, wonach die Linse das Bild der äußeren Gegenstände auf der Netz- haut des Auges entwirft.

3. Anfänge der Wellenlehre. Grimaldis Entdeckung der Beu- AnÄnge

1 ▼•« T%4 T-^ « T^« «•• T%i««^i ^^' ^Zellenlehre.

gung des Lichtes. Boyles Entdeckung der Farben dünner Blatt- Beginn der chen. Hookes Feststellung der Abhängigkeit der Farben von der •^^^^^r"''" Dicke der Blättchen. Hatten sich die griechischen Naturphilosophen in Hypothesen über das Wesen des Lichtes erschöpft und hatten die griechischen Mathematiker eine geometrische Optik begründet, die, durch Messungen unter- stützt, sich mit der Zeit zu einer brauchbaren Wissenschaft ausbildete, so hatte

J20 26. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

es bisher doch vollständig an einer experimentellen Optik gefehlt, die, sei es aus der Freude am Experiment, sei es in der ausgesprochenen Absicht an die Natur Fragen zu stellen, neue Unterlagen schaffte für angemessene Vorstellun- gen über die Natur des Lichtes. Eine neue Sachlage trat erst ein, als nach Über- windung der mittelalterlichen Finsternis eine bewußte Experimentalphysik durch Galilei (1564— 1642) geschaffen und von anderen Forschern weiterver- folgt wurde. Grimaidu So wurdc eine sehr merkwürdige Tatsache durch den jesuitischen Mathe-

Entdeckungen. matiklchrcr Grimaldi (1618-1663) festgestellt. Er ließ das Sonnenlicht durch eine sehr enge Öffnung in ein verdunkeltes Zimmer eintreten und brachte in beträchtlicher Entfernung dahinter einen Stab. Dabei stellte es sich heraus, daß der hinter dem Stab aufgefangene Schatten bedeutend größer war, als der geometrische Schatten gewesen sein würde, und an der Grenze von Dunkel und Hell wurden mehrere nach innen blaue, nach außen rote farbige Streifen sichtbar. Beapng Ebcnso erschicu hinter einer ersten engeren und einer zweiten weiteren

es. (jff jjyjjg g^^£ jgjjj Schirm eine größere Fläche erleuchtet, als der rein gerad- linigen Ausbreitung der Strahlen entsprochen hätte. Grimaldi schloß auf eine von Reflexion und Refraktion (Brechung) verschiedene neuartige Erscheinung, die er , , Diffraktion* * nannte, und die im Deutschen als B e u g u n g bezeichnet wird. Sie gab ihm Veranlassung zu dem Vergleich mit den Wellen, die ein ins Wasser geworfener Stein erregt: „Und so wie jene kreisförmigen Wellen nichts anderes sind als angehäuftes Wasser, um welches sich auf beiden Seiten eine Furche hinzieht, so sind auch die glänzenden Streifen nichts anderes als das Licht selbst, das durch eine heftige Zerstreuung ungleichmäßig verteilt und durch schattige Intervalle getrennt wird.** Interferons Noch eine andere bedeutungsvolle Tatsache wurde durch Grimaldi fest-

ic tes. gggtgm ^g Qj. durch zwei nebeneinander gebrachte kleine kreisförmige Öff- nungen das Sonnenlicht in das verdunkelte Zimmer fallen ließ und auf einem Schirme auffing, der so weit zurückstand, daß die beiden Strahlenkegel sich überdeckten, erblickte er zwar die gemeinsam erleuchtete Fläche heller als die einfach erleuchtete, doch erschien die Mittelfläche da, wo sie in die nur einfach beleuchteten Stellen des Schirmes überging, von auffallend dunklen Halbbögen umgeben. Ausdrücklich zog Grimaldi daraus den Schluß, daß ein erleuch- teter Körper dunkler werden kann, wenn zu dem Lichte, das er empfängt, noch neues Licht hinzutritt. Man muß Rosenberger zustimmen, wenn er damit die Interferenz des Lichtes (s. Abschnitt 11) für ausgesprochen, aber nicht für erklärt ansieht.

Auch bei der Besprechung der Beugungserscheinungen versucht Grimaldi keine genaueren Erklärungen und nimmt in seinem übrigen Werke keine aus- gesprochene Stellung zu den Lichttheorien ein.

Verlegung des GrimSildi gehört noch zu der glanzvollen, durchGalilei begründeten Phy-

^teT*S^ri^* sikepoche in Italien. Bald aber ging diese vielleicht unter dem Einfluß einer mentaifonchung natürlichen Reaktion auf den früheren stürmischen Aufschwung, gewiß aber

nach England.

Anfange der Wellenlehre e2i

auch unter dem Druck der Inquisition, die schon Galilei übel mitgespielt hatte, zu Ende, und die Entwicklung der Physik nahm im Norden ihren Fortgang, mit ihr die Optik, zunächst vorwiegend in England, wo nach Beendigung der poli- tischen Wirren und dem Tode Crom we 11s in London 1662 die Royal Society begründet, später auch in Frankreich, wo 1666 in Paris die Acad^mie des sciences eröffnet wurde.

In England und Frankreich hat die Hauptentwicklung der Wellenlehre stattgefunden. Sie war im Anfang wesentlich experimenteller Natur. Der Nach- weis der Unfruchtbarkeit der Naturphilosophie durch Baco von Verulam (i 561— 1626) und seine Verherrlichung der induktiven Methode blieben nicht ohne Einfluß.

Unter diesem Einfluß stand vermutlich Boyle (1627— 1691), der sich als Boyiw ausgezeichneterExperimentalphysikerhervortat. Er entdecktedie Farben dünner p'Jfrt^^^ Blättchen, indem er zeigte, daß an sich farblose Flüssigkeiten und feste Körper Far- ^i*'*«^«»- ben annehmen, wenn sie in besonders dünne Schichten ausgezogen werden, wie Seifenlösung, Weingeist und Terpentinöl, die man durch Schütteln zum Blasen- werfen veranlassen kann, und in dünne Kugeln ausgeblasenes Glas. Um eine Erklärung dieser Erscheinung aber bemühte er sich nicht.

In der weiteren Beobachtung dieser Erscheinungen folgte ihm Hooke Hooke« (1635— 1703) nach, ein gleichfalls ausgezeichneter Physiker, der von der Royal ^^„enhatg*! Society in London als Experimentator berufen wurde mit dem Auftrag, die "^^^"j^ J*j^^" einlaufenden neuen Entdeckungen nachzuprüfen. Hooke ging über Boyle in- Biattchen. sofern hinaus, als er nachwies, daß die entstandenen Farben von der Dicke der Blättchen abhingen. Er begnügte sich aber nicht mit dieser Feststellung, son- dern entwickelte in seiner „Mikrographia** eine Wellen- oder „Undulations- theorie". Er stellte sich vor, daß das Licht aus einer schnellen und kurz vibrierenden Bewegung bestehe, die sich in gleichförmigen Mitteln in allmäh- lich größer werdenden Kugeln ausbreite, gleichwie die ringförmigen Wellen auf dem Wasser, in das man einen Stein geworfen hat. Auch nahm er an, daß die Farben der dünnen Blättchen dadurch zustande kämen, daß die Lichtstrahlen von ihrer vorderen und hinteren Seite zurückgeworfen würden und bei ihrem Zusammentreffen auf der Netzhaut die verschiedenen Farben erzeugten. Wenn diese Äußerung auch an spätere Erklärungen anklingt, so war sie doch zu unbe- stimmt, um einer experimentellen Prüfung fähig zu sein. -Die Vorstellung von einer Interferenz des Lichtes, wie sie später Young entwickelt hat (vgl. Abschn. il), darf man darin nicht sehen.

4. Newtons Entdeckung der prismatischen Farbenzerstreu- Newton« ung (Dispersion des Lichtes). Daß der Regenbogen mit einer doppelten pAsmJü^chel^ Brechung und einmaligen Reflexion des Lichtes im Innern der Wassertropfen .enu^M* und zusammenhinge, war schon von vielen angenommen worden. Auch hatte Des-««»« Vorgänger. cartes die Lage des Regenbogens zur Sonne im wesentlichen richtig erklärt, indem er zeigte, daß der Bogen da auftrat, wo zwei nebeneinanderliegende paral- lele Strahlen beim Austritt aus dem Tropfen wieder miteinander parallel wür- den. Das Auftreten der Farben des Regenbogens war aber bisher nicht im Zu-

LEHRE VOM LICHT

33*

524 ^^* Otto Wiener: Entwicklung der Wellenlehre des Lichtes

hören, ohne den Gesamteindruck des Zusammenklangs zu verlieren. In dem Weiß irgendwelche zusammensetzende Farben herausfühlen zu wollen, wird Niemandem einfallen.

Hätte Goethe die Youngsche Theorie der Farbenempfindung gekannt, die noch vor dem Abschluß seiner „Farbenlehre" erschien und die später durch

«

Helmholtz neu belebt wurde, so hätte er vielleicht erkannt, daß nicht New- ton sondern Young sein wissenschaftlicher Gegner sein mußte. Yoang. Young und Helmholtz haben nämlich die Hypothese aufgestellt, daß

^"^^^^ri^^* das Auge dreier Grundfarbenempfindungen in der Weise fähig wäre, daß die der Farben- ^[j^q hauptsächlich durch Rot, die zweite durch Grün und die dritte durch Vio-

empfindang. ' '

lett erregt würde, während die anderen Farben jeweils nur in geringerem Maße diese Grundempfindungen hervorbrächten. Durch diese Annahme war freilich die experimentelle Forderung am einfachsten erfüllt, daß alle Farben sich für das Auge aus drei Grundfarben zusammensetzen ließen. Zugleich war aber da- mit das physikalische Zusammengesetztsein des Weiß auf das physiologische Zusammengesetztsein übertragen; denn die Empfindung des Weiß kam nach Young und Helmholtz dadurch zustande, daß die drei farbigen Elementar- erregungen alle zugleich in einem gewissen Verhältnis erfolgten.

Das ist aber gerade eine Behauptung, gegen die das unvoreingenommene Bewußtsein, besonders eines Goethe, Widerspruch erheben mußte, der die Vorgänge vor allem nach seinen unmittelbaren Empfindungen beurteilt.

Herings Theorie. Diese Schwierigkeit fällt bei der von Hering aufgestellten Theorie weg.

Hering ordnet dem Weiß eine Elementarempfindung unseres Farbensinnes zu. Dabei nimmt er den Übergang der Weiß- zur Schwarzempfindung als eine der drei unabhängigen Veränderlichen unseres Farbensinnes an. Denn er legt sei- nem Farbensystem nicht drei Einzelempfindungen zugrunde. Durch die Er- scheinung der Nachbilder wird es klar, daß das Auge von sich aus die Schwarz- empfindung zu erregen vermag. Man braucht bloß das Auge einem mit starkem weißen Lichte beleuchteten Fleck eine Weile auszusetzen und es dann auf eine größere gleichförmig weiß beleuchtete Fläche zu richten, um den Fleck schwarz hervortreten zu lassen, obgleich ein solcher in Wirklichkeit gar nicht vorliegt. Da man anzunehmen hat, daß dabei im Auge eine Regeneration oder Assimi- lation stattfindet, so ordnet Hering dieser Assimilation die Schwarzempfin- dung, der bei der Belichtung vorher erfolgten Dissimilation die Weißempfin- dung zu. In entsprechender Weise bringen Gelb und Blau das zweite Paar von Gegenempfindungen hervor. Diese Farben haben die Eigenschaft, bei geeig- netem Stärkeverhältnis die farbige Komponente der Empfindung auszulöschen und die Weißempfindung übrig zu lassen. Sie heißen unter dieser Bedingung

Komplementär- Gegenfarben oder „komplementäre Farben**. Das dritte Paar von Gegenemp- findungen wird durch die komplementären Farben Rot und Grün hervorge- bracht. Dabei versteht Hering unter diesem Rot kein spektrales, sondern ein mehr gegen Purpur hinneigendes Rot, das weder eine gelbe noch eine blaue far- bige Komponente besitzt.

Weiß all Eiemen- Die Tatsachcn der Farbenmischung werden auf diesem Wege ebensogut

tarempfindung.

Farbenempfindung. Farbenphotographie 525

erklärt, wie durch die Young-Helmholtzsche Hypothese. Es entsteht aber der große Vorteil, daß Weiß als eine Elementarempfindung auftritt, und zu- gleich wird die Erscheinung der Gegenfarben in einfachster Weise verständlich; denn es ist klar, daß z. B. bei einer geeigneten Mischung von Gelb und Blau, die weder eine Dissimilation noch eine Assimilation zuläßt, eine Farbenempfin- dung überhaupt unmöglich wird, so daß nur eine farblose Empfindung übrig bleibt. Die Grundtatsache, daß nämlich ein homogenes spektrales Gelb und ein homogenes spektrales Blau sich zu einem Weiß zusammensetzen können, bleibt freilich wunderbar genug. Will man sich die Erscheinung durch einen bekannten Vorgang erläutern, so darf man vielleicht an die Tatsache denken, daß eine ba- sische Flüssigkeit, mit einer sauren in geeigneten Mengen gemischt, weder den basischen noch den sauren Geschmack erkennen läßt, vielmehr salzig schmeckt.

Das auf den ersten Anblick Rätselhafte der Newtonschen Behauptung, daß das Weiß aus den spektralen Farben zusammengesetzt sei, löst sich also dahin auf, daß das Zusammengesetztsein sich nur auf den physikalischen Vor- gang und nicht auf die Farbenempfindung bezieht.

Man hat freilich eingewandt, daß das Weiß auch unter Umständen physi- kalisch einfach sein könne und daß Newton streng genommen nur berechtigt war, zu schließen, daß der weiße Lichtstrahl durch die Einwirkung des Prismas in das Bündel farbiger Strahlen verwandelt wird. Man braucht aber nur daran zu denken, daß man einen weißen Strahl auch aus zwei Strahlen, nämlich z. B. einem homogenen gelben und einem homogenen blauen, zusammensetzen kann, um zu erkennen, daß im allgemeinen jedenfalls der weiße Strahl physikalisch verwickelter beschaffen ist als die ihn zusammensetzenden Elementarstrahlen.

7. Dreifarbenphotographie. Pointillismus der Neo-Impressio- Dreifarben- nisten. Additive und subtraktive Farbenmischung. Es ist hier die ^^^"Jj^jj^^^^ passende Gelegenheit, auf einige reizvolle Anwendungen einzugehen, die man "*** ^^®»- von der Möglichkeit gemacht hat, alle Farben aus drei Grundfarben, etwa Rot, Grün und Blau, zusammenzusetzen. Auf dieser Möglichkeit beruhen nämlich eine Reihe einfacher Verfahren, die buntfarbige Welt durch ein photographi- sches Bild auch farbig wiederzugeben. Man braucht nur drei Aufnahmen zu machen, deren jede etwa vermöge eines vor den photographischen Apparat ge- setzten farbigen Glases nur die eine Komponente des farbigen Originals wieder- gibt, von diesen Diapositive herzustellen und die drei Bilder unter Vorschaltung der drei farbigen Gläser auf derselben Stelle eines weißen Schirmes zu entwer- fen, um eine richtige Farbenwiedergabe zu erzielen. Diese bereits von Max- well vorgeschlagene und von Ives vervollkommnet ausgeführte Methode läßt sich allerdings nur mit Hilfe eines besonders eingerichteten Projektionsappa- rates ausführen.

Bequemer führen die von Lumi^re und anderen hergestellten gekörnten Lomi^res oder Rasterplatten zum Ziel. Lu mi ^r e beispielsweise streut auf eine photogra- phische Platte rot, gelb und blau gefärbte Stärkekörnchen von einem Durch- messer von etwa ^/^qq mm. Nach der Aufnahme und Entwicklung wird das an den belichteten Stellen entstandene undurchsichtige Silber der photographischen

526 26. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

Platte durch eine oxydierende Flüssigkeit weggelöst und das bisher unzersetzt gebliebene Bromsilber durch eine zweite Entwicklung im hellen Tageslicht ge- schwärzt. Durch dieses Umkehrverfahren wird die Platte beispielsweise gerade hinter denjenigen roten Körnern durchsichtig gemacht, auf die rote Stellen des Originals gefallen sind. Betrachtet man dann die Platte oder ihre Projektion aus genügender Entfernung, so verschwimmen die Begrenzungen zwischen den farbigen Körnern und das Auge vollführt die erforderliche Farbenmischung und erblickt eine farbige Wiedergabe des Originals.

Tritt man aber näher an das Projektionsbild heran, oder betrachtet die Platte durch eine Lupe, so erkennt man, daß das Bild tatsächlich nur aus rot, grün und blau gefärbten kleinen Flecken zusammengesetzt ist. Pointmismus. Auch dem Maler ist es möglich, die subjektive Farbenmischung zu benut- zen. Nachdem schon Edouard Manet (1833— 1883), ein unter den Impres- sionisten hervorragender Maler, kurze Pinselstriche, „Kommata**, nebenein- ander gesetzt hat, deren Farbwirkung sich erst im Auge des Beschauers ver- einigen sollte, haben die Neo-Impressionisten dieses Verfahren erweitert. Sie wollen nur reine Spektralfarben verwenden, die in Pünktchen nebenein- ander gesetzt erst subjektiv die Mischfarben erzielen sollen. Man nennt die Manier Pointillismus.

Voraussetzung für die Wirksamkeit des Verfahrens ist freilich, daß diese Pünktchen oder Flecken klein genug sind, um in nicht zu großer Entfernung zu verschwimmen.

In Wirklichkeit genügen viele Bilder dieser Forderung nicht, und man müßte schon bei manchen, um die subjektive Farbenmischung zu erzielen, in solche Entfernung treten, daß man von dem ganzen Bild überhaupt nicht mehr viel sieht, zum mindesten in eine solche, welche die Abmessung des Raumes, in dem das Bild hängt, nicht zuläßt. Additive Ii^ allgemeinen begnügt sich denn auch der Maler mit einer anderen Art

nnd «ubtraktive j^j. Parbeumischung. Sie wird von dem Physiker als subtraktive bezeichnet, während die bisher besprochene eine additive heißt, weil die Mischung dabei durch eine Zusammenfügung farbiger Eindrücke zustande kommt.

Diese subtraktive Mischung entsteht dadurch, daß man z. B. einen gelben und blauen Farbstoff zusammenmischt und auf die helle Unterlage der Bilder aufträgt. Die Lichtstrahlen werden jetzt gezwungen, durch beide Farb- stoffe auf dem Wege zu der hellen Unterlage hindurchzudringen und wieder zu- rückzukommen. Dabei wird durch den gelben Farbstoff etwa das blaue Drittel des Spektrums durch Absorption beseitigt, von dem blauen dagegen das rote Drittel. Da nun beide Farbstoffe das grüne Drittel hindurchlassen, so erscheint diese Farbenmischung grün und die Bezeichnung des Verfahrens als subtrak- tives rechtfertigt sich dadurch, daß von dem auffallenden Licht erst ein Teil und dann ein anderer Teil des Spektrums weggenommen, also subtrahiert wird.

Der Leser, der sich daran erinnert, daß durch die additive Mischung von Gelb und Blau Weiß entstehen sollte, wird sich jetzt verwundern, daß durch subtraktive Mischung Grün und nicht Grau entstehen soll. Der Widerspruch

Farbenmischung. Newtons Stellung zur Wellenlehre 527

löst sich dadurch, daß in beiden Fällen nicht dasselbe Gelb und dasselbe Blau benutzt werden darf. Für die subtraktive Mischung ist eben ein grünliches Gelb und ein grünliches Blau erforderlich. Bei der additiven Mischung muß der Schwerpunkt der Farben ein isolches Gelb und Blau sein, daß sie zueinander genau komplementär sind.

S.Newtons Farbenringe, seine Emissionstheorie und seini>ie Abiehnang Verhältnis zur Wellenlehre. Der heutige Physiker wundert sich vielleicht, th^nedur^ daß ein Genie wie Newton eine Theorie vertrat, die sich später als in keiner ^^"^^ Weise stichhaltig herausgestellt hat. Nicht als ob er die Möglichkeit, gewisse Erscheinungen mit Hilfe der Wellenlehre zu erklären, nicht gekannt hätte im Gegenteil, er gab den Wellentheoretikern z. B. von der Natur der Farben Erklärungen an die Hand, die den Tatsachen viel mehr gerecht wurden, als die von j enen gegebenen aber Newton bekannte ganz offen, welche Schwierig- keiten ihm bei der Annahme der Wellenhypothese unübersteiglich erschienen. Es war das vor allem die Erklärung der geradlinigen Ausbreitung des Lichtes.

Wenn man einen mit Wasser gefüllten Kasten in ein großes Bassin hinein- Die setzt und einen schmalen Spalt zur Verbindung offen läßt und nun in dem Bassin der ErkUrang Wellen erregt, so ist es klar, daß diese Wellen nicht geradlinig durch den Spalt Ltchu^S^"^ hindurchtreten, sondern den ganzen Kasten nach allen Seiten hin erfüllen. »» d«' weiien-

theorie.

Auch die Erklärung, die Huygens von der geradlinigen Ausbreitung des Lich- tes bald nach der ersten Veröffentlichung von Newton gegeben {1678) und 1690 veröffentlicht hat, und die Newton bei der erst 1704 erfolgten Veröffentlichung seiner gesamten optischen Schriften gekannt hat, brauchte er keineswegs als bindend anzusehen.

Eine weitere Schwierigkeit sah er in der widerstandsfreien Bewegung der Die Himmelskörper. War der Äther so beschaffen, wie es von Descartes angenom- der^d^ts^L- men war, wonach er durch kleine Kügelchen erfüllt wurde, die sich gegenseitig ^"^"^^^"*^ berührten, so konnte man sich freilich schwerlich denken, wie ein solcher Äther körper. den Bewegungen der Himmelskörper nicht einen beträchtlichen Widerstand entgegensetzen sollte. Aber es kam für diese spätere Veröffentlichung noch die Stellungnahme zur Gravitationsfrage hinzu.

Freilich scheinen die Historiker sich noch nicht allgemein einig zu sein Newtons weder über Newtons Stellung zur vermittelten oder unvermittelten Fernwir- ^*^ch2t. kung noch über sein Verhältnis zur Wellenlehre. Ferdinand Rosenberger ^J^^j^^ hat diese Dinge in seinem Werke „Isaac Newton und seine physikalischen Prinzipien'* ausführlich besprochen und der Verfasser dieser Zeilen glaubt ihm in seiner Grundauffassung zustimmen zu müssen.

Gewiß scheinen die verschiedenen Äußerungen von Newton, die zu ver- schiedenen Zeiten und zu verschiedenen Gelegenheiten gemacht worden sind, einander teilweise zu widersprechen. Er ist sich dessen ganz gut bewußt, daß man auch die Schwerkraft auf einen außerhalb der Körper allmählich dichter wer- denden Äther und dessen die Körper einander nähernden Überdruck zurück- führen könne. Daß sie sich aber aus der Descart esschen Wirbeltheorie ab- leiten ließe, bestreitet er entschieden und findet überhaupt bei der Ätherhypo-

528 26. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

these mehr Schwierigkeiten als Vorteile. Schließlich, meint er aber, müßte man bei allem Zurückführen auf bedingende Ursachen auf eine letzte Ursache stoßen. Und diese glaubt er in der in die Ferne wirkenden Gravitation gefunden zu haben. Als ein gläubiger Engländer schmeichelt er sich, dem Weltenschöpfer in die Karten geschaut zu haben, der selbst die Materie nach jenem Kraftgesetz antreibt.

Solche Ansichten tauchen freilich nur in den angehängten „Fragen'* zu seiner Optik, in Briefen, Vorreden und Schlußbemerkungen, also an weniger verantwortungsvollen Stellen auf. Die HypotheMü- Den Strengen Gang der Entwicklung seiner Lehren ds^egen wünscht er der D^toUang. möglichst frei von allen Hypothesen zu halten. Und er mochte solchen noch aus dem Grunde mit besonderer Vorsicht aus dem Wege gehen, weil der ihm von Hooke aufgezwungene Streit über Hypothesen ihm schon seine ersten op- tischen Untersuchungen verleidet hatte. Als Experimentator der Londoner Royal Society of science prüfte Hooke auch Newtons Veröffentlichungen nach, und als etwas engherziger Vertreter der Wellenlehre fand er an neuen Ent- deckungen keinen Gefallen, wenn sie nicht durch diese Theorie erklärt werden konnten. Es ist kein Wunder, daß Newton die daraus entspringenden Streitig- keiten verabscheute und seinem großen Landsmann Bacon von Verulam beipflichtete, der die Hoffnungslosigkeit der unprüfbaren Hypothesen der Na- turphilosophen gegeißelt und die induktive Methode als allein eines ernsten Naturforschers würdig hingestellt hatte. Und so versuchte denn auch Newton diese Methode nach Möglichkeit einzuhalten. Die In der Emissionstheorie schien am wenigsten Hypothetisches zu liegen.

d^Ta^k^SuL ^^^ ^^^ "^^^ zugeben, daß Newton ein Recht hatte, sich auf Grund der da- mals bekannten optischen Tatsachen auf sie zu beschränken. Sie bedurfte zu diesem Zwecke nur geringer Veränderungen. Damit die in einem Lichtstrahl sich mit großer Geschwindigkeit bewegenden Teilchen sowohl einer Zurück- werfung als einer Brechung fähig wären, bedurfte es der neuen Annahme, daß sie abwechselnd einer leichteren Zurückwerfung und einer leichteren Brechung zugänglich wären. Diese nannte er „Anwandlungen** der leichten Zurückwer- fung und Brechung, „fits of easy reflexion and easy transmission**.

Newton selbst spricht freilich innerhalb der regelrechten Darstellung seiner Lehre nur von „Lichtstrahlen'' und ihren Eigenschaften. Erst in den ange- hängten „Fragen" wird von Lichtteilchen gesprochen und Frage 29 beginnt mit dem Satz: „Bestehen nicht die Lichtstrahlen aus sehr kleinen Körpern, die von den leuchtenden Substanzen ausgesandt werden?'' Brkanmg Das Rcf lexionsgcsetz ergab sich dann in gleicher Weise, wie es für elastische

'ß^echi^*^ Kugeln gelten muß, die an einer starren Ebene zurückgeworfen werden, das ^^^'^A^^ri^ Brechungsgesetz aus dem Umstand, daß die Lichtgeschwindigkeit in einigem Abstand von der Grenzfläche in beiden Mitteln konstant sein muß und aus dem ferneren, daß die Attraktionskräfte des Körpers auf die Lichtteilchen nur die vertikale Komponente ändern können. Selbstverständlich muß dann die Ge- schwindigkeit des Lichtes in dem dichteren Mittel die größere sein. Unter dieser

Newtons Optik 529

Voraussetzung allein kam auch die von der Erfahrung geforderte Ablenkung des Strahles zum Einfallslot heraus. Newton gewann in solcher Weise den Vorteil, die gleichen Erklärungsgrundsätze wie bei der Gravitation anwenden zu können.

Nun hatte Newton die Untersuchung der Farben dünner Blatt chen ex-DieNewtonscfaen perimentell in weitgehendem Maße gefördert. Um die Erscheinung auf einen ^°***' möglichst einfachen Fall zurückzuführen, hatte er in genialer Weise eine konvexe Linse auf eine ebene Platte gelegt. Die schon früher von Hooke gefundene Tatsache, daß die Farbe an die Dicke der Blättchen gebunden sei, machte sich dadurch geltend, daß die Kurven gleicher Farben aus Kreisen bestanden. Als auffallende und neue Tatsache stellte Newton fest, daß das Zentrum der Ringe, wenn die Platten fest aufeinander gepreßt waren, von einem kreisförmigen schwarzen Fleck eingenommen war.

Die Farben selbst konnte Newton in der von den Spektralfarben her ge- läufigen Weise dadurch erklären, daß in Wirklichkeit für jede Farbe ein anderes Ringsystem vorlag, das engste für Violett, das weiteste für Rot. In der Tat, als Newton durch gefärbte Gläser oder durch Verwendung des Spektrums reine Farben auffallen ließ, zeigten sich abwechselnd nur helle und dunkle Ringe in der Farbe des auffallenden Lichtes. Dabei ergab eine genaue Messung, daß die Dicken der Luftschichten an den Stellen der hellen Ringe sich wie die Zahlen I, 3, 5 ..., d. h. wie die ungeraden Zahlen, die Dicken der Luftschichten an den Stellen der dunklen Ringe wie die Zahlen 2, 4, 6. . ., d. h. wie die geraden Zahlen verhielten.

Um nun diesen Wechsel des leichten Durchgangs und der leichten Zurück- Newton« werfung zu erklären, nahm Newton an, daß die beiderlei Anwandlungen indJrR^e. regelmäßigen Intervallen miteinander abwechselten. An der Stelle des dunklen Ringes kommt das Licht bereits in der Phase des leichten Durchgangs an und wird also, da dort die Dicke der Luftschicht Null ist, auch von der zweiten Grenzfläche durchgelassen. Indem nun die Dicke der Luftschicht nach außen allmählich zunimmt, so wird es geschehen können, daß das Lichtteilchen in der Phase der leichten Zurückwerfung ankommt und dort also den ersten hellen Ring erzeugt. Bei doppelter Dicke erreicht das Lichtteilchen wieder die Phase des leichten Durchgangs und erzeugt dort also den ersten dunklen Ring. So müssen die hellen und dunklen Ringe miteinander abwechseln.

Den Zwischenraum zwischen einer Wiederkehr des leichten Durchgangs Die Länge der und der nächstfolgenden nennt Newton die Länge der Anwandlungen, „length *^"'^" °°**"' of fit*'. Diese beträgt nach den Messungen von Newton für eine Farbe zwi- schen Gelb und Orange engl. Zoll = 0,000 285 mm = Yj .0,000 570 mm. Für

verschiedene Farben ergeben sich nach den Messungen verschiedene Längen, die größten für Rot, die kleinsten für Violett.

Newton schließt daraus, daß die Teilchen eines roten Lichtstrahles am größten, die des violetten am kleinsten sind.

Auf die Einwände des Wellentheoretikers Hooke entgegnet Newton,

K. d. G. UL m, Bd I Physik 34

2^o 2^- Otto Wiener : £ntwi<Uung der Wellenlebre des Lichtes

Newtons daß scine Theorie mit der Wöllenlehre durchaus nicht im Widerspruch

^uining der^ Stände. Man brauchte nur anzunehmen, daß die Wellen für verschieden-

w!^uI^th^V. farbige Strahlen voneinander durch Größe und Geschwindigkeit verschieden

seien. Diese Wellen könnten sich so unterscheiden wie verschiedene Wellen

im Wasser.

Diese Vorstellungen sind allerdings noch recht unbestimmt, doch bereits weit bestimmter als die der damaligen Wellentheoretiker. In der Tat standen Hooke und Huygens der Frs^e nach der Entstehung der Farben vollständig

ratlos gegenüber.

Und doch braucht man die

Fig. «. Die Kreise rind streng genommen ron nnendUch kleiner NeWtOnSChe Annahme der

Aosdehnong tu denken. Wechselnden Anwandlungen

nur in geeigneter Weise graphisch darzustellen, um zu erkennen, mit welch ein- fachem Schlüssel seine Chiffre in die der heutigen Wellenlehre übertragbar ist. Die Linge der Nehmen wir an, was Newton allerdings in so spezieller Form nicht tat,

^^dTd^^Hiifte ^^^ ^^^ Lichtteilchen Kugelform besitze und auf einem größten Kreise zwei derWeUeniinge.geggjjQberliegende Stellen der Anwandlung leichten Durchgangs und, um je 90® dazu verschoben, zwei solche der leichten Zurückwerf ung besitzt, und daß das Kügelchen bei seinem Fortschreiten um die Achse senkrecht zu der Ebene jenes größten Kreises mit gleichförmiger Geschwindigkeit sich dreht, verbinden wir ferner die entsprechenden Funkte der Anwandlungen leichten Durchgangs durch eine Kurve (Fig. 2), so entsteht nach' beistehender Figur ein Wellen- qyerschnitt, dessen halbe „Wellenlänge" nach heutiger Ausdrucksweise der Newtonschen „Länge der Anwandlungen'* gleichkommt.

Newton selbst gibt denen, die eine nähere Erläuterung der Anwandlungen wünschen, an die Hand, sich vorzustellen, daß die Lichtteilchen bei ihrem Auftreffen auf eine Grenzfläche Schwingungen in den Körpern hervorbringen, die, den Lichtstrahlen vorauseilend, ihren leichten oder schweren Durchgang vorbereiten. DieVorsfigeond Man muß zugebcn, daß die Newtonsche Darstellung kaum etwas anderes Enül^onstheorie ^^ eine anschaulichc Wiedergabe der Tatsachen enthält. Sieht man genauer zu, sn Newtons Zeit 3Q erkennt man allerdings, daß an der Stelle des dunklen Fleckes diejenigen Teilchen, die an der ersten Fläche in der Anwandlung der leichten Zurück- werfung ankommen, dort zurückgeworfen werden müssen und somit den Fleck nicht völlig dunkel erscheinen lassen können, wie es tatsächlich der Fall ist. Doch mag diese Tatsache damals noch nicht so fest gestanden haben, ebenso wie andere Tatsachen der Erscheinung der Newtonschen Ringe, die durch seine Hypothese nicht zu erklären sind.

Den großen Vorzug hatte die Newtonsche Hypothese, daß sie in unge- zwungener Weise die Dispersion des Lichtes erklärte. Denn es war leicht denk- bar, daß die von den dichteren Körpern ausgehenden Kräfte die Lichtteilchen verschiedener Größe in verschiedener Weise beeinflussen konnten. Es erfor- derte keine wesentliche Zusatzhypothese, wenn Newton annahm, daß die größeren Teilchen des roten Lichtstrahles vermöge ihrer größeren Masse eine

Newtons Optik. Huygens 531

geringere Beschleunigung beim Übertritt in den dichteren Körper erfuhren als die kleineren des violetten Strahles, so daß die roten Strahlen weniger stark gebrochen wurden als die violetten.

Durch diese ungezwungene Erklärungsweise der Dispersion erlangte die Emissionstheorie von vornherein einen großen Vorsprung gegenüber der Wel- lenlehre. Erst sehr spät, nachdem diese bereits aus anderen Gründen die Emis- sionstheorie geschlagen hatte, gelang es ihr, eine zutreffende Erkl^ung dafür zu finden.

Auch die Erscheinungen der Beugung des Lichtes konnte Newton im Rahmen seiner physikalischen Grundsätze erklären. Er brauchte bloß anzu- nehmen, daß dieselben Kräfte, welche die Reflexion und Brechung bewirkten, nicht erst an der Trennungsfläche, sondern in einem bereits größeren Abstände sich bemerklich machten, derartig, daß die Lichtteilchen, je nach dem Zu- stand ihrer Anwandlungen, eine Abstoßung erfuhren, so daß sie vom geometri- schen Schatten abgelenkt oder eine Anziehung, so daß sie in diesen hinein- gezogen wurden. Die Farbenerscheinungen erklärten sich dann wieder in unge- zwungener Weise durch die verschiedene Einwirkung der Körper auf die Licht- teilchen der verschiedenen Strahlen.

Mißlich war dabei nur, daß jetzt für die Teilchen des violetten Strahls eine geringere Ablenkung angenommen werden mußte, als für die des roten Strahls, während bei der Dispersion das Umgekehrte angenommen werden mußte.

9. Begründung der Wellenlehre durch Huygens. Huygens- Haygen« sches Prinzip und Doppelbrechung. Während die bisherigen Vertreter ^ *^*"*^***^*' der Wellenhypothese mit dieser Hypothese mehr liebäugelten, als ernstliche Schlüsse daraus zogen, die zur Erklärung der Erscheinungen geeignet waren, tritt uns in Huygens (1629— 1695) ^^^ Mann entgegen, der zum ersten Male die Vorstellung von der Wellennatur des Lichtes durch einen einfachen Grund- satz zum Ausgangspunkt für die Erklärungen einer nicht unbedeutenden Gruppe von Erscheinungen machte. Die im Jahre 1678 geschriebene „Abhandlung über das Licht** veröffentlichte er 1690.

Er sieht eine große Schwierigkeit für die Emissionstheorie in der großen Dia Licht- Geschwindigkeit des Lichtes, die kurz zuvor (1676) durch Olaf Roemer (1644**'*^ '^ " * ***' bis 1 710) mittels der Verspätungen der Verfinsterungen der Jupitertrabanten zu rund 360000 km gefunden worden war. Er kann sich schwer vorstellen, daß Lichtatome mit solcher Geschwindigkeit geschleudert werden können. Wir würden heute diesen Einwand nicht mehr für berechtigt halten, da wir wissen, daß ein Teil der von dem Radium ausgehenden Elektronen in den ß- Strahlen sich nahezu mit Lichtgeschwindigkeit bewegt.

Huygens faßt die Erscheinungen des Lichtes durchaus nach Analogie der- Der Äther, jenigen des Schalles auf. Von vornherein erklärt er, daß dann allerdings die Luft und die anderen Körper nicht als Träger der Lichtwellen angenommen wer- den dürften, da ja das Licht auch durch den luftleeren Raum hindurchdringt, während der Schall dies nicht vermag. Er weist ausdrücklich auf das Experi-

34*

532

26. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

Die geradlinig^

Ansbreitnng des

Liclitt und das

Huygenssche

Prinzip.

ment der angeschlagenen Glocke unter dem Rezipienten einer Luftpumpe hin, deren Klang nicht mehr gehört wird, sobald die Luft aus dem Rezipienten aus- gepumpt ist. Der Durchtritt des Lichtes durch die Torricellische Leere und durch den interplanetaren Weltenraum sind ihm weitere Beweise für das Vor- handensein eines sehr zarten Mittels, das er im Anschluß an Aristoteles und Descartes den Äther nennt. Auch bringt er Gründe dafür bei, daß dieser Äther frei 4urch alle Körper hindurchtritt und ihre Zwischenräume erfüllt.

Durchaus folgerichtig beginnt er mit dem Versuch, die geradlinige Ausbrei- tung des Lichtes ^ ^ zu erklären. Zu diesem Zwecke I I " denke man sich

in einer undurchsichtigen wie in Fig. 3. Eine Licht- auf, ausgehend von einem stand, daß die Wellen als können. Dann befinden AB\VL gleicher Phase der gleichem Zustand der Be- Punkte der Wellenlinie ei- ihre höchste Lage erreicht Da alles, was hinter

C

I

Fig. 3.

D

Wand eine Öffnung AB^ welle falle auf die Wand Punkte in so großem Ab- eben vorausgesetzt werden sich alle Punkte der Strecke Erschütterung; d. h. in wegung, wie etwa die ner Wasserwelle, die alle haben, der Öffnung ^5 geschieht,

Die Mängel der

Huygenuchen

Erklärung

der geradlinigen

Ausbreitung des

Lichts.

Wertung des

Uuygensschen

Prinzips.

durch den Vorgang in dieser Öffnung bedingt sein muß, so denkt sich Huygens jeden einzelnen Punkt darin als Ausgangspunkt einer neuen Welle. In einer ge- wissen Zeit werden diese Wellen auf Kugelflächen angekommen sein, deren Querschnitte sich als Kreise darstellen. Jede einzelne Welle, die von einem unendlich kleinen Flächenelement der Öffnung AB ausgeht, wird nun auch nur einen unendlich kleinen Beitrag zur Lichterregung liefern. Nur dort, „wo ver- schiedene Wellen im nämlichen Augenblick** zusammentreffen, wird eine merk- liche Erregung stattfinden. Das ist nur an denjenigen Stellen, wo die Elementar- wellen Teile einer umhüllenden Wellenoberfläche bilden, d. h. nur an den Stellen zwischen C und 27, und nicht an den Stellen außerhalb C und D. So macht es den Eindruck, als ob nur ein paralleles Strahlenbündel, begrenzt durch die Strahlen AC und 52), in den Raum hinter dem Schirm eintrete.

Man kann heute sagen, daß in dieser Erklärung der geradlinigen Ausbrei- tung des Lichtes ein richtiger Kern enthalten war. Auch erkennt man darin den Anfang der Lehre von der Zusammenwirkung oder Interferenz der Wellen. Aber dieses Zusammenwirken hat Huygens nicht näher untersucht, und so er- klärt er gleichzeitig zuviel und zuwenig, zuviel, indem er die Erscheinung der Beugung ausschließt, zuwenig, indem er das Fernbleiben des Lichtes von dem geometrischen Schatten nicht genügend erklärt.

Das einfachste bereits früher erwähnte Experiment mit den Wasserwellen, die durch einen Spalt in einen Behälter eindringen, gibt Huygens unrecht und Newton recht; und doch muß man den Huygensschen Erklärungsgrund- satz, jetzt „Huygenssches Prinzip** genannt, als eine wissenschaftliche Großtat bezeichnen, ausgezeichnet nicht bloß durch das, was es leistet, sondern

Huygens' Wellenlehre 533

auch durch das, worauf es verzichtet. Es muß einem scharfen Mathematiker wie Huygens schwer gefallen sein, sich auf einen so unsicheren Boden zu be- geben. Diese Empfindung klingt wider in einem Satze seiner Vorrede, worin er darauf aufmerksam macht, daß man in seiner Schrift Beweise von einer Art finden wird, „die eine so große Gewißheit als die der Geometrie nicht gewähren und die sich sogar sehr davon unterschei- den, weil hier die Prinzipien sich durch die Schlüsse bewahrheiten, die man dar- aus zieht, während die Geometer ihre Sätze aus sicheren und unanfechtbaren Grundsätzen beweisen. Die Natur der be- handelten Gegenstände bedingt dies.*'

£^ ist eben kaum möglich, sofort mit dem Vollendeten zu beginnen. Es ist bereits eine anzuerkennende Leistung, eine große Erscheinungsgruppe unter einen Gesichtspunkt zu bringen, auch wenn sein Standort eine spätere Befesti- gung nicht entbehren kann. t..«iichtg«.chwindigkeit im i^r« Raum.

Spielend gelingt es j etZt Huygens, «' Lichtgeschwindigkeit im brechenden Mittel. Reflexion

aus seinem Grundsatz das Reflexions- und Brechungsgesetz abzuleiten. Die ""^^^j^'^jj^^^"^ Fig. 4 erläutert die H uy gen ssche Konstruktion genügend. Man kann sie, so- «°y«f"«c*»en weit sie sich auf den Vorgang der Brechung bezieht, durch das populäre Bei- spiel einer Front Soldaten erläutern, die aus bequemem Terrain in ein Kar- toffelfeld übertreten. Der Flügel, der bereits in diesem weitermarschiert, bleibt hinter dem unbehinderten zurück und verursacht dadurch einen Knick der Front, wie die Figur ihn aufweist.

Dabei mußte Huygens annehmen, daß die Lichtgeschwindigkeit im op- uj^ ©ntgegen- tisch dichteren Mittel geringer war als in Luft oder im leeren Raum, während g«»et«ten

^ ^ , , , Annahmen der

Newton das Umgekehrte hatte annehmen müssen. Wenngleich schon hier die Emissions- und Möglichkeit einer glatten Entscheidung zwischen beiden Theorien vorlag, so aber *e Licht- setzte das doch eine Entwicklung der Experimentierkunst voraus, die erst etwa f««cJ»^»digkeit

o r 'im optuch dich-

anderthalb Jahrhunderte später durch Foucault erreicht wurde. Foucaults teren Mittel. Ejcperiment fiel zugunsten von Huygens aus, konnte aber die Entwicklung der Wissenschaft nicht mehr beeinflussen, da damals schon längst aus anderen Gründen die Entscheidung zugunsten der Wellenlehre ausgefallen war.

Eine Glanzleistung ist die Auflösung der merkwürdigen Brechungserschei- Doppelbrechung, nungen am Kalkspat durch Huygens. Schon der Däne Erasmus Bartho- linus (1625—1698) hatte gefunden, daß ein Lichtstrahl, der auf eine Fläche des Kalkspats auffällt, im allgemeinen in zwei Strahlen gespalten wird, und damit die Erscheinung der „Doppelbrechung** entdeckt. Der eine der beiden Strahlen befolgt dabei die gewöhnlichen Gesetze der einfachen Brechung. Das Verhalten des anderen Strahles war aber so verwickelt, daß Bartholinus kein Gesetz dafür finden konnte.

534

26. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

Prinzip.

Huygens nimmt diese Messungen wieder auf und führt sie mit großer Ge- nauigkeit durch. Es ist ein Genuß, zu sehen, mit welchem Scharfsinn Huygens die verwickelten Erscheinungen auf einfache Verhältnisse zurückführt. ErUämnc der Während er anfangs glaubte, daß die sonderbaren Brechungserscheinungen

^ d^^^dir*** seiner Theorie durchaus widersprechen, kommt er später auf den Gedanken, HoyKootsche daß die beiden Strahlen sich mit einer verschiedenen Geschwindigkeit im Kalk- spat ausbreiten könnten. Der eine, den man später den ordentlichen genannt hat, pflanzt sich in Kugel- wellen fort, wie etwa im Glas. Da aber für den anderen, den man später den außerordentlichen genannt hat, das Brechungsgesetz nicht gilt, so konnten seine Wellen sich auch nicht in Kugelform ausbreiten. Huy- gens stellte sich die Frs^e, durch welche andere Wellenfläche die Bre- chungserscheinungen dargestellt wer- den können. Diese Fläche mußte zu- folge der Symmetrie der Erscheinungen eine Rotationsfläche sein, und es war zunächst zu versuchen, ob ihr die denkbar einfachste Form, nämlich die eines Rotationsellipsoides zukommen könne. Der Erfolg rechtfertigte die Vermutung und es stellte sich heraus, daß das EUipsoid ein abgeplattetes sein muß, dessen Achse dem Durchmesser der Wellenkugel des ordentlichen Strahles gleichkommt. Die Achse dieses EUipsoides hat im Kristall eine feste Lage und wird als seine optische Achse" bezeichnet. Sie stimmt in ihrer Richtung mit der kristallo- graphischen Achse des Kalkspates überein.

Die Fig. 5 lehrt, wie die doppelte Strahlenbrechung in dem einfachen Fall zustande kommt, daß der Strahl senkrecht auf eine natürliche Fläche des Kalkspates auffällt. Neben den Kugelschnitten, die dem ordentlichen Strahl entsprechen, sieht man noch Schnitte des EUipsoides, die alle von derselben Ebene, der Wellenebene des außerordentlichen Strahls, begrenzt werden. Die Verbindungslinie von den Mittelpunkten der EUipsoide nach den Berührungs- punkten der EUipsoide durch die Wellenebene bilden zur Flächennormalen schiefe Gerade, die die Strahlen der außerordentlichen Welle darstellen.

Traf die Hypothese von Huygens auch für alle anderen möglichen Bre- chungen zu, so mußte eine senkrecht zu der optischen Achse an die Kristalle ange- schliffene Fläche einen senkrecht auffallenden Strahl in einfacher Brechung durch- lassen, während seine natürlichen Flächen den senkrecht auffallenden Strahl stets in zwei spalten. Diese Voraussage und alle anderen, die Huygens aus seiner Hypothese folgerte, wurden in glänzender Weise durch das Ejcperiment bestätigt. Seitucbkeit der Huygcns entdeckte noch eine neue merkwürdige Erscheinung, die sich chraenst^Ihim. ^^^ die nacheinander erfolgende Brechung an zwei Kalkspatrhomboedern be-

Huygens* und Newtons Optik ^^j

zog. Waren diese mit ihren entsprechenden Flächen parallel zueinander auf- gestellt, so wurde jeder aus dem ersten Rhomboeder austretende Strahl nicht doppelt, sondern einfach gebrochen. Der ordentliche Strahl setzte sich als or- dentlicher, der außerordentliche als außerordentlicher im zweiten Rhomboeder fort. Wurde jetzt das untere Rhomboeder um 90® gedreht, so war die Brechung in diesem zweiten zwar auch einfach, aber der bisherige ordentliche Strahl setzte sich als außerordentlicher, der bisherige außerordentliche als ordentlicher fort. In allen Zwischenlagen des unteren Rhomboeders ds^egen auf dem Wege der Drehung von 0—90® wurde jeder der beiden einfallenden Strahlen in zwei zerlegt, so daß deren im ganzen vier entstanden.

Hätte jeder der beiden ankommenden Strahlen sich in jedem Falle in einen ordentlichen und außerordentlichen gespalten, so hätte Huygens das nicht verwundert. Dem tatsächlichen merkwürdigen Verhalten gegenüber war Huy- gens ratlos.

Newton dagegen glaubte aus diesem Experiment schließen zu müssen, daß den Lichtstrahlen, oder den darin bewegten Lichtteilchen „verschiedene Seiten" zukommen müßten in der Weise, daß zwei aufeinander senkrechte Seiten dem ordentlichen und außerordentlichen Strahl zukämen.

Huygens konnte eine solche seitliche Unsymmetrie seinen Strahlen nicht pie zuschreiben, da er den Äther für eine außerordentlich leichtbewegliche Flüssig- b!lSt fdrTin* keit ansah, die ebenso wie die Luft und das Wasser nur longitudinaler Scbwin- ^YorhmdLh^ gungen fähig war.

New ton wieder konnte die so merkwürdige Strahlenbrechung im Kalkspat nicht erklären und gab ohne weitere Begründung eine Konstruktion des außer- ordentlichen Strahles, die im allgemeinen unrichtig war.

So waren die Rollen verteilt. Huygens vermochte eine einheitliche Erklärung von Reflexion, gewöhnlicher Brechung und der so verwickelten Brechung im Kalkspat zu geben, Dispersion, Farben dünner Blättchen, Beu- gung blieben ihm Rätsel.

Newton versagte bei der Erklärung der Gesetze der Doppelbrechung, hatte aber eine einigermaßen einheitliche Erklärung für die Erscheinungen der Re- flexion, gewöhnlichen Brechung, Dispersion, Farben dünner Blättchen und Beu- gung zur Hand. Die geradlinige Ausbreitung des Lichtes lag zudem in seiner Grundhypothese, während er mit Recht ihre Ableitung aus der Wellenlehre ver- warf. Für seinen Standpunkt fiel zudem die Himmelsmechanik in die Wag- schale, die einen völlig leeren Raum zu fordern schien.

So blieb für ein Jahrhundert die Emissionstheorie mit der ganzen Newton- schen Physik Sieger, bis die Fülle neuer Entdeckungen die Zahl der Hilfshypo- thesen unerträglich machte, während es der weiter ausgebauten Wellenlehre allmählich gelang, alle Erscheinungen des Lichtes vollständig einheitlich ab- zuleiten.

IG. Youngs Theorie der Interferenz der Lichtwellen. Einen voungs Prinrip wesentlichen Fortschritt der Wellenlehre führte Thomas Young (1773— 1829) '^der wlaieT* herbei. Er machte darauf aufmerksam, daß die Töne zweier Stimmgabeln, die

536 26. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

sich nur wenig in der Schwingungszahl unterscheiden, die auffallende Erschei- nung der Schwebungen darboten, eine Erscheinung, die jedem geläufig ist, der einmal dem Stimmen eines Klavieres zugehört hat. Young erklärte diese Er- scheinung dadurch, daß zu gewissen Zeiten die Phasen der durch die beiden Tonquellen erzeugten Schallwellen übereinstimmen, wodurch eine Verstärkung des Tones eintritt, während zu anderen Zeiten, wenn die eine Stimmgabel um eine halbe Schwingung vorausgeeilt ist, die Phasen entgegengesetzt sind und dadurch eine Abschwächung des Tones bedingen.

Die alltäglichste Erfahrung lehrt, daß auf einer größeren Wasserwelle sich kleinere selbständig ausbreiten können, so daß die wahre Erhebung der Wasser- teilchen über ihre Gleichgewichtslage die algebraische Summe der Erhebungen darstellt, die durch jede einzelne Welle erzeugt würde.

Einen entsprechenden Grundsatz stellt Young für die Lichtwellen axif. Pflanzen sich zwei solche Wellen in gleicher Richtung fort, so sind die Aus- schläge für die einzelnen in jedem Punkte zu addieren. Es werde nun zunächst angenommen, daß die Länge der beiden Wellen gerade gleich groß sei. Unter dieser Wellenlänge versteht man die Länge einer Strecke, die alle Phasen der schwingenden Punkte gerade einmal enthält, also auch gerade nur einen Wellenberg und ein Wellental. In Fig. 6 sind die Verschiebungen, wie die einer Wasserwelle, senkrecht zur Fortpflanzungsrichtung, also „transversal** darge- stellt. Erfolgen die Verschiebungen in dieser Richtung, so braucht man sie nur um 90° in der Zeichenebene jeweils umgedreht zu denken, um zugleich die Dar- stellung für eine „longitudinale** Schwingung zu erhalten.

Haben also zwei Wellen gleiche Phase, indem sie keinen oder einen ganz- zahligen Betrag von Wellenlängen gegeneinander verschoben sind, wie in Fig. 7, so müssen sie einander verstärken. Ist der Gangunterschied gleich einer halben Welle, so daß der Berg der einen auf das Tal der anderen fällt, und sind die Maximalausschläge oder Amplituden der beiden Wellen einander gerade gleich, so müssen sie einander vollständig vernichten (Fig. 8). Di© Diese Theorie wendet nun Young auf die Erklärung der Newtonschen

*^^ *" Ringe an. Er macht darauf aufmerksam, daß dort zwei Wellen zusammen- «ine interfereiut- kommen oder „interferieren**, von denen die eine an der vorderen, die andere

erscheinung. ww t i

an der hinteren Grenze der Luftschicht reflektiert wird, wie in Fig. 9 erläutert ist. Je mehr die Dicke der Luftschicht zunimmt, desto mehr wird die eine Welle hinter der anderen zurückbleiben und es werden Dicken miteinander abwechseln, bei denen die beiden Wellen gleiche Phase, mit Dicken, bei denen sie entgegen- gesetzte Phase haben. Es müssen also helle und dunkle Ringe miteinander ab- wechseln. Der Dickenunterschied für zwei benachbarte dunkle Ringe muß dem- nach eine halbe Wellenlänge betragen, da die von der Rückseite der Luftschicht kommende Welle den Weg zweimal, nämlich auf dem Hinweg und Rückweg, zurückzulegen hat. Somit stimmt die halbe Wellenlänge gerade mit der New- tonschen „Länge der Anwandlungen** überein, und da diese für verschiedene Farben von Newton verschieden gefunden wurden, so ergab sich ohne weiteres, Farbe and daß auch die Wellenlängen für verschiedene Farben verschieden sein mußten,

Wellenlänge.

Youngs Interferenzprinzip

537

und zwar am größten für Rot, am kleinsten für Violett. Damit hatte zugleich Young auch für die Wellentheorie den physikalischen Unterschied von ver- schiedenen Farben aufgedeckt und bestätigte die Vermutung von Euler (1707 bis 1783), der in der langen Zwischenzeit, da die Wellenlehre ganz in Vergessen-

a + ö

heit geraten zu sein schien, eine Lanze für sie gebrochen hatte. Euler hatte nämlich angenommen, daß, wie die Töne sich durch eine verschiedene Schwin- gungszahl der Luftteilchen, so die Farben sich durch eine verschiedene Schwin- gungszahl der Ätherteilchen unterscheiden.

Die Beziehung zwischen Schwingungszahl und Wellenlänge ist eine sehr Schwingnngswihi einfache, da die verschiedenfarbigen Strahlen sich im leeren Räume mit der- "»^w*"«"^^«^«- selben Geschwindigkeit ausbreiten. Denkt man sich einen Wellenzug um die Strecke verschoben, die er in einer Sekunde zurücklegt, d. h. um 300000 km, so wird jeder einzelne Punkt so viel (z. B. 3 in Fig. 10) Schwingungen in einer Sekunde ausführen, als Wellen über ihn hinweggegangen sind. Man braucht also

nur die Fortpflanzungsge- schwindigkeit durch die Wel- lenlänge zu dividieren, um die Schwingungszahl zu fin-

Fig. xo. SchwsngangsxaU in der Figur « = 3. Es ist c =8«. i. (Jen. Da NeWtOn für die

doppelte Länge der Anwandlungen im Rot und Violett den Betrag von 0,000025 3" = 0,000645 nim und 0,000016 0"= 0,000406 mm gefunden hatte, so ergibt sich daraus die Schwingungszahl für jenes Rot zu 465 Billionen, für jenes Violett zu 739 Billionen Schwingungen in einer Sekunde. Man würde heute die Wellenlängen der äußersten roten und violetten Strahlen zu etwa 0,000 762 mm und 0,000 397mm, ihre Schwingungszahlen zu etwa 394 und 756 Billionen angeben.

Ein merkwürdiger Umstand war noch bei der Erscheinung der Newton- Der dunUeFieck sehen Ringe aufzuklären. Die Mitte der Ringe erschien nicht hell, sondern " m^,^ dunkel. Daraus folgte, daß die Wellen mit entgegengesetzter Phase reflektiert werden mußten, je nachdem die Reflexion am optisch dichteren d. h. stärker brechenden oder optisch dünneren d. h. schwächer brechenden

538 26. Otto WiENBR: Entwicklung der Wellenlehre des Lichtes

Mittel erfolgte, und zwar ist die Annahme, daß eine Phasenumkehr bei Re- flexion am optisch dichteren Mittel stattfinden müsse, wofür sich später Fresnel ausdrücklich entscheidet, in Übereinstimmung mit dem von Young angeführten analogen Vorgang der Zurückwerfung einer leichteren Kugel, die gegen eine schwerere stößt umwandiongdea Aus dicser Erklärung des dunklen Fleckes ergab sich dann aber die merk- ™oUto Fi^t ° "^ü^d^g^ Folgerung, daß er in einen hellen übergehen mußte, wenn die obere Platte aus optisch schwerem Glas bestand und der Zwischenraum der Platten mit einer Flüssigkeit von mittlerer optischen Dichte ausgefüllt wurde; denn dann fand beide Male die Reflexion am optisch dünneren Mittel statt. Die bei- den reflektierten Wellen mußten dann in der Phase übereinstimmen. Das Ex- periment bestätigte in der Tat die Theorie im Gegensatz zu der Newtonschen, die keinen Unterschied in der Art der Anwandlungen machte, je nachdem die Reflexion am optisch dichteren oder dünneren Mittel stattfand. Beagong Auch auf die Beugungserscheinungen wandte Young den Erklärungsgrund-

uAd interfereni. g^^^ j^^. Intcrf crcnz dcs Lichtcs an. Dabei erklärte er die durch einen Spalt be- dingten Beugungen durch Interferenz des in der Mitte durchgehenden und des am Rande reflektierten Lichtes und kam dabei zu einer Bestimmung der Wellen- länge, die mit der aus den Newtonschen Ringen hervorgehenden ziemlich gut übereinstimmte.

Hinter einem ausreichend dünnen Faden beobachtete er neue farbige Beu- gungserscheinungen und fand in der Mitte ein Maximum der Helligkeit. Dies konnte Young leicht auf die Übereinstimmung der Phase der um beide Ränder herum gebeugten Lichtwellen zurückführen. Ultraviolette Auch auf die nur durch ihre chemische oder ihre Wärmewirkung nachzu-

Wellen.

weisenden Strahlen such te Y o u n g sein Interferenzprinzip anzuwenden. Er konnte in der Tat auf lichtempfindlichem Papier Newtonsche Ringe beobachten. Wir wissen heute, daß diesen jenseits des Violett liegenden Strahlen, den ultravio- letten Strahlen, eine kleinere Wellenlänge als dem Lichte zukommt.

Trotz dieser zweifellosen Erfolge fand Young keinen Anklang bei seinen Zeitgenossen und geriet durch die in rascher Folge auftretenden neuen Ent- deckungen auf dem Gebiete des Lichtes schließlich mit seiner Theorie selber ins Gedränge, besonders durch die jetzt darzustellende Entdeckung der Polari- sation des Lichtes. Mains. II. Entdeckung der Polarisation des Lichtes durch Malus.

^LichtoTdbrcr ^*s Rätsel des merkwürdigen Versuches von Huygens war noch nicht gelöst, Reflexion, wonach sich die beiden aus einem Kalkspat austretenden Strahlen anders ver- hielten als der einfallende, aus dem sie hervorgegangen waren. Eis wurde von neuem auf die Tagesordnung gesetzt durch einen grundlegenden Versuch von Malus(i775 1812), den er, angeregt durch eine Preisaufgabe der französischen Akademie, anstellte. Eines Abends im Jahre 1808 betrachtete Malus durch einen Kalkspat das Bild der Sonne in einem Fenster des seiner Wohnung gegenüber- liegenden Luxemburgpalastes. Dabei fiel ihm auf, daß je nach der Stellung des Kalkspates die Bilder des außerordentlichen und ordentlichen Strahles verschie-

Youngs Erfolge. Polarisation des Lichtes 539

den hell erschienen, ja daß in gewissen Stellungen das eine Bild nahezu ver- schwand. Versuche im Laboratorium belehrten ihn, daß alle Spiegel durchsich- tiger Körper sich ähnlich verhielten. Indes verschwand der eine der Strahlen bei verschiedenen Einfallswinkeln der Spiegelung in verschieden starkem Maße und nur bei einem bestimmten Einfallswinkel vollständig.

In Erinnerung an die Bemerkung von Newton, daß die durch den Kalk- spat hindurchgetretenen Lichtstrahlen „verschiedene Seiten** haben könnten, faßte er diese Seiten als durch Pole gehende Achsen der Lichtteilchen auf und nannte das Licht selbst „polarisiert**.

Da die Spiegelung an den durchsichtigen Körpern einen ähnlichen Einfluß auf das Licht auszuüben schien wie der zweite Kalkspat im Huygens sehen Versuch, so lag der Gedanke nahe, daß auch der Spiegel den Lichtstrahl polari- sieren könne. In der Tat, ließ Malus das Licht zweimal an Glasspiegeln reflek- tieren, so wurde der reflektierte Strahl am besten zurückgeworfen, wenn ihre Einfallsebenen zusammenfielen, dagegen gar nicht, wenn sie aufeinander senk- recht standen. Vorausgesetzt dabei war, daß der Einfallswinkel bei beiden Spie- geln jene günstigste Größe hatte. Diesen Winkel nannte er den Polarisa- tionswinkel **. Die Einfallsebene des ersten Spiegels nannte er die „Polari- sationsebene*'und den Strahl „in der Einfallsebene polarisiert**.

Eine Beziehung zwischen der Größe der Polarisationswinkel und anderen Eigenschaften der durchsichtigen Körper wurde von Malus nicht gefunden, da- gegen 1815 von Brewster (1781 1868), der die Tangente des Polarisations- winkels gleich dem Brechungsexponenten des Mittels fand.

Auch den durch eine Glasplatte unter dem Polarisationswinkel durchtreten- GUspiattoniat«. den Strahl fand Malus, wenn auch nicht vollständig, polarisiert. Doch konnte die Polarisation durch Anwendung mehrerer Glasplatten hintereinander, also durch einen Glasplattensatz, verstärkt werden. Die Polarisationsebene des durchgehenden Strahles fand Malus senkrecht zu der des reflektierten gerichtet.

Nach dem Ausgangsversuch erwiesen sich auch die beiden durch den Kalk- Poiknaation spat hindurch getretenen Strahlen als vollständig polarisiert, und zwar lag die Doppelbrechung. Polarisationsebene des ordentlichen Strahles im Hauptschnitt, d. h. in der durch den Strahl und die optische Achse (S. 534) gehenden Ebene, die des außer- ordentlichen Strahles in einer Ebene senkrecht dazu.

Malus bildete jetzt die beiden hintereinander geschalteten polarisierenden PoUnsatioM Teile zu einem Apparat aus, den man später den „Polarisationsapparat** *^'*"* genannt hat. Der erste Teil, etwa ein unter dem Polarisationswinkel aufgestell- ter Glasspiegel oder ein Glasplattensatz, bildet den Polarisator. Fallen die Polarisationsebenen der beiden Teile zusammen, so nennt man sie parallel, stehen sie aufeinander senkrecht, so nennt man sie gekreuzt. Brachte Malus nun zwischen die gekreuzten Teile oder Polarisatoren eine dicke Kristallplatte, so trat im allgemeinen eine Aufhellung ein, nur nicht dann, wenn der Haupt- schnitt des Kristalls, oder im allgemeinen Falle eine analoge Ebene, mit der Polarisationsebene einer der beiden Polarisatoren zusammenfiel. Malus hatte damit auch ein Mittel gefunden, selbst geringe Spuren von Doppelbrechung

540 26. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

nachzuweisen und bei gewissen Kristallen die Lage des Hauptschnittes auf- zufinden. Vefbreitang So konnte er leicht feststellen, daß alle Kristalle Doppelbrechung auf- h^e^ZL weisen, mit Ausnahme derjenigen des später regulär genannten Kristallsystems. ^^''T*^- Überraschend war, daß auch organisierte vegetabile und tierische Körper Dop- pelbrechung aufwiesen.

Die Malusschen Untersuchungen bilden ein Muster der induktiven ex- perimentellen Methode. Auf eine Erklärung verzichtete er vollständig, vielmehr wies er darauf hin, daß alle damaligen Theorien nicht imstande waren, die Er- scheinung zu erklären; denn wie sollte man es verstehen, daß der hellste Licht- strahl im polarisierten Zustand unter einem bestimmten Einfallswinkel, und nur unter diesem, sich der Zurückwerf ung entziehen könnte? Bruironff 12. Erklärung der Doppelbrechung durch Laplace und Biot

braciuing DaÄ Ji a c h dcT Emissionsthcorie. Während die Wellentheoretiker diesen Er-

^"^^^^JT*^ scheinungen anfangs gänzlich ratlos gegenüberstanden, versuchte Laplace (1749— 1827) die Doppelbrechung durch eine zweifache Art der Anziehung der Lichtteilchen zu erklären, eine unveränderliche auf die Teilchen des ordent- lichen, eine veränderliche auf die des außerordentlichen Strahls. Diese verschie- den starken Anziehungen mußten verschieden große Geschwindigkeiten der Strahlen herbeiführen. So kam dem ordentlichen Strahl eine konstante, dem außerordentlichen eine veränderliche Geschwindigkeit zu, die um so mehr von der anderen abwich, je größer der Winkel war, den der Strahl mit der optischen Achse des Kristalls bildete. Eine einfache Formel gab diese Abweichung an und man nannte den Kristall positiv oder anziehend (attractif), wenn der außer- ordentliche Strahl eine vermehrte Anziehung, also eine größere Geschwindig- keit besaß als der ordentliche, negativ oder abstoßend (röpulsif), wenn er eine geringere Anziehung, also eine kleinere Geschwindigkeit besaß.

Diese Bezeichnungen wurden auch dann noch beibehalten, als man von der Emissions- zur Undulationstheorie übergegangen war. Demnach sind in Wirk- lichkeit die positiven Kristalle solche, deren ordentlicher Strahl die größere Geschwindigkeit, negative solche, deren ordentlicher Strahl die kleinere besitzt. Im Sinne der Emissionstheorie hatten die Lichtteilchen seitliche Kräfte- pole, deren Verbindungslinie eine zum Strahl senkrechte Kräfteachse besaß. Die Teilchen des natürlichen, also unpolarisierten Strahles hatten dann Kräfte- achsen, die in allen möglichen Richtungen senkrecht zum Strahle lagen. Durch die Kräfte des Kristalles oder eines zurückwerfenden Spiegels wurden dann die Achsen der Teilchen geordnet, so daß sie in einer bestimmten Ebene ver- blieben. So dachte man sich die Entstehung des polarisierten Lichtstrahls. Biot (1774 1862) nahm insbesondere an, daß jene Polarisationsachse in der Polarisationsebene lag.

Entdecknng 13. Entdeckung der chromatischen Polarisation durch Arago.

•chonPoUrüLiöa Auf schcn erregte die Beobachtung von Arago(i786— 1 853), daß völlig ungefärbte

darch Arago. durchsichtigc dünneKristallblättchenimPolarisationsapparat Farben aufwiesen. Die Farben hingen ab von der Dicke der Blättchen und schlugen in die Komple-

Doppelbrechung. Höhe der Emissionstheorie 541

mentärfarben um, wenn man von der gekreuzten Stellung der Polarisatoren zur parallelen überging. Die Erscheinung war nur dadurch möglich, daß das ursprünglich polarisierte Licht in seinem Polarisationszustand verändert oder dieser überhaupt aufgehoben wurde. Arago nannte deshalb die Erscheinung „Depolarisation'*y eine Bezeichnung, die allerdings heute nur bei einer unregel- mäßigen Art der Zerstörung der Polarisation angewandt wird.

Eine weitere wichtige Entdeckung war der Nachweis des Auftretens von Farben bei dickeren Quarzplatten, die senkrecht zur optischen Achse geschlif- fen waren. Auch diese Farben hingen von der Dicke der Platte ab, sie unter- schieden sich aber von den Farben der dünneren Kristallblättchen dadurch, daß sie keine Veränderung erlitten, wenn man die Platten in ihrer eigenen Ebene drehte. Im Gegensatz dazu gab es bei den dünnen Kristallblättchen ebenso, wie das schon Malus bei den dickeren beobachtet hatte, zwei aufeinander senk- rechte Stellungen, wo die Blättchen dunkel blieben.

14. Höchste Ausbildung der Emissionstheorie durch Biot. Die soeben beschriebene Erscheinung der chromatischen Polarisation erinnerte Die chromatische Young derartig an die der dünnen Blättchen im unpolarisierten Licht, die er ^°^*"^J^° °**^^ durch die Interferenz der Lichtwellen erklärt hatte, daß er die Vermutung aus- •»• int€«f©renx- sprach, sie möchten in ähnlicher Weise durch Interferenz zu erklären sein. Was aber die Polarisation dabei zu tun habe, vermochte er in keiner Weise anzugeben.

Biot war in dieser Richtung glücklicher. Freilich mußte er dazu den Licht- Riots mobue teilchen eine neue Eigentümlichkeit zuschreiben. Er nahm an, daß die Achsen ^oi»"»***«»»- der Polarisation dieser Teilchen in den Kristallblättchen Pendelbewegungen „Polarisation mobile** ausführten, die in regelmäßigen Intervallen wiederholt werden und die für verschiedene Farben verschieden lange dauerten. Dadurch wurde erklärt, warum nur gewisse Farben aufgehellt wurden, während andere dunkel blieben, so daß das ursprüngliche weiße Licht gefärbt erscheinen mußte. Ferner ergab sich von selbst, daß Blättchen gleicher Dicke auch gleiche Farben aufwiesen.

In ganz ähnlicher Weise erklärte Biot die Farben am Quarz, nur mußte Drehung hierbei angenommen werden, daß die Polarisationsachsen der Lichtteilchen ^"'^"i*™***®"*"

^ ' ebene.

eine andauernde Drehung erfuhren, die mit der Dicke der Blättchen proportio- nal und für verschiedene Farben verschieden stark war.

Im Zusammenhang damit fand Biot, daß es rechts- und linksdrehende Quarzplatten gibt und daß auch Flüssigkeiten, wie Zuckerlösungen, eine solche Drehung der Polarisationsebene aufweisen.

Auch auf die alsbald zu besprechenden Erscheinungen im konvergenten Lichte bei Platten aus Kalkspat und kristallographisch verwandten Körpern konnte Biot diese Erklärungsweise mit Erfolg anwenden.

Für die verwickelten Erscheinungen bei Platten und Kristallen geringerer Symmetrie und ebenso bei den eigenartigen Erscheinungen bei der Reflexion an Metallen, die, wie schon Malus nachgewiesen hatte, sich nicht wie die durch- sichtigen Körper verhalten, stieß die Erklärung auf große Schwierigkeiten.

542 26. Otto Wiener: Entwicklung der Wellcnlehre des Lichtes

Höhepunkt Die Emisslonsthcorie hatte damit ihren Höhepunkt erreicht, sie vermochte

'^*'^tJ^'^*'*""eine große Fülle verwickelter Erscheinungen, wenigstens im Gröbsten, darzu- stellen da, wo die Undulationstheorie bisher völlig versagt hatte. Daß die £r- klärungsweisen freilich aus einheitlichen Grundannahmen hervorgingen, konnte man nicht behaupten.

Neben den anziehenden und abstoßenden Kräften, die die Körper auf die Lichtteilchen ausübten, je nachdem sie in der Anwandlung leichten Durchgangs oder leichter Zurückwerfung begriffen waren, standen verschiedenartige an- ziehende und abstoßende Kräfte, die die Beugung erklären sollten. Zu den An- wandlungen selbst, die in gewissen Intervallen wiederkehrten, kamen die Achsen der Polarisation der Lichtteilchen, die wieder verwickelten Kräften bei der Zurückwerfung und bei der einfachen und doppelten Brechung ausgesetzt wa- ren. Dazu kam jetzt noch eine periodische Schwankung oder Drehung der Po- larisationsachsen und trotz dieser Häufung von immer neuen Annahmen konnte die quantitative Seite der Erscheinung keineswegs restlos aufgeklärt werden. So wäre die Emissionstheorie schließlich an der Hypertrophie ihrer Hypo- thesen zugrunde gegangen, wenn sie nicht vorher durch die ungeahnte Weiter- entwicklung der Wellenlehre, die ihr hauptsächlich Fresnel zu geben wußte, aus dem Felde geschlagen worden wäre. chromatiBche 15* Entdeckung der chromatischen Polarisation im konver-

i^kww^tonS®^^^'^ Licht durch Brewster, Arago und andere. Der bereits früher Licht. erwähnte Polarisationsapparat wurde für Beobachtungen im konvergenten Licht mit einem Linsensystem ausgerüstet, das die parallelen Strahlen so sam- melte, daß sie sich in der Kristallplatte kreuzten; ein zweites Linsensystem machte die Strahlen dann wieder parallel.

An der Entdeckung der bunten Welt von Erscheinungen, die sich in diesem Apparat bei Kristallen kundgab, beteiligten sich vor allem Brewster und Arago, später auch Wollaston (1766— 1828), Biot und Seebeck (1770 bis 1831). Wurde eine senkrecht zur Achse geschliffene Kalkspatplatte im kon- vergenten, gekreuzten Polarisationsapparat betrachtet, so erblickte man ein dunkles Kreuz, dessen Arme mit den Polarisationsebenen der Polarisatoren gleich gerichtet waren. Das Kreuz war durchzogen von einem System gefärbter kreisförmiger Ringe. Die Fig. 1 1 zeigt die Erscheinung für einfarbiges Licht. So verwickelt diese Erscheinung auf den ersten Anblick erschien, so stellte sie doch nichts anderes dar, als das Nebeneinander der Erscheinungen, die man mit pa- rallclem Lichte und Blättchen verschiedener Dicke und Orientierung erhielt» Denn die Strahlen verschiedener Neigungen mußten verschiedene Dicken der Kristallplatten durchsetzen, so daß längs Kreisen dieselbe Farbe auftreten mußte^ die im parallelen Lichte für dieselbe Dicke der Kristallplatte beobachtet wurde. Als wesentlich verwickelter allerdings erwiesen sich die Erscheinungen an Platten, die der dritten am wenigsten symmetrischen Hauptgruppe der Kristall- systeme angehörten.

Dabei gilt als erste Gruppe das reguläre System, als zweite Hauptgruppe das hexagonale, tetragonale und trigonale System, die wie der Kalkspat eine

Chromatische Polarisation im konvergenten Licht ^^^

Haup tsymmetrieachse besitzen, die mit der Symmetrieachse des H u y g e n s sehen Rotationsellipsoides zusammenfällt. Das rhombische, monosymmetrische und asymmetrische System besitzen keine Hauptsymmetrieachse und bilden jene dritte Gruppe von Kristallsystemea.

Die Erscheinung, die man bei einer geeigneten Stellung der Platte eines solchen Kristalles erhält, kann man sich aus Fig. ii hervorgegangen denken, indem man das Kreuz zunächst um 45° dreht und dann in horizontaler Rich-

tung symmetrisch auseinandergezogen denkt, so daß zwei Hyperbeläste entstehen (Fig. 12). Dabei spaltensich die ursprünglich einfachen Ringe in zwei etwas defor- mierte Ringsysteme, deren Zentren in der einen Symmetrieachse der Hyperbeln liegen. In größeren Abständen von diesen Zentren fließen die gleichfarbigen oder isochromatischen Kurven in zusammenhängende Kurven zusammen. Sie be- stehen, wieJohnHerscbel(i792— i87i]imJahrei820zeigte,ausLemniskaten.

An der Stelle der Zentren der beiden Ringsysteme treten die beiden ,, op- tischen Achsen" aus. Kristalle, welche diese Erscheinung aufweisen, heißen daher „optisch zweiachsig".

Brewster hat nachgewiesen, daß alle optisch zweiachsigen Kristalle keine kristallographische Hauptachse besitzen und also jener dritten Gruppe von Kri- stallsystemea angehören. Dagegen heißen die Kristalle, welche das einfache Ringsystem wie der Kalkspat aufweisen, „optisch einachsig" und ge- hören nach Brewster zu der zweiten Gruppe von Kristallsystemen mit einer kristallographischen Hauptachse.

16. Fresnel. Interferenz der Huygensschen Elementarwellen. Der gentalenAnschauungund mathematischen KraftvonFresnel (1788— 1837) h[ verdankt man den endlichen Sieg der Wellenlehre. Er begann, wie Young, mit der Untersuchung der Beugungserscheinungen. Wie jener glaubte er anfangs sie auf die Interferenz des durchgehenden und der an den beugenden Kanten reflektierten Strahlen zurückfuhren zu kOnnen, wurde aber eines Besseren be- lehrt, als er die beugende Schneide eines Rasiermessers mit dem Rücken des Messers vertauschte und die Intensität der nach außen abgebeugten Strahlen

544

z6. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

Inwiefern die

Wellentfaeorie

eine geradlinige

Ausbreitung des

Lichtes verbQrgt.

in keiner Weise verändert fand, wie man hätte erwarten müssen, wenn die aus- gedehntere Fläche des Rückens durch verstärkte Reflexion einen Einfluß auf die Erscheinung gehabt hätte.

Demnach mußten alle Punkte der beugenden Öffnung berücksichtigt wer- den. So kam Fresnel zurück auf die Huygenssche Vorstellung der Elemen- tarwellen. Er verbesserte sie aber in einem wesentlichen Punkte, indem er diese Wellen miteinander interferieren ließ. Freilich war dies im allgemeinen keine

einfache rechnerische Aufgabe. Er stellte zunächst den analy- tischen Ausdruck für die Amplitude und Phase einer Elementar- welle fest, multiplizierte ihn mit dem Flächenelement der beu- genden Öffnung und summierte, bzw. integrierte über die ganze in Betracht kommende Fläche, gegebenenfalls bis ins Unend- liche. So entstanden die für die Beugungstheorie grund- legenden „Fresnelschen Integrale**, deren Betrag die Intensität des gebeugten Lichtes in jedem Punkte hinter der Öffnung innerhalb der Genauigkeitsgrenzen der Beobachtung richtig wiedergibt.

Jetzt konnte auch der fundamentale Einwurf von Newton gegen die Wellenlehre beseitigt werden. Wie kommt die geradlinige Ausbreitung des Lichtes durch eine nicht zu enge Öffnung zustande? Warum ver- breiten sich die Wellen nicht in dem ganzen hinter der Öffnung liegenden Raum?

Denken wir uns der Einfachheit halber die Öffnung spaltförmig und ver- folgen die Lichtintensität in einer Richtung senkrecht zum Spalt. Auch soll der Punkt in einer so großen Entfernung vom Spalt liegen, daß die nach ihm laufenden Strahlen als parallel gelten dürfen.

Dann erhält ein in Richtung des einfallenden Strahls hinter dem Spalt lie- gender Punkt lauter Elementarwellen von übereinstimmender Phase, d. h. er erhält die maximal mögliche Intensität, die wir mit i bezeichnen wollen.

Wir betrachten ferner einen derart seitlich gelegenen Punkt, daß die Gang- unterschiede der Randstrahlen gerade eine ganze Wellenlänge betragen (Fig. 13). Dann kann man den Spalt in zwei Hälften teilen, derart, daß jedem Punkt der einen ein Punkt der zweiten Hälfte entspricht, der eine Welle aussendet, die gegenüber der vom ersten Punkt kommenden den Gangunterschied einer halben Wellenlänge besitzt. Die Elementarwellen der beiden Spalthälften werden also einander gerade aufheben und in der fraglichen Richtung überhaupt keine Beleuchtung zustande kommen lassen.

Betrachtet man dagegen einen so weit seitlichen Punkt, daß der Gangunter- schiedfür die Randstrahlen i Y, Wellenlängen beträgt, so hat man den Spalt in drei Teile zu teilen, von denen zwei benachbarte einander in ihrer Wirkung aufheben, so daß nur der dritte Teil der Spaltöffnung zur Beleuchtung übrig bleibt. Würde die Phase all dieser Punkte die gleiche sein, so würde die Amplitude der Gesamt- welle einem Drittel der maximal möglichen Amplitude gleichkommen. Da nun ein

Fresnels Prinzip der Interferenz der Elementarwellen 54^

einfacher Satz der Wellenlehre zeigt, daß man die Amplitude quadrieren muß, um die Lichtintensität zu finden, so würde die Intensität in diesem Falle ^/^ sein, in Wirklichkeit, da die Phasen nicht genau übereinstimmen, kjf^ wobei k eine Zahl kleiner als i bedeutet. Geht man aber beispielsweise so weit, daß der Gangunterschied der Randstrahlen loi halbe Wellenlängen beträgt, so würde nach einem solchen Punkte die Intensität des gebeugten Lichtes bereits nur

- j betragen, d. h. im Vergleich zu dem unmittelbar durchgehenden Licht

unmerklich werden.

Nehmen wir nun an, daß der Spalt 0,25 mm breit sei/so bedeutet das in mittleren Wellenlängen von 0,0005 ni^i ausgedrückt, eine Breite von 500 gan- zen oder 1000 halben Wellenlängen. Die Richtung eines Strahles, für die die Randstrahlen einen Gangunterschied von loi halben Wellenlängen besitzen

und dessen Intensität somit auf unter heruntergegangen ist, weicht dem- nach von der des einfallenden um einen Winkel ab, der im Bogenmaß etwa gleich 0,1 ist oder im Winkelmaß 6^ beträgt, bei einem Spalt von 2,5 inm aber bereits auf 0,6® herabsinkt. Man erkennt also, daß, je breiter der Spalt wird, in um so geringeren Neigungen gegen den durchgehenden Strahl die Lichtintensität unmerklich wird.

Durch diese Erklärungsweise wird erstens klar, warum durch einen Spalt das Licht sich nicht merklich nach allen Seiten ausbreitet und zugleich warum in un- mittelbarerNachbarschaf t desStrahlesBeugungserscheinungen eintreten müssen. Zugleich wird klar, warum im allgemeinen diese Beugungserscheinungen beim Licht in so geringem Maße auftreten. Denn die Wellenlänge des mittleren weißen Lichtes ist etwa millionenmal so klein als die Schallwellen mittlerer Töne und die Wellenlänge mäßig langer Wasserwellen, nämlich von etwa Y^ m Länge. Daraus ergibt sich die Schwierigkeit, die geradlinige Ausbreitung der Schall- oder Wasserwellen nachzuweisen, da bei ihnen der Einfluß der Beu- gung viel zu stark ist.

Zwar hatten frühere Verteidiger der Wellenlehre auf diesen Unterschied in der Wellenlänge hingewiesen, aber dieser Hinweis berechtigte zu keinerlei bindendem Schluß, da die quantitative Berechnung der Lichtstärke fehlte. In- dem Fresnel diesem Mangel abhalf, hat er einen der wichtigsten Einwände gegen die Wellenlehre beseitigt.

Das ausführliche „Memoire sur la diffraction de la lumi^re'' hat Fresnel nach einigen Vorläufern der Pariser Akademie am 29. Juli 181 8 vorgelegt.

17. Der spätere Ausbau des Huygens-Fresnelschen Prinzips und die Beugungserscheinungen beim Regenbogen. Obgleich die nie Mingei Fr es ne Ische Leistung der quantitativ genauen Berechnung der Beugungser- " i^rie.^*** scheinungen nicht verfehlte, Eindruck zu machen, so fand seine Theorie doch keine unbedingte Anerkennung von Seiten der Mathematiker, und nicht mit Unrecht. Denn Fresnel hatte sein neues Prinzip nicht auf eine mechanische Theorie der Wellen gegründet, vielmehr stand seine Annahme mehr als eine, wenn auch wahrscheinliche, Hypothese da. Schon Poisson (1781 1840) er-

K.d.G.nLm,Bdz Physik 35

c^5 26. Otto Whenkr: Entwicklung der Wellcnlehre des Lichtes

hob den Einwand, daß nach der Fr es n eischen Erklärung eine von einem Punkte ausgegangene Kugelwelle nicht bloß nach vorwärts, sondern auch nach rückwärts neue Kugelwellen erzeugen müsse.

Es kam hinzu, daß Fresnel zwar die Intensität der gebeugten Welle rich- tig angegeben hat, nicht aber die Phase, die allerdings im allgemeinen weniger interessiert. Davon überzeugt man sich leicht, indem man von einer ebenen Welle ausgeht und die Phase in einem Punkte berechnet, dessen senkrechter Abstand von der Wellenoberfläche gleich einer ganzen Anzahl von Wellen ist. III II !• II III Dann müßte die Phase in jenem Punkte mit

■^yvjs^;^ der der Wellenoberfläche übereinstimmen.

/ // ^ Führt man indes die Fresnelsche Kon-

1// struktion aus, indem man von dem Punkte

^ aus zunächst zwei Strahlen gegen die Wel-

^w lenfläche hinzieht, deren Längen die der

Normalen um eine halbe Wellenlänge übertreffen, wie in Fig. 14, und ferner weitere Strahlen, deren Länge gegenüber den vorhergezogenen wieder um je eine halbe Wellenlänge größer ist, so wird dadurch die ganze Wellenfläche in Zonen eingeteilt, die der Reihe nach mit I, II, III bezeichnet werden mögen. Die Wirkung der Zone II wird dabei durch Interferenz zur Hälfte von Zone I und zur Hälfte von Zone III aufgehoben. Das gleiche kann man von den spä- teren Zonen zeigen. Nun liefern aber, wie Fresnel nachweist, die späteren Zonen wegen der größeren Neigungen der Strahlen gegen die Wellenfläche allmählich geringere Beiträge, so daß der Beitrag der letzten übrig bleibenden Zone allmählich verschwindet.

Demnach bleibt nur noch die mittlere Zone übrig, deren Wellen aber nicht alle die gleiche Phase besitzen, da die Wellen von den Randpunkten gegenüber der Welle vom Mittelpunkte der Zone um eine halbe Schwingungsperiode zu- rückbleiben« Die Phase der berechneten Gesamtwelle ist demnach um eine viertel Periode gegenüber derjenigen Phase zurück, die sie in Wirklichkeit haben sollte. Die Besoitigang Dic Überlegung lehrt, daß das Fresnelsche Verfahren einer strengen Kri-

^Fehi^durch ° tik uicht Standhielt und einer Richtigstellung bedurfte. Diese Richtigstellung Kirchhoff. ^uj-dß erst etwa 6 Jahrzehnte später von Gustav Kirchhoff (1824— 1887) gegeben, aber auf einem etwas umständlichen, wenig übersichtlichen Weg. Doch haben dem spätere Mathematiker und Physiker abgeholfen.

Es handelte sich um eine Aufgabe, die in ähnlicher Weise bei elektrischen Erscheinungen wiederkehrt. Dort liegt die Aufgabe vor, die Kraftwirkung, die von elektrisch geladenen Massenpunkten herrührt, zu ersetzen durch die einer gesuchten elektrischen Belegung einer Oberfläche, die jene Massenpunkte umschließt. Es ist das eine Aufgabe der Potentialtheorie, die besonders in der ersten Hälfte des 19. Jahrhunderts entwickelt wurde.

Da nun die Intensität des Lichtes nach dem gleichen Gesetz wie die Inten- sität der elektrischen Kräfte abnimmt, nämlich im umgekehrten Quadrat der Entfernung, so hat man die Aufgabe der gewöhnlichen Potentiale nur zu über- setzen in eine entsprechende Aufgabe der „Wellenpotentiale**.

Späterer Ausbau des Fresnel-Huygensschen Prinzips ^^j

Nach diesen Untersuchungen bedarf auch die von Fresnel berechnete In- tensität der resultierenden Welle einer Korrektur, die sich aber nur auf Abstände von der Wellenoberfläche beschränkt, die klein sind im Vergleich zur Wellen- länge. Da man indes im allgemeinen stets nur den Zustand in größeren Abstän- den zu wissen wünscht, so braucht man von der nach Fresnel berechneten Phase nur eine Viertelschwingungsdauer abzuziehen, um das periodische Glied des Fresnelschen Ausdrucks und damit den ganzen Ausdruck richtig zu stellen.

Sollen wir wegen dieser Fehler die Fresnelsche Leistung wesentlich ge- Würdigung ringer schätzen ? Der Verfasser ist nicht dieser Ansicht. So hoch man die Ver- ^^ Lltiumg! *" dienste von Kirchhoffund seinen Nachfolgern schätzen mag, die das Unstrenge streng gemacht haben, so ist eine derartige Aufgabe doch von anderem Range als die, der Forschung völlig neue Bahnen zuweisen, und das hat Fresnel durch sein Prinzip der Interferenz der Huygensschen Elementarwellen getan.

Während es Fresnel nun im allgemeinen nur mit ebenen oder Kugelwellen iHe Nebenbogen zu tun hatte, treten unter Umständen verwickeitere Formen von Wellen auf, **"ogeX" so bei einer zweimal durch einen Wassertropfen gebrochenen und einmal im Innern reflektierten Lichtwelle, die den ersten Regenbogen erzeugt. Man be- merkt manchmal neben dem Hauptbogen Nebenbogen, die bereits Young durch eine besondere Art von Interferenz erklärt hat. Diese Verhältnisse wur- denspätervonAiry(i8oi 1892), Mascart (1837— 1908), Chr. Wiener (1826 bis 1896) und W. Möbius genauer untersucht, insbesondere hat Mascart ge- zeigt, wie man die umständliche Berechnung der bei der Fresnelschen Theo- rie auftretenden Integrale ersetzen kann durch die einfachen Youngschen Interferenzen von solchen Wellen, die von den Polen der Wellenfläche aus- gehen. Es sind das die Fußpunkte der Normalen, die man von dem untersuchten Punkte aus auf die Wellenfläche fällen kann.

Mascart hat dabei nur einen unklaren Punkt zurückgelassen, der neuer- dings von Möbius aufgeklärt wurde. Es handelt sich dabei um die Korrektur der Phase, die für verschiedene Arten von Polen in verschiedener Weise anzu- bringen ist.

Das durch Fresnelsche Methoden begründbare Mascartsche Verfahren hat dadurch neuen Boden gewonnen und bei der Berechnung der Beugung an Linsensystemen von Mikroskopen, wie sie bei den ultramikroskopischen Teil- chen in Erscheinung treten, sich von neuem bewährt.

18. Die Young-Fresnelsche Hypothese der Transversalität weUenthoone der Lichtwellen und der endliche Sieg der Wellentheorie. Die"" °* '**'°"' geniale Berechnung der Beugungserscheinungen hat zwar selbst Emissions- theoretikern wie Biot Achtung abzugewinnen nicht verfehlt, aber sie war für ihn nur eine Merkwürdigkeit, wonach die Fresnelschen Integrale richtig rechneten, ohne ihn von den Grundzügen der Wellenlehre zu überzeugen. Dazu bedurfte es mehr. Die sämtlichen Polarisationserscheinungen lagen noch gänz- lich außerhalb des Machtbereichs der Wellentheorie; hier hatte Fresnel vor allem einzusetzen.

Bereits Young hatte geglaubt, die chromatische Polarisation durch eine

35*

548 26. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

unmögUchkeit» Iiiterferenz des ordentlichen und außerordentlichen Strahls erklären zu können. ^nkrech?^ri-Fresnel versuchtc daher zum Teil allein (1816), zum Teil gemeinschaftlich mit

^T^torf^J^M ^^^S^ (1818), die Frage experimentell zu entscheiden, ob denn überhaupt der zu bringen. ordentHche Strahl mit dem außerordentlichen interferieren könne. Das Ergeb- nis war negativ. Die beiden Forscher legten sich daher die allgemeinere Frage vor, unter welchen Umständen polarisiertes Licht der Interferenz fähig sei. Zu diesem Zweck ließen sie die von einer Lichtquelle kommenden Strahlen durch zwei nebeneinanderliegende Spalte fallen, deren jeder mit einem drehbaren Polarisator versehen war. Dabei stellte sich heraus, daß eine Interferenz zwar eintrat, wenn die Polarisatoren parallel waren, dagegen nie, wenn sie aufeinan- der senkrecht standen, einerlei, ob das ankommende Licht polarisiert war oder nicht. Dagegen interferiertea diese beiden Strahlen wieder, wenn sie hinterher auf dieselbe Polarisationsebene gebracht wurden, vorausgesetzt, daß sie auch ursprünglich aus einem einzigen polarisierten Lichtstrahl entstanden waren.

Diese Feststellungen genügten, um daraus alle Erscheinungen der chroma- tischen Polarisation abzuleiten.

Wie war aber die Tatsache zu erklären, daß zwei senkrecht aufeinander polarisierte Strahlen unter keinen Umständen zur Interferenz gebracht werden konnten? Bestand das Licht aus longitudinalen Schwingungen, die alsodemLicht* strahl selbst parallel verliefen, wie man es annehmen mußte, wenn der Lichtäther einer Flüssigkeit vergleichbar war, so konnte dies Experiment nicht verstanden werden. Es lag der Schluß nahe, daß, wenn man überhaupt an der Wellennatur des Lichtes festhalten wollte, dann nichts anderes übrig blieb, als anzunehmen, daß die Lichtschwingungen senkrecht, also transversal zum Strahle erfolgen. Die Annahme der Dicscr Schluß blieb Frcsncl seit seinen ersten Versuchen von 181 6 nicht 'deri.icht- verborgen. Doch zögerte er zunächst noch, ihn öffentlich zu vertreten. Young

Schwingungen, dagegen schrieb, als er von den Experimenten gehört hatte, an Arago 1817 und 181 8 Briefe, in denen er die Hypothese der Transversalität aussprach, wenn auch in einer noch wenig bestimmten und klaren Form. In unzweideu- tiger Form stellte Fresnel die Behauptung, daß die Lichtschwingungen nur transversal erfolgen könnten, erst 1821 auf, als er zugleich mitteilen konnte, welche Eigenschaften man dem Äther zuschreiben müsse, um ihn zu solchen Schwingungen zu befähigen und nachdem er genauer festgestellt hatte, welche Veränderung das polarisierte Licht bei der Reflexion an Spiegeln erfuhr. Arago dagegen, der als Mitglied der Acad6mie frangaise die Angriffe der Fachgenos- sen in vorderster Front auszuhalten hatte, hielt sich zurück, um sich bei ihnen nicht noch mehr in schlechtes Licht zu setzen, in dem er bereits als Anhänger der Wellentheorie stand. In der Tat sah sich Fresnel bald (1823) in einen schwierigen wissenschaftlichen Streit mit Poisson verwickelt Poisson be- wies, daß in einer elastischen Flüssigkeit stets die Schwingungen senkrecht zur Wellenoberfläche, also dem Strahl entlang, longitudinal erfolgen müssen. Fres- nel erwiderte, daß er dann eben seine Vorstellungen vom Äther verbessern und ihm andere Eigenschaften zulegen müsse, als er getan habe. In der bald darauf von den Physikern angenommenen Ausdrucksweise hieß das nichts Geringeres,

Transversalität der Lichtwellen und Doppelbrechung 549

als daß man dem Äther in gewisser Hinsicht die Eigenschaften eines mit Form- elastizität begabten festen Körpers zuschreiben müsse. Dies war allerdings eine starke Zumutung an die Vorstellungskraft der Physiker. Denn wie sollte man sich jetzt die freie Bewegung der Himmelskörper denken, wenn sie unausgesetzt einen festen elastischen Körper zu durchdringen hatten?

Stokes (i 819— 1903) hat später diesem Einwurf das merkwürdige Ver- halten des Peches entgegengehalten, das gegen rasche Stöße elastisch erscheint und doch einem aufgelegten schweren Körper das allmähliche Eindringen ge- stattet. Nicht größer waren ja die Geschwindigkeiten der Himmelskörper im Vergleich zu der des Lichtes.

Fresnel war genial genug gewesen, derartige Bedenken vorerst beiseite Di« Benehnnffen zu lassen und die Folgen aus der neuen Annahme zu ziehen. Denn es hatte vor ^ '^•chm allem noch gegolten, eine schwierige Aufgabe zu erledigen. Die Polarisation in and PoUrisation Kristallen war derartig an die Doppelbrechung geknüpft, daß diese Verknüp- fung auch unbedingt aus der Theorie hervortreten mußte.

Es gelang ihm zunächst bei einachsigen Kristallen diese Aufgabe zu lösen. Fresnei« Ein Rotationsellipsoid, dessen Rotationsachse gleich dem reziproken Wert der Kontraktionen Geschwindigkeit des ordentlichen und dessen andere Achse gleich dem der Haupt^eschwindigkeit d. h. Extremgeschwindigkeit des außerordent- lichen Strahles gesetzt wurde, gestattete die folgende Konstruktion. Legt man durch den Mittelpunkt des Ellipsoides eine Wellenebene beliebiger Richtung, so geben die Achsen der Schnittellipse mit ihren Richtungen die Schwingungs- richtungen und mit ihren reziproken Längen die Geschwindigkeiten an, mit denen sich die beiden Wellen senkrecht zu ihrer Wellenebene fortpflanzen.

Ersetzte Fresnel jetzt das Rotationsellipsoid durch ein dreiachsiges El- lipsoid, so lieferte die entsprechende Konstruktion die Normalgeschwindigkeiten zu einer beliebigen Wellenebene. Trug er diese senkrecht dazu auf, so erhielt er eine Fläche die sogenannte Normalenfläche , deren Tangentialebenen die Wellenfläche umhüllten. Diese Wellenfläche war vom vierten Grad und be- stand aus zwei einander durchdringenden Schalen, die, wenn zwei Achsen jenes Ellipsoides einander gleich wurden, in die Huygenssche Wellenfläche, näm- lich die Kugelfläche des ordentlichen und die Rotationsellipsoidfläche des außer- ordentlichen Strahles zerfiel.

Demnach gibt es bei zweiachsigen Kristallen überhaupt keinen ordentlichen, dem Snelli US sehen Brechungsgesetz folgenden Strahl, wie man vor Fresnel allgemein angenommen hatte. Daß es ihn nicht gibt, das hatte er vorher durch einfache Versuche festgestellt. Aus Versuchen aber die Form der Wellenfläche ableiten zu wollen, schien ihm kaum möglich, und so hatte er durch die geschil- derte geniale Induktion ihre Form streng genommen erraten, und zwar richtig erraten, denn das Experiment bestätigte sie vollkommen.

Nachdem die geometrische Lösung der Aufgabe gelungen war, galt es, sie Fresnei« physikalisch zu begründen. Fresnel begann damit, eine wichtige Grundlage Lushttheoric. der Elastizitätstheorie zu legen, indem er nachwies, daß es in einem anisotropen Mittel stets drei aufeinander senkrechte Richtungen gibt, in denen die Ver-

550 26. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

Schiebungen gleichgerichtete, jedoch untereinander im allgemeinen verschie- dene Kräfte wachrufen. Für eine beliebige Verschiebung wurde dann die zu- gehörige Kraft gefunden, indem man sie in drei Komponenten nach jenen ausgezeichneten Richtungen zerlegte und die zugehörigen Kräfte wieder zu- sammensetzte.

Für die Ausbreitung des Lichtes in einem solchen Mittel nahm Fresnel fer- nerhin an, daß seine Kompressibilität gleich Null sei und demgemäß die Schwin- gungen genau der Wellenebene entlang erfolgten. Die für die Schwingungen maßgebenden Kräfte sollten ferner die gleichen sein, als ob nur der in Betracht gezogene Punkt sich, allein bewegte, während die anderen in Ruhe blieben, un- abhängig davon, in welcher Richtung sich die Welle fortpflanze, und nur die in die Wellenebene fallende Komponente der Kraft sollte ihm Beschleunigung er- teilen können. Demnach konnten nur diejenigen Schwingungen sich unverändert im Kristall fortpflanzen, die Kräfte wachriefen, deren in die Wellenebene fallende Komponente mit der Richtung der Schwingungen zusammenfiel.

Aus diesen Grundsätzen gelang es in der Tat Fresnel, die oben ange- gebene Konstruktion abzuleiten.

Für die Schwingungsrichtung des Lichtes folgte ferner eine zur Polarisa- tionsebene senkrechte Lage, da bei einachsigen Kristallen die Polarisationsebene stets mit dem Hauptschnitt, d. h. der durch die optische Achse und den Strahl gelegten Ebene, zusammenfiel, unabhängig von der Richtung des Strahles. Suchte man nämlich zu diesem die Schwingungsrichtungen nach obiger Kon- struktion, indem man das EUipsoid durch die Wellenebenen schnitt, so war von den beiden Achsen der Schnittellipse nur die zur Hauptachse senkrechte von stets gleicher Größe. Nur sie ergab daher die konstante Fortpflanzungsgeschwin- digkeit der zugehörigen Welle, wie es für die Welle des ordentlichen Strahles verlangt werden mußte.

Es blieb nicht verborgen, daß die Fresnel sehe Theorie nicht den Anforde- rungen entsprach, die man an eine strenge Theorie stellen muß, die alle ihre Ergebnisse nur aus den Grundannahmen ableitet ohne weitere Zusatzannah- men. Und doch erwies sie sich später in all ihren Grundsätzen richtig, die man nur in die Sprache der elektromagnetischen Theorie zu übersetzen brauchte, um ihnen zugleich die angemessene theoretische Begründung zu geben.

Binnen weniger Jahre hatte Fresnel durch die beiden Grundsätze der Interferenz der Huygensschen Elementarwellen und der Transversalität der Lichtschwingungen fast die gesamte Optik der Wellentheorie unterworfen und damit ihren Sieg vorbereitet, den er freilich selbst nicht mehr erlebte. Die Wel- lentheorie hatte den Stand erreicht, wo die Folgerungen nur in jeder Richtung ge- zogen zu werden brauchten, um neue merkwürdige Erscheinungen vorherzu- sagen, die später exp.erimentell bestätigt wurden. Eine solche besonders auf- Die konUchc fallende Erscheinung ist die 1832 von Hamilton (1805— 1865) vorhergesagte Refraktton. ^^^ j^^j.^ darauf von Lloyd (1800— 1881) experimentell bestätigte „konische , Refraktion**, die aus der Natur der Wellenfläche vierten Grades hervorging.

Diese besitzt nämlich vier Nabelpunkte, in denen die Tangentialebenen die Wel-

Fresnels elastische Lichttheorie. Polarisationsapparate ^ji

lenebenen eines konischen Strahlenbündels bilden, in das der Strahl bei ge- eigneter Anordnung zerfällt

Wenn dieser glänzenden Theorie noch allerlei Mängel anhafteten, so darf man es dem schon 1827 verstorbenen Fresnel nicht verargen, daß er seinen Nachfolgern auch noch etwas zu tun übrig ließ.

19. Polarisationsapparate. Unter dem Kampf der beiden Theorien PoUrUationi. hatte die Optik eine ungeahnte Entwicklung erfahren und eine Reihe von Ap- '"^p***'** paraten ins Leben gerufen, die auf die Physik und die benachbarten Wissen« Schäften in mancher Hinsicht befruchtend gewirkt haben.

An Stelle der früher benutzten, teils unbequemen, teils unvollkommenen Polarisationsapparate lernte man allmählich geeignetere Polarisatoren konstruie- ren. Als ihr Typus kann das Prisma von Nicol (1768— 1851) gelten, der einen Nicoit Pruma. geeignet abgeschliffenen Kalkspat durchschnitt und mit einer dünnen durch- sichtigen Schicht von Kanadabalsam wieder zusammenklebte. Der ankom- mende Lichtstrahl wird dann vom Kalkspat in zwei polarisierte Strahlen zer- legt, deren einer an dem Balsam total reflektiert und dadurch beseitigt wird. So erhält man einen Apparat, der wie Glas durchsichtig ist und zugleich eine Richtungsänderung des Strahles nicht herbeiführt.

Wie bereits aus den früher besprochenen Entdeckungen hervorging, er- fährt das Licht in Kristallen merkwürdige Veränderungen,. die auf ihre verbor- gene Struktur Schlüsse zu ziehen gestatten. So wurden die Polarisationsappa- rate ein unentbehrliches Hilfsmittel für die Mineralogie.

Dieselben Polarisationsapparate dienten, in mannigfacher Form abgeän- dert, auch zur Untersuchung der von Biot entdeckten Drehung der Polarisa- tionsebene in Flüssigkeiten.

Insbesondere gestatten diese in Form von „Saccharimetern**die Kon- Zucker- zentration von Zuckerlösungen zu bestimmen und wurden ein wichtiges Hilfs- "**"*"'*°*- mittel einerseits für Zuckerfabriken, anderseits für den Arzt, der den Zucker- gehalt des Harnes von Zuckerkranken feststellen will.

20. Fraunhofersche und Schwerdsche Beugungserscheinun- Fraunhofer« gen im parallelen Licht. Rowlandsche Gitter. Mondhöfe. Während ""bcu^^I-^* Fresnel hauptsächlich die Interferenz des Lichtes in beliebigen Punkten des •"^^"'*""^*°- Raumes untersuchte, in denen sich die Lichtstrahlen schneiden, untersuchte Fraunhofer (1787— 1826) die Interferenz paralleler Strahlen, die er nachher

mit Linsen sammelte. Verschiedene Formen von Öffnungen, rechteckigen, drei- eckigen, kreisförmigen und gitterförmigen boten die mannigfaltigsten Erschei- nungen, die Schwerd (1792-— 1871) quantitativ genau aus der Fresnelschen Theorie berechnete.

Von besonderer Bedeutung aber wurden die Interferenzerscheinungen, die durch eine große Anzahl paralleler sehr feiner Öffnungen entstanden. Es sind das Erscheinungen, die zum Teil schon von Hooke beobachtet worden waren und sich in den Schillerfarben mancher feingestrichelter Gegenstände, wie der Flügel der Schillerfalter kundgeben.

Bildet man einen feinen Spalt mit Hilfe einer Linse auf einem entfernten Bcugunpapektra

durch Gitter.

552 26. Otto Wiener: Entwicklung der WeUenlehre des Lichtes

Schirme ab, unter Zwischenschaltung eines durch solche feine Striche herge- stellten Gitters, so erblickt man neben dem nichtabgelenkten Bilde nach beiden Seiten hin eine Reihe annähernd gleichweit abstehender Beugungsbilder.

Sie kommen dadurch zustande, daß die von benachbarten Gitterspalten ausgehenden Wellen einen Gangunterschied besitzen, der das Ein- oder Mehr- fache einer ganzen Wellenlänge beträgt, so daß die Teilwellen von allen Spalten in den Bildern einander verstärken. An den Stellen zwischen den Bildern wird die Lichtwirkung durch Interferenz um so mehr aufgehoben, je größer die Anzahl der Spalte ist. Dabei entstehen die ersten Bilder neben dem unab- gelenkten oder die Bilder ,, erster Ordnung** durch die jenigen Wellen, bei denen jener Gangunterschied eine Wellenlänge beträgt, die Bilder „zweiter Ordnung**, wenn er zwei Wellenlängen beträgt, usf.

Je größer nun die Wellenlänge ist, je mehr die zugehörige Farbe also im Spektrum nach Rot zu liegt, einer um so größeren Ablenkung bedarf es, um die erforderlichen Gangunterschiede hervorzubringen. Deshalb muß sich jedes einzelne Beugungsbild in ein farbiges Band auflösen, das s(^. Beugungs- spektrum, das sich von dem prismatischen also dadurch unterscheidet, daß darin Violett am schwächsten, Rot am stärksten abgelenkt erscheint.

Je enger man die Spaltabstände wählt, einer um so größeren Ablenkung bedarf es gleichfalls, um die erforderlichen Gangunterschiede hervorzubringen. Wünscht man also eine starke Farbenzerstreuung oder Dispersion, so bedarf es einer sehr engen Linienführung. Einer solchen ist nur ein hartes Material fähig. Man ritzt daher Striche in Spiegel auf Spiegelmetall mit dem Diamanten und benutzt das reflektierte statt des durchgehenden Lichts, wobei die un- geritzten Streifen die frühere Rolle der Spalte übernehmen. Solche Beugungs- RowUnds Gitter. gitter hat insbesondere Rowland (1848—1901) durch automatische Apparate herzustellen gelehrt, die zur Vermeidung störender Längenänderung des Spiegels in Räumen konstanter Temperatur ihr Werk verrichten.

Diese Gitter liefern die vollkommensten Spektren und sind ein unentbehr- liches Hilfsmittel der modernen Spektroskopie.

Nun hatte Fraunhofer auch gezeigt, daß ein mit Hilfe eines feinen Spal* tes hergestelltes Sonnenspektrum von feinen dunklen Linien durchzogen ist, die die Farbe des Spektrums, in der sie liegen, in viel schärferer Weise wie bis* her festzulegen gestatten. Ihre Wellenlänge kann mit Hilfe eines guten Row- land sehen Gitters auf ungefähr den hundertsten Teil eines milliontel Milli- meters genau bestimmt werden. Mondhöfe. Beugungserscheinungen ähnlicher Art, hervorgebracht durch kleine Tröpf- chen, beobachtet man, wenn man etwa in einer Winternacht durch eine beschla- gene Fensterscheibe hindurch ein Licht betrachtet. Dies erscheint dann von schönen farbigen kreisförmigen Beugungsringen umgeben. In gleicher Weise erklärt sich auch der enge farbige Hof, mit dem man den Mond bisweilen durch einen Nebelschleier hindurch erblickt.

Nicht zu verwechseln mit diesem engen Mondhof ist der farbige Ring, den man mitunter im Abstand von etwa 22^ um den Mond herum erblickt. Dieser

Beugungserscheinungen. Kohärenz der Lichtwellen 553

wird durch die Brechung des Lichtes in schwebenden, prismatischen Eiskriställ- chen bedingt.

21. Kohärente Lichtwellen. Interferenz bei großen Gangun- Kohären* terschieden. Interferenzialapparate. Interferenz an dünnenBlätt- chen von molekularer Dicke. Young benutzte zu seinen Interferenz- versuchen zwei Lichtquellen, die nicht voneinander unabhängig waren, viel- mehr von zwei Löchern herrührten, die durch ein vorgeschaltetes einfaches Loch ihr Licht empfingen. Warum konnte er nicht zwei von verschiedenen Lichtquellen beleuchtete Löcher verwenden ? In solchem Falle ließ sich in der Tat keinerlei Interferenzerscheinung hervorbringen. Das war aber auch nicht zu erwarten. Denn damit beispielsweise ein Maximum der Interferenzerschei- nung entstünde, ist es nötig, daß die beiden Lichtquellen stets in gleicher Weise zusammentreffen. Bei der Unregelmäßigkeit, die bei der Erzeugung der Licht- wellen anzunehmen ist, muß es bei zwei voneinander unabhängigen Licht- quellen ebenso häufig vorkommen, daß sie die Wellen in gleicher, wie daß sie sie in entgegengesetzter Phase aussenden.

Anders liegt aber die Sache, wenn die zur Interferenz gelangenden Licht- quellen ursprünglich von ein und derselben Lichtquelle ausgehen. Zwei solche Wellen nennt man „kohärent**.

Aus den Fresnel- Ar ago sehen Interferenzversuchen mit polarisiertem Lichte geht hervor, daß nicht einmal die beiden aufeinander senkrechten Schwingungen einer einzigen Lichtquelle kohärent sind.

Wenn man nun von kohärenten Wellen ausging, so trat die neue Frage auf, wie lange die Kohärenz anhält, d. h. wie viele Schwingungen eine Lichtquelle aussendet, ehe der Zusammenhang gestört wird. Diese Frage kommt auf das- selbe hinaus wie die andere, wie groß nämlich der Gangunterschied zweier Wel- len sein kann, ohne daß ihre Interferenzfähigkeit aufhört.

Diese Frage war von Fizeau (1819—1896) und Foucault (1819— 1868) intarf««»«« aufgegriffen worden und sie fanden, daß bei 60000 Schwingungen die Inter- untenchiedeiL ferenzfähigkeit nicht aufhörte. Diese Zahl wurde später von Michelson auf 540000, von Fabry und Pörot auf 790000 und endlich von Lummer und Gehrcke auf 2600000 gesteigert, ohne daß man bereits an einer Grenze ange- langt wäre.

Die letzte Zahl entspricht einem Lichtweg von über einem Meter und einer

Zeit von etwa ■—t-ttt—— Sekunde. Diese Zahl ist insofern nicht erstaunlich,

300 000 000 '

als sich die Zahl der Stöße einer Gasmolekel, die den regelmäßigen Schwin- gungsverlauf stören könnten, zufolge der Gastheorie zwar unter Atmosphären- druck nach Milliarden in der Sekunde berechnet, bei den Drucken aber, unter denen die bei jenen Versuchen benutzten Gase leuchten, noch nicht einmal nach Millionen.

Diese Untersuchungen förderten wesentlich die Methoden der Interf eren- interfcrenxui. zialapparate und wurden ihrerseits durch die Entwicklung dieser Apparate ge- fördert. Während nun Fizeau noch durch wechselnde Dicken hervorgebrachte

554 ^^* Otto Wiener: Entwicklung der W«llenlebre des Lichtes

Interferenzerscheinungen benutzte, hatte schon Newton Interferenzerschei- nungen bei dicken Platten beobachtet, die auf anderem, ihm freilich verborgen gebliebenen Wege zustande kamen. Bei diesen dicken Newtonschen Platten wird nämlich der wechselnde Phasenunterschied durch eine zunehmende Neigung der Lichtstrahlen bei konstanter Dicke erzielt. Dabei kommt es nicht darauf an, daß diese Platte etwa aus einer Glasplatte besteht, sie kann auch aus einer Luftplatte bestehen, die durch zwei Spiegel begrenzt ist. So entstand die Reihe der Interferenzialapparate nach Haidinger (1795— 1891), Lummer, Michelson, Fabry und P^rot, Lummer und Gehrcke.

Der Interferenzialrefraktor von Jamin (1818— 1886) kompensiert die gro- ßen Gangunterschiede durch Verwendung zweier dicken Platten, die zugleich die Teilstrahlen in so großen Abstand voneinander bringen, daß man die Ände- rungen des optischen Weges bequem beobachten kann, die durch Einschaltung eines zu untersuchenden Körpers oder eines mit optischen Dichteänderungen verbundenen Vorgangs, wie etwa einer Schallwelle, hervorgebracht werden. Micheisons Bcsondcre Bedeutung hat neuerdings das Stufengitter** von Michel- stu "Kitt^'sQu gewonnen, das aus einer Treppe von Glasplatten gleicher Dicke aufgebaut ist und eine noch weitergehende Zerlegung von Spektrallinien gestattet, als die besten Rowlandschen Gitter. MetemiJiB Die Beobachtung der Interferenz bei so großen Wegunterschieden ermög-

"°*^ ^uto|^*"*° ^^^^^ zugleich einen unmittelbaren Vergleich zwischen dem Metermaß und der Wellenlänge einer bestimmten Spektrallinie, wie dieser von Mac 6 de Löpinay, Michelson und Benoit ausgeführt wurde. Man hat darauf fußend sogar daran gedacht, das Metermaß auf die Länge einer Lichtwelle zurückzuführen. Freilich ist es nicht möglich, diese Vergleichungen mit derselben Genauig- keit durchzuführen, wie die Vergleichung zweier Meterstäbe. Aber wenn sämt- liche Meterstäbe der Erde verloren gingen oder sich mit der Zeit änderten, so würde die Kenntnis der in Metern ausgedrückten Länge einer Lichtwelle das alte Metermaß mit einer immer noch erheblichen Genauigkeit wiederherzu- stellen gestatten, siibenpiegei Während diese Methoden sich auf die Interferenz mit großem Gangunter- "^ Dicke?' schiede beziehen, erweist sich die außerordentliche Kleinheit der Lichtwelle ge- eignet, die Größe noch kleinerer Objekte zu messen. So ist es gelungen, die Dicke eines eben noch sichtbaren Silberbelages eines Glasspiegels zu bestim- men, und man fand ihn von der Dicke von etwa 0,1 milliontel Millimeter, das ist eine Größe, welche nach der kinetischen Gastheorie den Dimensionen der Molekeln gleichkommt.

DoppiertPriMip. 22. Das Dopplersche Prinzip. Durch die außerordentliche Verfeine- rung der Spektralapparate, von der soeben Beispiele gegeben wurden, bzw. durch die Möglichkeit, die Lichtwellenlänge auf einen kleinen Bruchteil ihrer Größe genau zu messen, hat ein von Chr. Doppler (1803— 1853) geäußerter Gedanke ungeahnte Bedeutung erhalten, der ohnedem nur von theoretischer Wichtigkeit geblieben wäre.

Man denke sich, man hätte an der Straße einer belebten Stadt Stellung

Neuere Interferenzapparate. Dopplers Prinzip 555

genommen, in der in regelmäßiger und häufiger Folge elektrische Wagen nur in einer Richtung vorbeifahren, so wird man in einer Stunde eine bestimmte Anzahl von Wagen vorüberfahren sehen. Steigt man selbst in eine Droschke und fährt in gleicher Richtung mit den Straßenbahnwagen .und mit gleicher Geschwindigkeit, so wird man überhaupt. keinem begegnen. Fährt man aber den Wagen entgegen, mit gleicher Geschwindigkeit, wie diese sich selbst be- wegen, so wird man der doppelten Zahl Wagen begegnen, als wenn man stehen- geblieben wäre. In dem allgemeineren Falle, wobei man sich mit geringerer Geschwindigkeit als die Wagen bewegt, wird man, ihnen entgegenfahrend, mehr, mit ihnen in gleicher Richtung fahrend, weniger Wagen in derselben Zeit begegnen.

Jetzt denke man sich statt der Wagen die Wellenberge irgendwelcher Art von Wellen, so wird man, sich den Wellen entgegenbewegend, in der Zeiteinheit einer größeren Zahl, sich mit ihnen in gleicher Richtung bewegend, einer klei- neren Zahl begegnen. Sind diese Wellen Schallwellen, so wird man also, den Wellen entgegenbewegt, eine größere Zahl von Wellen in derselben Zeit mit dem Ohr auffangen und also einen höheren Ton wahrnehmen, von ihnen wegbewegt einen tieferen, und es werden entsprechende Änderungen eintreten, wenn die Schallquelle sich auf den Beobachter zu- oder von ihm wegbewegt. Dies zu er- proben hat jeder leicht Gelegenheit, der in einem elektrischen Wagen an einem anderen vorüberfährt in dem Augenblick, wo der Führer des begegnenden Wa- gens ein Glockenzeichen gibt. In dem Augenblick des Vorbeifahrens verwan- delt sich die Annäherung der Schallquelle in eine Entfernung und in dem- selben Augenblicke hört man den Glockenton nach unten umspringen.

In ähnlicher Weise müßte die Farbe einer Lichtquelle nach dem kurz- welligen Ende des Spektrums, also nach Violett hin, verschoben erscheinen, wenn eine Annäherung von Lichtquelle und Beobachter stattfindet, nach der entgegengesetzten Seite, wenn eine Entfernung erfolgt.

Doppler selbst hatte geglaubt, daß nach dem soeben dargelegten, von ihm aufgestellten Prinzip die Farbe der Fixsterne in sichtbarer Weise durch ihre Bewegung verändert werden könne. Er bedachte freilich nicht, daß merkliche Farbänderungen Geschwindigkeiten der Fixsterne von einer Größe voraus- setzen, die mit der Lichtgeschwindigkeit von gleicher Ordnung ist, während diese Geschwindigkeiten im allgemeinen kaum an den tausendsten Teil der Lichtgeschwindigkeit heranreichen. Richtet man aber das Augenmerk auf die Lage der Spektrallinien, etwa der Fraunhoferschen Linien im kontinuierlichen Spektrum eines Sternes, so lassen sich deren Verschiebungen mit ausreichender Schärfe beobachten.

Durch Beobachtungen solcher Art ist in der Tat ein ganz neues Gebiet der Spektralanalyse eröffnet worden, nicht bloß wichtig für den Astronomen, sondern auch für den Physiker.

Denn auch die leuchtenden Teile eines Dampfes bewegen sich nach den Anwendung Vorstellungen der kinetischen Gastheorie mit großen Geschwindigkeiten. D^'^'^hl^^^^' sie sowohl zum Auge hin als vom Auge weg erfolgen, so muß daraus eine Ver- Moi«^«in.

556 26. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

breiterung einer sonst homogenen Spektrallinie hervorgehen, wie sie besonders Michelson mit Hilfe seines Interferometers in der Tat festgestellt hat, als glänzende Bestätigung der kinetischen Gastheorie auf einem ihr bis dahin fremden Gebiete, j. Stark. Noch wichtiger ist der von J. Stark 1905 entdeckte Doppler- Effekt in

tnKmiiaiitrmhien.Klanalstrahlen geworden, durch den die Geschwindigkeit jener positiv gelade- nen Ionen in hochverdünnten Gasen gemessen werden kann, die durch die Kanäle der Kathode einer Geißlerschen Röhre in einer den Kathodenstrahlen entgegengesetzten Richtung weggeschleudert werden (vgl. Artikel 22, S. 462). Bimdieys 2$. Aberratiou der Fixsterne. Fizeausche Versuche der Mit-

Aolf^t^n^dtr ^^^"^^^S d^s Äthers. Die Römer sehe Bestimmung der Lichtgeschwindig- Fizsterne. j^eit wurde bald danach von Bradley (1692— 1772) mittels einer ganz anders- artigen Methode bestätigt. Bradley entdeckte nämlich, daß die Fixsterne im Laufe des Jahres eine kleine in sich zurückkehrende Bewegung ausführen, die er auf die Relativbewegung der Erde gegen das Fixstemlicht zurückführen konnte. Dabei scheint das Licht in einer ähnlichen Weise seine Richtung zu ändern, wie ein fallender Tropfen, wenn der Beobachter sich selbst bewegt wie etwa im Eisenbahnzuge. Die scheinbare Richtungsänderung gestattet, das Verhältnis der Geschwindigkeit der Erde zu der des Lichtes zu bestimmen, und da die Geschwindigkeit der Erde bekannt ist, so konnte daraus die des Lichtes berechnet werden und wurde in genügender Übereinstimmung mit der von Römer erhaltenen Zahl gefunden.

Die Mitfüiimng Das Auffällige bei dieser Beobachtung war, daß das Sternenlicht durch

wegten Korpern. seinc Ausbreituug in der Erdatmosphäre in keiner Weise gehindert erschien, und es trat die Frage auf, ob der Träger der Lichtwellen, der Äther, in keiner Weise durch die Bewegung des ihn umgebenden materiellen Körpers beein- flußt werden könnte. Arago prüfte sie 18 10 experimentell und stellte fest, daß auch die Brechung in Prismen den Betrag der Aberration in keiner Weise än- dert. Auf seine Veranlassung unterwarf sie Fresnel 1818 einer theoretischen Untersuchung und gelangte zu einer Erklärung der Aberration durch die Annah- me, daß der freie Äther nicht an der Bewegung der Erde teilnimmt, sondern nur derjenige Teil des Lichtträgers in der Materie, der die Abweichung der Licht- geschwindigkeit von der im freien Äther bedingt. Er gelangte so zur Berech- nung eines „Mitführungskoeffizienten'', dessen Betrag später durch Fizeau experimentell bestätigt wurde. Fizeau ließ zwei Lichtstrahlen zur Interferenz gelangen, deren einer durch zwei Röhren im Sinne darin bewegten Wassers, deren anderer durch dieselben Röhren im entgegengesetzten Sinne hindurch- ging. Fizeau beobachtete eine Verschiebung der Interferenzstreifen, die die Fresne Ische Formel bestätigte. Hypothe«* Die Fresnelsche Hypothese des „ruhenden Äthers** wurde später von

Ä^rT". *°H. A. Lorentz wieder aufgenommen, der den Mitführungskoeffizienten 1892 auf Grund der elektromagnetischen Lichttheorie ableitete (vgl. Artikel 1 5 und 34).

smgnacverwch j)^^ B r ad 1 cyschc Versuch hat neuerdings durch G. Sagnac eine reiz-

volle Übersetzung aus dem Astronomischen in das Terrestrische erfahren.

Aberration. Ultrarote Strahlen

557

Sagnac läßt zwei Lichtstrahlen mit Hilfe von Spiegeln auf einem kreis- förmigen starren Aufbau annähernd in der Peripherie eines Kreises in ent- gegengesetzter Richtung umlaufen und sie dann zur Interferenz gelangen. Lichtquelle und aufzeichnende photographische Platte befinden sich mit auf dem Aufbau. Läßt man diesen rotieren, so wird eine Verschiebung der Inter- ferenzstreifen aufgezeichnet, die genau so erfolgt, als ob die Ausbreitung des Lichtes in einem ruhenden Äther stattfände.

24. Ultrarote und elektrische, 'ultraviolette und Röntgen- uitnrote ätherwellen. Die Begrenzung des dem Auge sichtbaren Sonnenspektrums ist"** stnlhi^^*"* nur eine scheinbare. Jenseits des Rot hat F. W. Herschel (1738— 1822) 1800 zum ersten Male durch ein geschwärztes Thermometer dem Auge unsichtbare Strahlen nachgewiesen, die jetzt als ultrarote Strahlen bezeichnet werden. Jen- seits des Violett haben J. W. Ritter (1776— 1810) 1801 und Wollaston 1802 durch chemische, bzw. photographische Wirkung Strahlen nachgewiesen, die man als ultraviolette Strahlen bezeichnet.

Man spricht zwar auch gelegentlich von ultrarotem und ultraviolettem Licht, doch ist eine solche Ausdrucksweise zu verwerfen, da nach dem allge- meinen Sprachgebrauch das Licht etwas ist, was im Auge die Empfindungen der Helligkeit und der Farbe hervorbringt. Indem man den Ausdruck Licht auch für unsichtbare Strahlen benutzt, richtet man leicht eine Begriffsverwir- rung an.

Daß jene ultraroten und ultravioletten Strahlen sich in nichts anderem unterscheiden, als durch die Wellenlänge, die für die ultraroten größer, für die ultravioletten kleiner ist als für die sichtbaren Strahlen, wurde durch mannig- faltige Forscherarbeit erwiesen. Insbesondere haben sich M e 1 1 o n i (i 798— 1 854), J, D. Forbes (1809— 1868) und Knoblauch (1820— 1895) gegen die Mitte des 19. Jahrhunderts das Verdienst des Nachweises erworben, daß die ultra- roten Strahlen den Erscheinungen der Spiegelung, Brechung, Interferenz, Beu- gung und Polarisation genau so unterworfen sind, wie die Lichtwellen.

Wenn sie gleichwohl keine Sehempfindung hervorbringen, so liegt das, wie Tyndall (1820— 1893) gezeigt hat, nicht an der Absorption der ultraroten Strahlen durch die Augenmedien, sondern an der Unfähigkeit der Netzhaut, solche Empfindungen auszulösen.

Die ultravioletten Strahlen dagegen können nach Helmholtz(i82i— 1 894) unter besonderen Vorsichtsmaßregeln im Auge eine zwar verhältnismäßig schwache, doch deutlich wahrnehmbare Wirkung hervorbringen. Der Farben- eindruck ist ein schwach ins Blau spielendes Grau, auch als Lavendelgrau be- zeichnet, und entsteht nicht ausschließlich durch die Fluoreszenz der Augen- medien.

Unzutreffend ist die anfangs versuchte Einteilung der Strahlen in Wärme-, Licht- und chemische Strahlen, da alle Arten von Strahlen chemische und Wär- mewirkungen hervorbringen können, nach Maßgabe der Fähigkeit der den Strahlen ausgesetzten Stoffe sie zu verschlucken und sie in Wärme- oder che- mische Energie umzusetzen.

558 26. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

Das äafiento Das ultfarote Spektrum hat zunächst Langley (1834— 1906) und später

^^ R u b e n s in immer wachsendem Umfang zugänglich gemacht. Dabei wurde zum Teil die Fähigkeit der Strahlen, den elektrischen Widerstand von dünnen Metall- drähten oder Blechen durch ihre Erwärmung zu verändern, mit Hilfe des „Bolo- meters**, zum Teil die Fähigkeit, die Thermosäule zu erregen, besonders in Verbindung mit einem leichten galvanometrischen Apparat, mit Hilfe eines Boys sehen Mikroradiometers ausgenutzt.

Da es schwierig ist, im Gebiete des äußersten Ultrarot eine Wirkung zu er- halten, wenn nicht ultrarote Strahlen geringerer Wellenlänge ausgeschlossen sind, so benutzte Rubens 1898 die sinnreiche Einrichtung, die Strahlen mehr- fach an geeigneten Stoffen, wie Steinsalz, Sylvin und Flußspat reflektieren zu lassen und die dabei übrigbleibenden „Reststrahlen" zu untersuchen. Das sind diejenigen Strahlen, die für die zugehörige Wellenlänge eine an Stärke der metallischen gleichkommende Reflexion erfahren. Neuerdings seit 1910 son- dert er die langwelligen Strahlen durch Verwendung von Quarzlinsen aus, deren Brennweite für diese Strahlensorte eine wesentlich andereist als für kürzer wellige. Mit der letzten Methode gelang es schließlich Rubens, ultrarote Strahlen nach- zuweisen, deren Wellenlänge die Größe von etwa Yj mm aufwies (vgl. Artikel 9). Die kürzesten Damit ist man nicht mehr weit entfernt von der Wellenlänge von 3~4 mm

*^wlue^n*° solcher Ätherwellen, die Lebedew (1866— 19 12) und Lampa auf elektrischem Wege hergestellt haben. Auch diese Wellen sind grundsätzlich der gleichen Art wie die bisher betrachteten, wenn ihre Verschiedenheit auch äußerlich hier weniger durch die Art, wie sie wahrgenommen, als wie sie hergestellt werden, bedingt ist.

Das äafierate Die ultraviolettcn Strahlen können teilweise durch Erregung der Fluores-

*^**'®^ zenz, teilweise durch ihre photographische Wirkung untersucht werden. Es galt lange Zeit die von Stokes erreichte Wellenlänge von 185 milliontel Milli- meter als die Grenze der uns zugänglichen ultravioletten Strahlen. Da wies ViktorSchumann nach, daß die außerordentlich starke Absorption der äußer- sten ultravioletten Strahlen durch Luft und durch die Bindemittel der photo- graphischen Platten die Ursache ihrer schweren Zugänglichkeit war. Als er die erste durch Benutzung eines luftleeren Raumes mit Hilfe eines Vakuumspek- trographen, die zweite durch Benutzung bindemittelfreier photographischer Platten beseitigt hatte, gelang es ihm, wesentlich weiter, nämlich bis etwa 127 milliontel Millimeter und später Lyman mit Schumannschen Methoden bis zu etwa 103 milliontel Millimeter vorzudringen.

Länge der Es kommt dann ein großes unerforschtes Gebiet, hauptsächlich bedingt

Röntgenwellen, ^j^^-^^j^ jj^ außerordentlich starke Absorption solcher Strahlen durch die Materie.

Dann folgen mit einer Wellenlänge von ein Hundertstel eines milliontel Milli- meters die Röntgenstrahlen, von denen E. Marx nachgewiesen hat, daß sie sich mit Lichtgeschwindigkeit ausbreiten. Ganz vor kurzem ist es Friedrich und K n i p p i n g auf Anregung von L a u e gelungen, die Beugung der Röntgenstrahlen an den Molekeln von Kristallen nachzuweisen und so die Wellenlänge der Strah- len verhältnismäßig genau zu bestimmen. Von den gewöhnlichen Lichtwellen

Ultraviolette und Röntgenwellen. Fresnels Reflexionstheorie 55Q

unterscheiden sich allerdings die Röntgenwellen durch ein sehr rasches Abklin- gen, so daß sie sich gegen die Lichtwellen mehr verhalten wie ein Knall gegen einen lang anhaltenden Ton von deutlicher Tonhöhe (vgl. Artikel 23).

Demnach kennt die heutige Physik für alle Ätherwellen, von den Röntgen- wellen über die ultravioletten, sichtbaren, ultraroten, bis zu den kurzen und den längsten elektrischen Wellen, die in der drahtlosen Telegraphie benutzt wer- den, keinen anderen Unterschied als den der Größe der Wellenlänge.

Sie sind also voneinander nur unterschieden wie etwa die kurzen Wasser- wellen, die ein Regentropfen hervorbringt, von den langen Wellen, die ein star- ker Sturm im Ozean erregt. .

25. Die Fresnelschen Reflexionsformeln und die mechani-DieFretneische sehen Lichttheorien des 19. Jahrhunderts. Wie der elementare Vor- der^S«ion. gang des teilweisen Zurückwerfens und des teilweisen Eindringens des Lichtes nach der Wellenlehre zustande kommt, ist bisher noch nicht erörtert worden. Auch in diesem Punkte ist Fresnel bahnbrechend vorgegangen.

Wenn es möglich wäre, daß die ganze Lichtenergie im zweiten Mittel bei- spielsweise bei senkrechtem Einfall unverändert bliebe, ohne daß ein Sprung in den von der Welle hervorgebrachten Zuständen einzutreten brauchte, so wäre kein Anlaß für die Zurückwerf ung des Lichtes; nun ist aber die Lichtge- schwindigkeit im allgemeinen im zweiten Mittel eine andere, infolgedessen wird durch denselben Querschnitt in der Zeiteinheit unter sonst gleichen Bedingun- gen eine andere Lichtenergie hindurchtreten, wie im ersten Mittel. Verlangt man zugleich die Erhaltung der Lichtenergie und die Stetigkeit der Licht- schwingungen an der Trennungsfläche, so ist das nur möglich, wenn ein Teil der Lichtenergie in das erste Mittel zurückgeworfen wird.

Die bereits ausgesprochenen Bedingungen für den Übergang des Lichtes durch die Grenzfläche sind die ,, Grenzbedingungen**, die Fresnel seiner Theo- rie zugrunde legte. Für eine senkrecht zur Einfallsebene schwingende Welle fand danach Fresnel die Amplitude des zurückgeworfenen Lichtes durch das Verhältnis der Sinusse zweier Winkel ausgedrückt: das Fresnelsche Sinus- gesetz, für die in dei: Einfallsebene schwingende durch das Verhältnis der Tangenten zweier Winkel: das Fresnelsche Tangentengesetz. Dabei be- steht der Winkel der im Nenner stehenden Tangente aus der Summe des Ein- falls- und Brechungswinkels. Steht nun der reflektierte Strahl auf dem ge- brochenen senkrecht, wie das nach Brewster für den Fall der vollständigen Polarisation sein muß, so wird die Tangente unendlich und die Amplitude des reflektierten Lichtes Null.

Nun steht nach dem Malusschen Experiment bei verschwindendem reflek- Die Licht, tierten Strahle die Polarisationsebene auf der Einfallsebene senkrecht. Gleich- **^al^krtcht ° zeitig erfolgen die Schwingungen nach der Fresnelschen Theorie in der Ein- "'^^°^^^^"*" fallsebene. So mußte sich Fresnel für die Annahme entscheiden, daß die Licht- Fresnei Schwingungen senkrecht zur Polarisationsebene erfolgen, während die Ex- perimente von Malus auch mit der Annahme verträglich gewesen wären, daß die Schwingungen i n der Polarisationsebene verlaufen.

560 26. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

widempräche In Dicse Frcsnclsche Theorie der Reflexion erforderte die Annahme, daß ^^ Theorie. die Elastizität des Äthers in den beiden aneinanderstoßenden Mitteln die gleiche sei. Da nun die Ausbreitungsgeschwindigkeit des Lichtes nach der Analogie der elastischen Wellen proportional der Wurzel aus dem Verhältnis der Elasti- zität zu der Dichte des Mittels ist, so mußte Fresnel annehmen, daß die Dichte in dem Mittel geringerer Ausbreitungsgeschwindigkeit größer sei.

Diese Annahme führte nun zu einem Widerspruch mit der Annahme der Möglichkeit verschiedener Elastizitäten bei Kristallen, die Fresnel zur Erklä- rung der kristalloptischen Erscheinungen nötig hatte.

Dazu kam noch eine weitere Schwierigkeit, die darin bestand, daß die Nor- malkomponente der Schwingungen sich bei Fresnel unstetig ergab, eine Folge- rung, die mit den Vorstellungen des Äthers als eines elastischen Körpers nicht verträglich ist, da bei zwei materiellen elastischen Körpern, die aneinander stoßen, eine solche Unstetigkeit nicht vorkommen kann, ohne zu einem Aus- einanderreißen der Körper zu führen.

Fresnel starb zu früh, als daß es ihm möglich gewesen wäre, diese Schwierigkeiten seiner Theorie zu beseitigen. So hinterließ er seinen Nachfol- gern eine ebenso reizvolle wie schwierige Aufgabe. Zugleich aber wirkten seine Untersuchungen außerordentlich befruchtend auf die Theorie der Elastizität, die er selbst noch in keiner Weise ausgebaut vorgefunden hatte. Ausbau Navicr (1785 1836), Cauchy (1789— 1857) undPoisson legten in dem

festeneiastischen dritten Jahrzehnt des 19. Jahrhunderts den Grund zu einer Theorie der festen ela- Körpor. stischen Körper. Poisson wies insbesondere nach, daß in einem solchen Körper eine Erschütterung den Anlaß zu zwei Wellen gibt, die sich mit verschiedener Geschwindigkeit ausbreiten, und zwar einer transversalen und einer im allge- meinen rascheren longitudinalen.

Diese longitudinale Welle verursachte allen Vertretern der mechanischen Lichttheorie erhebliche Schwierigkeiten, da bei den Lichterscheinungen tat- sächlich longitudinale Wellen nicht in Erscheinung treten. Man suchte die Schwierigkeit dadurch zu umgehen, daß man ihre Energie als verschwindend klein voraussetzte und ihre Ausbreitungsgeschwindigkeit bald unendlich groß, bald unendlich klein annahm. Die elastischen Dcu Hauptanstoß, den die Elastizitätstheorie den Fr es n eischen Grenz-

von**M"cc^h l^^di^gu^^g^^^ gegenüber nehmen mußte, haben MacCullagh (1809— 1847) und und F. Neumann. Frauz Neumann(i 798 1 895) 1835 bei ihren Theorien beseitigt. Sie führten für die Verschiebung des Äthers die richtigen Grenzbedingungen ein, wonach sie durchaus stetig waren, also nicht nur mit ihrer tangentialen, sondern auch mit ihrer Normalkomponente. Als weitere Bedingung benutzten sie die Er- haltung der lebendigen Kräfte beim Vorgang der Reflexion und Brechung, eine Annahme, die allerdings mehr als Erfahrungstatsache denn als Folge der elasti- schen Theorie eingeführt wurde und die gleichbedeutend war mit der Annahme, daß die Energie der longitudinalen Welle gleich Null gesetzt wurde.

Um die Fresnelschen Reflexionsformeln zu erhalten, mußten sie dann im Gegensatz zu Fresnel annehmen, daß die Dichte des Äthers in allen Kör-

Die elastischen Lichttheorien des 19. Jahrhunderts 561

pern konstant, dagegen die Elastizität in den Körpern geringerer Ausbreitungs- geschwindigkeit ebenfalls geringer sein müsse und zugleich, daß die Schwingun* gen in der Polarisationsebene und nicht, wie Fresnel angenommen hatte, senk- recht dazu erfolgen. Damit war zugleich auch die Fresnelsche Schwierigkeit bei der Kristalltheorie überwunden, da nun ohne Widerspruch mit den für die Grenzbedingungen erforderlichen Annahmen verschiedene Elastizitäten für ver- schiedene Richtungen angenommen werden durften.

Und doch konnten auch diese Theorien nicht als strenge Elastizitätstheo- Gntxa Nach- rien gelten. Die Theorie der Elastizität verlangt nämlich, wie zuerst G. Green '^""^p^^*^®*^" (1793— 1 841) nachgewiesen hat, daß nicht bloß die drei Komponenten der ci»«- strengen Verschiebung, sondern auch die drei Komponenten der elastischen Kräfte ent- Lichttheone mit lang der Grenzfläche in beiden Mitteln die gleichen sein müssen, im Widerspruch *^ "*''^" mit den von MacCuIlagh und Neu mann benutzten Grenzbedingungen. Als Green aber mit den richtigen Grenzbedingungen der Elastizitätstheorie die Gesetze der Reflexion entwickelte, kam er zwar zu dem Fresnelschen Sinus- gesetz, dagegen zu einem vom Tangentengesetz in einem Maße abweichenden Gesetz, das die möglichen Beobachtungsfehler weit überschritt.

Diese Feststellungen von Green veranlaß ten MacCuIlagh zur Aufstel- MacCuUagh- lung einer neuen Theorie, die mit den Greenschen Bedingungen vereinbar war, ^^^^^^^ indem sie annahm, daß die potentielle Energie des Mittels nur von der Torsion, Äther. nicht von andern Formänderungen abhinge. Diese Annahme war freilich erkauft durch die Forderung des Vorhandenseins eines Mittels, zu dem man bisher keine mechanischen Analogien gefunden hatte, das aber große Ähnlichkeit mit dem später von Maxwell (1831 1879) bei seiner elektromagnetischen Theorie ange- nommenen Mittel besaß. Sir William Thomson (Lord Kelvin, 1824— 1908) versuchte später diesem nur mit Torsionselastizität behafteten Äther eine an- schauliche Vorstellung unterzuschieben, indem er die Annahme machte, daß darin Drehungsbewegungen nach Art eines Kreisels vorhanden seien, welche die Tor- sionselastizität verursachten. Freilich hatte man sich damit von der Vorstellung eines im gewöhnlichen Sinne elastischen Mittels bereits ziemlich weit entfernt.

Aus Anlaß der Green sehen Untersuchungen versuchte auch C a u c h y aufs cauchy- neue, die Forderungen der Elastizitätstheorie zu erfüllen, indem er annahm, ^jawie^Ttber. daß die auftretende longitudinale Welle die Ausbreitungsgeschwindigkeit Null besäße. Diese Annahme setzte aber einen Äther voraus mit negativer Kom- pressibilität, d. h. einen solchen, der auf einwirkende Druckkräfte nicht mit diesen entgegen- sondern gleichgerichteten Kräften antwortet. Diesem „labilen** Äther hat später Sir William Thomson eingehende Untersuchungen ge- widmet und ihn durch eine schaumige Masse von ganz bestimmten Eigen- schaften, die entweder durch Begrenzungen festgehalten oder von unendlicher Ausdehnung ist, physikalisch zu veranschaulichen gesucht. Durch derartige Bedingungen suchte er dem sonst labilen Äther eine tatsächliche Stabilität zu verleihen.

Zu dieser künstlichen Theorie gesellten sich noch andere nicht minder Da« scheitern der künstliche, von denen aber keine sich vollständig auf den Standpunkt der Ge- '**^*^^^^*"'

K. d. G. ni. izi,Bd I Phjrsik 35

j52 26. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

setze des elastischen Körpers stellen konnte, der durch die Untersuchungen von Green als mit den optischen Beobachtungen unvereinbar sich erwiesen hatte. Und so kann man die Frage aufwerfen, ob man denn überhauDt von vomhereiEi berechtigt war, zu verlangen, daß der Äther sich in jeder Hinsicht wie ein fester elastischer Körper verhalten solle. Diese Frage mußte im Gegenteil mit Nein beantwortet werden, schon im Hinblick auf die Bewegungen der Himmelskör- per durch den Äther hindurch, wenn auch der Wunsch als durchaus berechtigt und verständlich erscheint, daß man zunächst wenigstens den Versuch machte, die bekannten Eigenschaften der elastischen Körper auf denÄther zu übertragen. So gut man jetzt flüssige Kristalle kennt, so hätte man dem Äther in einer Hin- sicht die Eigenschaften einer Flüssigkeit und in anderer verwandte aber doch nicht ganz übereinstimmende Eigenschaften zuschreiben können, wie sie bei elastischen Körpern auftreten.

So hätte Fresnel bei seinen Grenzbedingungen bleiben können, die für die Normalkomponente der Verschiebung die Stetigkeit nicht verlangen, wohl aber für die in Bewegung gesetzte Masse, d. h. für das Produkt der Verschiebung und Dichte. Heranxieiien Daß man der Schwierigkeit, für die Kristalloptik verschiedene Elastizi-

derin den Äther täten in Verschiedener Richtung zu verlangen, entgehen könne, zeigten später «•^IIJJ^^j^ die Betrachtungen von St okes. Rankine (1820— 1872) und Lord Rayleigh, die auch bei Kristallen gleiche Elastizität des Äthers in allen Richtungen an- nahmen und das verschiedene Verhalten des Kristalls in verschiedenen Rich- tungen durch die Verschiedenheit der Rückwirkung der in den Äther einge- lagerten beweglichen Körpermolekeln erklärten. Das Verhalten der Kristalle war demnach so, als ob eine in verschiedenen Richtungen verschiedene Dichte vorläge. Derartige Vorstellungen sind dann später von Boussinesq genauer entwickelt worden und kehrten bei der Erklärung der Dispersionserscheinungen auch bei anderen Forschern wieder, auf die später noch genauer eingegangen werden wird. übenetzunK Einc wcsentliche Aufklärung all dieser Verhältnisse erfolgte durch die in Tn MMwei' ^^^ 50 er und 6oer Jahren des vergangenen Jahrhunderts entwickelte und in Theorie. Jen 70 er und 80 er Jahren allmählich zur Anerkennung gelangende elektromag- netische Lichttheorie Maxwells, und man kann sagen, daß die wesentlichen theoretischen Ansätze von Fresnel alle ihre Richtigkeit bewährt haben, wenn man nur die kinetische Sprache in die Sprache der elektromagnetischen Licht- theorie übersetzte, und zwar Verschiebung der Ätherteilchen mit elektrischer Verschiebung, Geschwindigkeit mit elektrischem Strom, bzw. elektrischem Ver- schiebungsstrom, Dichte mit Dielektrizitätskonstante. Man kann also von der Fresn eischen Theorie sagen, daß sie zwar nicht den Anspruch auf eine einheit- liche Theorie machen kann, aber doch unter Zugrundelegung der Mechanik entnommener anschaulicher Vorstellungen und Größen diese in ein richtiges Abhängigkeitsverhältnis gebracht, oder, wenn man will, denÄther durch richtige Größenbeziehungen definiert hat.

26. Experimentelle Versuche zur Entscheidung der Frage

Neueste Lichttheorien. Trübe Mittel 553

nach der Lage der Lichtschwingungea zur Polarisationsebene, Trübe Mittel. Himmelsblau. Stehende Lichtwellen. Lippmann- sche Farbenphotographie, Bei jeder Wellentheorie muß man sich dai über Die ver- klär werden, daß man stets von verschiedenen Arten von Schwingungen reden periodiacherVor- kann. Beim Schall kann man neben den Schwingungen der Luftteilchen noch ^ w"ie?°*' von den Schwingungen oder periodischen Änderungen der Dichte oder des Druckes sprechen. Beide Arten von Schwingungen verhalten sich in ver- schiedener Hinsicht verschieden. Während z. B. bei der Reflexion an einer festen Wand die Geschwindigkeit ihre Phase umkehrt, bleibt sie für die Dichte pder den Druck dieselbe.

Ebenso kann man bei einer Wasserwelle, statt der Erhebung der Wellen- oberfläche über die Gleichgewichtslage, die Neigungsänderung oder Verdrehung der Oberfläche in Betracht ziehen. Diese Verdrehung besitzt eine zur Richtung der Erhebung der Oberfläche senkrechte Achse und insofern könnte man von zwei verschiedenen Schwingungen reden, deren Richtungen aufeinander senk- recht stehen, und während die Phase der Verschiebungswelle des Wassers bei der Zurückwerfung von einer festen Wand keine Änderung erfährt, tritt eine Umkehrung der Phase für die Verdrehungswelle ein.

Welche Bewegung man nun für die Wellenbewegung ansieht, ist Sache der Auffassung oder Definition. Ein in die Welle eingetauchter, mit Empfindung begabter Körper, der nur ihre Auf- und Abwärtsbewegung wahrnimmt, würde die Verschiebungsschwingung als die wahre Schwingung auffassen. Ein anderer dagegen, der nur die Verdrehung empfindet, würde die dazu senkrechten Ver- drehungsschwingungen als die wahren Schwingungen ansehen.

Nun ist von vornherein klar, daß beide Arten von Lichtschwingungen bei fortschreitender Welle stets zu gleicher Zeit vorkommen und nicht voneinander getrennt werden können. Es müssen daher alle Versuche, die mit fortschreiten- den Wellen angestellt worden sind, von vornherein bei der Entscheidung der Frage nach der Schwingungsrichtung des Lichtes ausscheiden.

Gleichwohl mag hier ein besonders wichtiger Versuch erwähnt werden, der sich auf einen weit verbreiteten und reizvollen Vorgang bezieht.

Bringt man in reines Wasser ein paar Tropfen Mastixlösung und rührt gut Die trfiben um, so erscheint dieses Wasser jetzt im zurückgeworfenen Lichte in einer zarten blauen Färbung, im durchgehenden dagegen in der komplementären gelben. Es ist das die Erscheinung der „trüben Mittel**, die besonders durch Goethe be- rühmt geworden ist, der darin das „Urphänomen**sah, auf dem er seine ganze Farbenlehre aufbaute. Mit Goethe sah auch Brücke (1819—1892) in diesem Phänomen die Erklärung des Himmelsblaus, indem er annahm, daß feine Wasser- Du tropf chen und Staub, die in der Atmosphäre suspendiert sind, wie man neuerdings ^^°®^^^''"- wenn auch mit fraglichem Recht annimmt, auch die Luftmolekeln selbst, das Licht zerstreuen und dabei die blaue Farbe des Himmels hervorbringen.

Daß in der Tat das Licht, das von Teilchen, die gegen die Wellenlänge des Lichtes klein sind, zurückgeworfen wird, vorwiegend die kurzwelligen Strahlen des Spektrums enthält, hat Lord Rayleigh nachgewiesen, indem er

36*

564 2^' Otto Wiener: Entwicklung der Wellenlehrc des Lichtes

zeigte, daß die Intensität des zerstreuten Lichtes umgekehrt proportional der vierten Potenz der Wellenlänge ist.

Da bei diesem Vorgang der Lichtzerstreuung (scattering) keine Energie

verloren geht, so muß im durchgehenden Lichte die komplementäre Farbe, also

Gelb, erscheinen. Deshalb sieht auch der Abendhimmel in Nachbarschaft der

Sonne und die Sonne selbst tiefgelb oder rötlich aus.

Poiaritation des Nun haben Stokes und in eingehenden Untersuchungen besonders Tyn-

Lichts in trüben ** t> J

Mitteln. dall (1820— 1893) S^^^^S^t ^aß diese trüben Mittel und ebenso das Himmelslicht eigentümliche Polarisationserscheinungen aufweisen.

Läßt man nämlich einen horizontalen Lichtstrahl von der Seite her auf ein solches Mittel auffallen, das man von fern beobachtet, so stellt sich der nach vorn gehende Strahl als kräftig polarisiert heraus, und zwar in einer Ebene, die den ein- fallenden und zerstreuten Strahl enthält. Stellt man sich nun, was nahe liegt, vor, daß das zerstreute Licht die gleiche Schwingungsrichtung hat, wie das einfal- lende, so müssen die Schwingungen in vertikaler Richtung verlaufen, da sie in dem zerstreuten Strahle nicht horizontale Schwingungen ausführen können, die ja longitudinalen Schwingungen entsprechen würden. Mithin, so schließt man, müssen die Schwingungen senkrecht zur Polarisationsebene verlaufen.

Indes ist die Voraussetzung, daß die zerstreuten Schwingungen die gleiche Richtung haben, wie die einfallenden, nur für solche Theorien zulässig, welche annehmen, daß der eingebettete Körper eine Unstetigkeit und also Störung für die Lichtschwingungen selbst bedeutet. Nun haben wir aber gesehen, daß alle Theorien, die sich möglichst genau den Bedingungen der Elastizitätstheorie an- zuschließen versuchen, für die Schwingungen selbst an der Grenze zweier Mittel Stetigkeit verlangen, während die senkrecht dazu orientierten Verdrehungs- schwingungen einen Sprung erleiden müssen. Mithin müssen diese Theorien aus dem Stokes -Tyndallschen Versuch den Schluß ziehen, daß die Licht- schwingungen selbst in der Einfallsebene liegen. stebeadeWeiien. Anders liegen die Verhältnisse, wenn man nicht fortschreitende, sondern stehende Wellen (vgl. Artikel 2) der Untersuchung zugrunde legt. Darunter ver- steht man den Schwingungszustand der in der Nähe einer reflektierenden Wand auftritt. Dort laufen bei senkrechtem Einfall zwei entgegengesetzt gerichtete Wellen zusammen und bewirken, daß gewisse Punkte, die Schwingungsknoten, überhaupt in Ruhe bleiben, andere Punkte, die Schwingungsbäuche, in maxi- maler Bewegung sich befinden. Man kann solche stehende Wellen leicht in einer Badewanne, am Rand eines Teiches oder dem Ufer eines Sees beobachten.

Nun erkennt man, daß in dem Schwingungsbauche in der Tat keine Ver- drehungsschwingungen vorhanden sind, während umgekehrt im Schwingungs- knoten die Verdrehungsschwingungen ihr Maximum erreichen.

Würden nun beide Arten von Schwingungen mit Energieumsatz verbun- den sein, so müßte im Falle des Lichtes die Wirkung der Wellen im ganzen Räume vor einem Spiegel dieselbe bleiben. In Wirklichkeit ergab sich aber, daß nur diejenigen Schwingungen, die zur Polarisationsebene senkrecht stehen, eine Wirkung ausüben.

Schwingungshchtung. Stehende Lichtwellen 565

Als Reagens auf die Lichtwellen wurde 1889 von 0. Wiener ein photo- stehende graphisches Häutchen benutzt, das freilich, um die Wirkung auf Knoten und Bäuche getrennt hervortreten zu lassen, eine geringere Dicke als eine viertel Lichtwellenlänge, d. h. als etwa i25milliontel Millimeter haben mußte. In der Tat hatten die benutzten Blättchen eine Dicke von etwa 20 milliontel Millimeter. Analoge Versuche wurden später von Drude (1863— 1906) und N ernst, die als Reagens einen fluoreszierenden Stoff benutzten, mit grundsätzlich demselben Ergebnis ausgeführt.

Etwas Merkwürdiges haben die Versuche an sich, wenn man an folgendes Ergebnis denkt. Verschiebt man vor einem vollkommenen Spiegel ein solches Blättchen von seiner Berührung nach außen allmählich, indem man durch eine geeignete dazwischen gegossene Flüssigkeit dafür sorgt, daß vordem Spiegel kei- nerlei Reflexionen zustande kommen, so wird in gewissen Stellungen das Blätt- chen durch photographische Wirkung beeinflußt, in anderen Stellungen gar nicht, obgleich die Wellen in beiden Richtungen durch das Blättchen hindurch- laufen. Es ist das ein Versuch, der insofern die Wellennatur des Lichtes besonders deutlich kundgibt, als er in anderer Weise, wie etwa die Farben dünner Blätt- chen durch die Newtonschen Anwandlungen, nicht erklärt werden könnte.

Ein besonders reizvolles Experiment hat Li pp mann hier angeschlossen, Lippma&ns indem es ihm gelang, durchsichtige photographische Platten von größerer photo^a*phie. Dicke herzustellen, die vor einem Quecksilberspiegel exponiert wurden. An den Ebenen der Lichtbäuche trat dann die maximale Lichtwirkung ein, so daß dort nach der Entwicklung ein äußerst dünner Silberspiegel entstand. Diese voneinander je um eine halbe Wellenlänge abstehenden ,,Elementarspieger* verwandelten die photographische Platte in eine Gruppe von dünnen Blättchen, die, nachher im Tageslicht betrachtet, gerade die Farbe am stärksten zurück- werfen mußte, die vorher darauf eingewirkt hatte.

So entstand ein Verfahren der Farbenphotographie, mit Hilfe dessen man farbige Aufnahmen nach der Natur machen konnte. In die große Praxis hat das Verfahren allerdings wegen seiner Schwierigkeit noch keinen Eingang ge- funden.

Kehren wir nun zur Deutung der Ergebnisse der Beobachtungen an stehen- stehende den Lichtwellen hinsichtlich der Schwingungsrichtung des Lichtes zurück, so dioBchwto^uT^- kann ein bindender Schluß nur in der Weise gezogen werden, daß die für die '*''^°i,u^*' photographischen Wirkungen maßgebenden Schwingungen senkrecht zur Po- larisationsebene liegen, und nur in dem Fall, daß man annimmt, daß die Schwin- gungen selbst und nicht etwa die zugeordneten Verdrehungsschwingungen die photographische Wirkung bedingen, kann der Schluß gezogen werden, daß die Lichtschwingungen selbst auf der Polarisationsebene senkrecht stehen.

Definiert man freilich die Lichtschwingungen als diejenigen, welche die Wirkung auf das Auge hervorbringen, so würde der Schluß ohne weiteres ge- nau werden, da man die Wirkungen des Lichtes auf das Auge grundsätzlich als von gleicher Art wie auf die photographische Platte auffassen wird.

Sieht man nun genauer zu, so konnte für keine Lichttheorie etwas anderes

566 2^* Otto Wiener: Entwicklung der Wellenlehre des Lichtes

erwartet werden, als was die Experimente ergaben; denn eine Wirkung oder Ar- beit des Lichtes darf nur für eine solche Schwingung erwartet werden, die beim Übertritt von einem in das andere Mittel eine Unstetigkeit erfährt; die Stetigkeit der Schwingungen würde nämlich eine Abnahme der Amplitude und somit eine Arbeitsleistung ausschließen. 'Es wäre daher von einem solchen Standpunkt aus zu erwarten gewesen, daß die Lichtwirkungen an den Bäuchen derjenigen Schwin- gungen liegen, die an der Grenze zweier Mittel eine Unstetigkeit erfahren, das sind aber für alle Theorien die zur Polarisationsebene senkrechten Schwingungen.

Es soll damit nicht gesagt werden, daß diese Versuche überhaupt überflüs- sig waren, da man nie sicher sein kann, ob Folgerungen der Theorie auf einem von dem bisherigen weit abliegenden Beobachtungsgebiet ihre Bestätigung f in- den werden.

Zieht man aber noch die Aussagen der elektromagnetischen Theorie des

Lichtes zum Vergleich herbei, so gewinnen die Beobachtungen doch noch eine

weitergehende Bedeutung. In eine kurze Besprechung dieser Theorie soll jetzt

eingetreten werden.

FaradaysAn. 27« Elektromagnetische Lichttheorie. Normale und anomale

schaoungenund j)jgpgj.gjQjj des Lichtcs. Während noch die mechanischen Theorien des

Entdeckangen. *

Lichtes miteinander im Wettstreit lagen, gewann eine neue Theorie rasche Ver- breitung, die einem gänzlich anderen Boden entwachsen war. Der große Ex- perimentator Faraday (1791 1867) hatte sich, unbeeinflußt durch die New- tonsche Schultheorie, Vorstellungen über die Ausbreitung der elektrischen und magnetischen Kräfte gemacht (vgl. Artikel 1 3 u. 1 5). Wenngleich diese Kräfte nach Coulomb (1736 1806) einem dem Gravitationsgesetz völlig analogen Gesetze gehorchen, so konnte er sich nicht denken, wie ein elektrisch geladener Körper von einem anderen beeinflußt werden sollte, ohne daß ihm von dessen Vorhanden- sein durch das zwischenliegende Mittel Kunde zugetragen wird. So entdeckte er den Einfluß des „Dielektrikums'*. Im leeren Räume konnte dieses Dielektri- kum aber nichts anderes sein als der Äther selbst. Dies legte den Zusammen- hang zwischen elektrischen und magnetischen Erscheinungen einerseits und dem Licht anderseits nahe und Faraday entdeckte die magnetische Drehung der Polarisationsebene (vgl. Artikel 30). Gaofi' abMinte« Inzwischen war in Deutschland durch Gauß (1777— 1855) ein absolutes

Mafisyatem. jj^ßsystcm begründet worden, das magnetische und zufolge Wilhelm Weber (1804— 1890) auch elektrische Größen auf Länge, Zeit und Masse zurückzuführen gestattet, ohne daß man sich genauere Vorstellungen über das Wesen jener Größen zu machen braucht. Zwei Maßsysteme entstanden so, ein elektrisches und ein elektromagnetisches, und alle elektrischen und magnetischen Größen

MaBsysteme ließen sich in beiden ausdrücken. Bildete man nun etwa von einer Elektrizitäts- geschwindigkeit. menge das Verhältnis der elektrischen und elektromagnetischen Einheit, so stellte dieses Verhältnis eine Geschwindigkeit dar, und diese Geschwindigkeit er- gab sich gleich der Lichtgeschwindigkeit. Maxwell* ciek- Maxwcll, der die Faraday sehen Gedanken in mathematische Form goß,

uS^!** ^^g daraus den Schluß, daß elektromagnetische Störungen sich im Äther mit

Elektromagnetische Lichttheorie. Dispersion 567

Lichtgeschwindigkeit ausbreiten und entwickelte die „elektromagnetische Lichttheorie*', nach der die Lichtwellen in den Schwankungen elektrischer und magnetischer Kräfte im Äther bestehen (vgl. Artikel 15). Hertz (1857—1894) Herts'eiektro- lieferte die glänzende Bestätigung dieser Theorie, indem er elektrische Schwin- " wSS^.^* gungen erzeugen lehrte, die nach seinen Messungen sich in der Tat mit Lichtge- schwindigkeit ausbreiten und alle Erscheinungen der Reflexion, Brechung, Interferenz, Beugung und Polarisation aufweisen, die man vom Lichte her kannte (vgl. Artikel 14). Die drahtlose Telegraphie bildet eine großartige An- Wendung der Maxwellschen Theorie und der Hertzschen Experimente (vgl. Artikel 18).

Nach dieser Theorie fallen die elektrischen Schwingungen in die Richtung EiektriMhe der von Fresnel angenommenen Ätherschwingungen, die magnetischen in die s^h'^gnngen. Richtung der von Neu mann angenommenen. Eine Welle, die sich nur in Form . elektrischer Schwingungen ausbreitet, gibt es nicht, mit ihr ist notwendig eine dazu senkrechte, magnetische verbunden. Nur bei stehenden Wellen lassen sich beide Arten von Kräften voneinander trennen und die optischen Nachahmungen der Hertzschen Versuche mit stehenden Wellen ergab, daß die elektrischen Kräfte es sind, die die chemische Wirkung des Lichtes ausüben. Da man nun von der Elektrolyse her weiß, daß die elektrisch geladenen Atome, die man als Ionen bezeichnet, in einem elektrischen Felde sich bewegen, so ist es nicht un- wahrscheinlich, daß die Schwankungen elektrischer Kräfte im Äther mit gleich- gerichteten Bewegungen im Äther verbunden sind. So würde Fresnel mit sei- ner Annahme über die Schwingung des Lichtes recht behalten.

Im Anschluß an die Maxwellsche Theorie stellt man sich heute vor, daß Moiakoiare auch die Erregung und Absorption des Lichtes bedingt ist durch eine Art Hertz- scher Oszillatoren, freilich von molekularen Abmessungen, hervorgebracht durch Schwingungen oder durch kreisartige Umläufe elektrischer Teilchen, von denen die negativen unter dem Namen der „Elektronen" bekannt sind.

Mit diesen Vorstellungen steht in innigem Zusammenhang die Theorie der Fretnei-Caucbyi Dispersiondes Lichtes. Diese von Newton bereits entdeckte Erscheinung aar Dilpei^on. widerstand lange Zeit einer angemessenen Erklärung in der Wellentheorie. Fresnel selbst glaubte, daß sie dadurch zustande käme, daß in den Körpern die Atheratome nicht mehr in einem Abstand sich voneinander befinden, der gegenüber der Wellenlänge verschwindend klein ist, und Cauchy entwickelte auf Grund dieser Vorstellung eine Theorie, die ziemlich gut mit der normalen Dis- persion übereinstimmte, bei der der Brechungsexponent für Rot am kleinsten ist und gegen Violett beschleunigt anwächst. Da entdeckte im Jahre 1 862 F. P. Leroux, daß im Joddampf im Gegensatz dazu die roten Strahlen stärker ge- Anomale brochen werden als die violetten. Christiansen beobachtete eine solche a n o - "^**" °° male Dispersion" auch in Fuchsinlösungen und Kundt (1838— 1894) an anderen ähnlichen Lösungen von Stoffen mit Oberflächenfarben und wies nach, daß die Erscheinung an eine ausreichend starke auswählende Absorption ge- bunden ist.

Es war kein Zweifel, daß diese Erscheinungen bedingt waren durch eine

568 26. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

Reflonanz- Rückwifkung schwingcndcr Gebilde in den Körpermolekeln, und so entstand D^^rtion.' eine Erklärung auf dieser Grundlage kurz hintereinander in England durch Maxwell 1869 und unabhängig davon in Deutschland durch Sellmeier 1872 und Helmholtz 1875. Man stellte sich dabei zunächst auf den Standpunkt der mechanischen Lichttheorie. Später übersetzte Helmholtz seine Theorie in die elektrische Sprache, und besonders Drude baute auf dieser Grundlage weiter. Einerlei, ob der Standpunkt mechanisch oder elektrisch war, die Erklärung lief auf dasselbe hinaus. Man nahm in den Körpermolekeln eigene Schwingungen an, die durch die ankommenden Lichtschwingungen angeregt werden, und zwar um so stärker, je näher die Eigenschwingungen mit den erregenden Schwingun- gen zusammenfallen, ein Vorgang ähnlicher Art, wie man ihn in der Akustik unter dem Namen der Resonanz schon kannte. Für die Eigenschwingung wurde nun eine Dämpfung angenommen, welche die Umsetzung der Lichtenergie in Wärme- energie bedingte. So war die Erscheinung an die Absorption des Lichtes gebunden und die auf der Theorie der erzwungenen Schwingungen fußende mathematische Analyse ergab, daß für solche ankommende Schwingungen, für die die Schwin- gungsdauer größer als die der Molekularschwingungen war, eine Hemmung der Schwingungen eintrat, als ob die Dichte des Äthers oder die Größe der Dielek- trizitätskonstante zugenommen hätte, d, h. die Ausbreitungsgeschwindigkeit mußte verlangsamt und dementsprechend der Brechungsexponent vergrößert erscheinen. Umgekehrt ergab sich für solche ankommende Schwingungen, für die die Schwingungsdauer kleiner war als die der Molekularschwingungen, eine Beschleunigung der Schwingungen, als ob die Dichte des Äthers oder die Größe der Dielektrizitätskonstante geringer geworden wäre, d. h. die Ausbreitungs- geschwindigkeit mußte vergrößert und der Brechungsexponent verkleinert er- scheinen. Dadurch kommt das merkwürdige Ergebnis zustande, daß, der allge- meinen Regel widersprechend, kurzwellige Strahlen einen kleineren Brechungs- exponent aufweisen als langwellige. Metaiireflezion. Zuglcich War damit die Grundlage für das optische Verhalten der Metalle gelegt, die sich durch eine besonders große Absorption und eine damit verbun- dene sehr starke Reflexionsfähigkeit auszeichnen. Neuere 28. Ansätze ZU einem Rückfall in die Emissionstheorie.

diTwruenieh^r Rückblick und Ausblick. In neuerer Zeit wurden unsere Vorstellungen des licht». Qjjgj. jjg Lichtemission wesentlich vertieft durch die Theorie der ^ektronen, jener negativ geladenen elektrischen Teilchen, die die Atome durch ihren Hin- zutritt zu Ionen machen und in den Kathodenstrahlen und den^- Strahlen des Ra- diums als selbständige Gebilde fortbewegt auftreten. Sie haben alle wesentlichen Eigenschaften der Atome und werden daher auch als Atome der negativen Elek- trizität aufgefaßt (vgl. Artikel 13, 15, 21). Diese neueren Theorien könnten nun hier insofern außer acht bleiben, als die vorliegende Darstellung sich nur auf die Entwicklung der Wellenlehre beschränkt, nicht aber den Vorgang der Emission der Wellen genauer verfolgen will. Und doch ist ein Eingehen auf diese Dinge hier nicht zu vermeiden, wenn nicht die neueren Einwände gegen die Wellentheorie, die auf jenem Boden erwachsen sind, mit Stillschweigen übergangen werden sollen.

Neuere Einwände gegen die Wellenlehre des Lichtes 569

M. Planck sah sich 1900 genötigt, zur Erklärung der experimentell ge- D" Pi»nck«che fundenen Strahlungsbeträge anzunehmen, daß die Energie von schwingenden wiAungt! Gebilden der Materie stets als Vielfaches eines bestimmten Einheitsquantums ^w«'«««»- der Energie zur Geltung kommt. Dieses Einheitsquantum ist nach Planck proportional der Schwingungszahl jenes Gebildes. Die Proportionalitätskon- stante ist eine von der Schwingungszahl unabhängige Größe und wird als „ele- mentares Wirkungsquantum** bezeichnet (vgl. Artikel lO).

Dieses Wirkungsquantum hat sich nun zur Erklärung der Wechselwirkung Di« zwischen Röntgen- und Kathodenstrahlen als besonders geeignet erwiesen und Lii^tq^tem" man ist schließlich zu der Vorstellung gelangt, daß die Energiequanten frei als unabhängige und selbständige Gebilde den leeren Raum durchfliegen, um an ihrer Auftrittsstelle absorbiert oder zum Anlaß der Ausstrahlung neuer Energie- einheiten in veränderter Form zu werden. Manche Vertreter dieser Vorstellun- gen, nicht Planck selbst, suchen den bewußten Anschluß an die Newtonsche Emissionstheorie, indem sie unmittelbar von ausgeschleuderten Lichtquanten sprechen, und man kann dieses Verhalten fast als eine Art atavistischen Rück- falls auffassen. In Wirklichkeit hat diese Theorie es bisher noch nicht ver- mocht, die räumliche Ausdehnung des Energiequantums abzuleiten, während es Sommerfeld gelungen ist, den Grund und Grad der Energiekonzentration der von Kathodenstrahlen ausgelösten Röntgenstrahlen aus der Huygens- schen Theorie zu bestimmen. Wie nämlich ein Schiff, das rascher als die Wasser- wellen bewegt ist, in Übereinstimmung mit dem Huygensschen Prinzip eine Welle auslöst von der Form eines Keiles, in dem die Wellenenergie mehr bei- sammen bleibt als bei den Kugelwellen, so entsteht auch eine Energiekonzen- tration in bestimmten Richtungen durch die in den Kathodenstrahlen bewegten und durch die Antikathode einer Röntgenröhre gebremsten Kathodenstrahlen, deren Geschwindigkeit zwar hinter der Lichtgeschwindigkeit zurückbleibt, aber doch damit vergleichbar ist.

Wenn man aber glaubt, daß das Auftreten von Strahlungsenergien, die in ^^ vorginge

** ' ***** der Auabreitunc

Vielfachen gewisser Einheitsbeträge auftreten und in gewisser Hinsicht den uod der Erregung Eindruck von Energieatomen machen, notwendigerweise auf einen Widerspruch \ne^^^^ mit der Wellenlehre hinauslaufen müßte, so beruht diese Auffassung auf einem verschieden-

ftrtig sein.

Mißverständnis. Nicht die Gesetze der Ausbreitung kommen hier in Frage, son- dern die bei der Erregung auftretenden Vorgänge. Diese können von denen der Ausbreitung so verschieden sein, wie der chemische Vorgang bei einer Explo- sion von der durch sie verursachten Schallwelle. Da nun nach allem, was wir wissen, die Erregungen hauptsächlich durch die Zusammenstöße der Molekeln bedingt werden, und eine Lichtausstrahlung vermutlich dadurch eintritt, daß gewisse Gebilde, etwa Elektronen, in schwingende Bewegung versetzt werden, indem sie von einer Gleichgewichtslage zu einer andern von geringerem Energievorrat übergehen, so wäre dabei nicht zu verwundern, daß die um- gesetzten Energien als Vielfache einer Einheitsenergie auftreten. Vorstellungen solcher Art sind in der Tat neuerdings von Haas, H. A.Lorentz, Gibson und Bohr entwickelt und beleuchtet worden, ohne daß freilich die ganze

570 26. Otto Wiener: Entwicklung der Wellenlehre des Lichtes

Frage bis jetzt schon eine in jeder Hinsicht befriedigende Antwort gefunden hätte.

MicfaeiMBs Ein anderer Einwand gegen die Theorie der Lichtwellen, bzw. gegen die

xpenme j^g^^j^g ihres Trägcrs, des Äthers, rührt von den vergeblichen Versuchen her, die man gemacht hat, um die Bewegungen der Erde gegen den ruhenden Äther optisch nachzuweisen (vgl. Artikel i, 15 und 34). E^ wurde schon früher aus- einandergesetzt, daß die Aberration des Lichtes von Seiten der Wellenlehre nur erklärt werden kann, wenn man mit Fresnel und H. A. Lorentz den Äther als ruhend annimmt. Wenn nun dem so ist, so müßte eine von einem Punkt einer optischen Vorrichtung auslaufende und wieder zu ihm zurückkehrende Licht- welle verschiedene Zeit brauchen, je nachdem der Lichtstrahl in Richtung der Erdbewegung hin- und herläuft, oder senkrecht dazu. Dieser Zeitunterschied, der allerdings nur mit dem Quadrat des Verhältnisses der Erdgeschwindigkeit zur Lichtgeschwindigkeit proportional ist, müßte bei dem Versuch von Michelson (1881) und besonders bei der äußerst genauen Versuchsanordnung von Michel- son und Morley und später von Morley und Miller bemerkbar gewesen sein. Das Experiment ließ aber einen solchen Einfluß nicht erkennen (vgl. Artikel 34). H.A.Lorents' Um deu negativen Ausf all des Experimentes zu erklären, nahmen Fitz-

TTEeori^dlir gerald und H. A. Lorentz eine Kontraktion aller starren Körper in Richtung ^^^•'1?^*^'' der Erdbewegung an, während Einstein radikaler vorging, und die Unmöglich- keit des Nachweises der translatorischen Bewegung der Erde durch Licht- experimente an den mit ihr bewegten Versuchsanordnungen und die Konstanz

ReiadTitätt- der Lichtgeschwindigkeit im Vakuum in seiner „Relativitätstheorie*' zum tbeone. Grundsatz erhob. Wenn man nun auch geneigt sein wird, zuzugeben, daß in letzter Hinsicht Absolutbewegungen auf keine Weise nachgewiesen werden und stets nur Relativbewegungen zur Beobachtung gelangen können, so wird man doch die Form, in welcher Einstein seine Relativitätstheorie entwickelt hat, als eine Hypothese bezeichnen müssen, die durchaus nicht selbstver- ständlichist, ja Einstein hat sogar neuerdings, worauf Abraham aufmerksam machte, selber seine frühere Theorie durchbrochen, indem er einen Einfluß der Schwerkraft auf die Lichtausbreitung für möglich hält und zu berechnen sucht. Wenn man auch zugeben muß, daß die aus dem M ich eis onschen Ver- such sich ergebenden Schwierigkeiten durch die Einst einsehe Theorie in sehr einfacher Weise behoben werden, so kann man doch auch dem von Lorentz vertretenen Standpunkt die Berechtigung nicht aberkennen, daß die Bewegung starrer Körper durch den Äther hindurch nicht ohne Rückwirkung auf die be- wegten Körper bleiben wird. infraffMteUung Hat man aber einmal durch die Relativitätstheorie den Äther aus der Theo-

desÄtbera* ^^^ Überhaupt hinauskomplimentiert, so ist es ganz logisch, wie es auch Ein- stein tut, die Existenz des Äthers zu bezweifeln. Kritik d«r Ein- Einstweilen wird man die aus den beiden Quellen herrührenden Einwände

^weiiiSeh^c. * gegen die Wellenlehre des Lichtes nicht als ernstlich anzusehen brauchen, be- sonders solange es ihren Gegnern nicht gelingt, gleichwertigen Ersatz durch neue Theorien zu schaffen. . Im Gegenteil wird man durch das Andeutungsweise und

Kritik der Einwände gegen die Wellentheorie 571

Sprunghafte mancher neueren theoretischen Skizzen unwillkürlich an Boltz- manns Vergleich mit den Kunstwerken der Impressionisten und Sezessionisten erinnert, ein Vergleich, der doch auch in der Hinsicht zutrifft, daß man ihnen manches Gute und manche wertvolle Anregung verdankt.

Die aus der Vorstellung der Elementarquanten der Energie stammenden Einwürfe gehen die Wellenlehre des Lichtes unmittelbar überhaupt nichts an. Sie beziehen sich auf den Vorgang der Emission des Lichtes, der auf alle Fälle grundsätzlich neue Ansätze verlangt, die aber im Ernst erst in, Angriff genom- men werden können, wenn die Frage experimentell mehr geklärt worden ist. Der mit der Relativitätstheorie zusammenhängende Einwand, der von dem M i c h e 1 s 0 n sehen Versuch herrührt, wird wahrscheinlich auch, wenigstens wenn Loren tz recht behält, auf einem Gebiet zu suchen sein, das die Wellenlehre selbst unmittelbar nicht berührt.

Im übrigen zeigt aber gerade die hier wiedergegebene Entwicklung der Wel- lenlehre, wie lange grundsätzliche Einwände von größerem Gewicht und Vor- würfe wegen mangelnder Erklärung der Tatsachen ungeklärt geblieben sind, ohne daß man doch beweisen konnte, daß sie von der Wellenlehre nicht er- klärbar oder gar mit ihr unvereinbar seien, so die geradlinige Ausbreitung des Lichtes, die Polarisation und die Dispersion.

Indem man aber in den Newtonschen Standpunkt zurückverfällt, biegt Di« gnmdsäts- man vollständig von der großen Entwicklung der Physik, die von Faraday^^^p,JJ!^^^ über Maxwell zu den Hertzschen Versuchen geführt hat, ab, nämlich der '*°^^^^^^°^*^^ Entwicklung, die auf die grundsätzliche Beseitigung aller Fernkräfte hinaus- läuft. Diese Beseitigung kann folgerichtig kaum besser als durch die Annahme einer kontinuierlichen Raumerfüllung geschehen, die trotzdem, wie die Helm- hol tz-Thomsonsche Wirbelringtheorie lehrt, nicht mit der Molekulartheorie in Widerspruch zu treten braucht« Ja man wird wahrscheinlich dahin gelangen, auch den Äther als aus elementaren Gebilden, etwa Lenardschen Dynamiden, aufgebaut auffassen lernen. Und ähnlich wie man die Schallgeschwindigkeit durch die ungefähr übereinstimmende Molekulargeschwindigkeit in den Gasen erklären kann, wird man die Lichtgeschwindigkeit bedingt ansehen, wie das August Ritter (1826—1908) und Lenard taten, durch die im Äther ver- borgenen Geschwindigkeiten, die im Mittel von der Lichtgeschwindigkeit nicht weit verschieden sein werden.

Für eine solche Auffassung wird also die Maxwel Ische Theorie nur als Integralgesetz in Frage kommen über ein Gebiet, in dem nach den Regeln der Wahrscheinlichkeitsrechnung die verschiedensten Elementarzustände neben- einander bestehen können, ebenso wie das Boyle-Mariottesche Gesetz oder die Zustandsgieichung der Gase als Integralgesetz für ein Gebiet gelten, in dem die verschiedenartigsten Molekularbewegungen vorkommen.

Mit dieser Auffassung hat der Verfasser dieser Zeilen bereits seine Ansicht di© «eitgronötsi- dahin kundgegeben, daß die elektromagnetische Lichttheorie nicht das letzte neü^cbe spnche Wort gesprochen hat. Sie ist nichts weiter als eine unseren augenblicldichen J^^^^^^J^^^^^^^^^^^^^ Kenntnissen angemessene Sprache, die der Übersetzung in eine kinetische bcmchaft.

572 26. Otto Wiener: Entwicklung der Wellcnlchre des Lichtes

Sprache harrt. Eine solche Übersetzung hat neuerdings wieder V. Bjerknes versucht, indem er eine mit kreiselartigen (gyrostatischen) Eigenschaften be- gabte Flüssigkeit ähnlich Mac Cullagh und W. Thomson zugrunde legte.

Die Erfahrung hat gelehrt, daß viele Hilfsbegriffe der Physik, wie die vom Wärmestoff und den früher'angenommenen anderen imponderablen Stoffen all- mählich durch einheitliche Vorstellungen verdrängt worden sind. Daß alle Vor- gänge sich im Räume und in der Zeit abspielen, darüber besteht kaum ein Zweifel, daß aber neben.dem in Raum und Zeit Bewegten noch weitere damit fremdartige Vorstellungen, wie es zunächst die elektrischen Größen sind, in die Grundlagen einer künftigen einheitlichen Physik aufgenommen werden müßten, wird der- jenige bezweifeln dürfen, der sich die bisherige Entwicklung der Physik vor Augen hält.

In dieser Hinsicht ist die Entwicklung der Wellenlehre des Lichtes beson- ders lehrreich. Mochten auch Teilgebiete der Optik, wie die Interferenz, Beu- gung, Polarisation und Doppelbrechung, sich teilweise unabhängig voneinander entwickelt und zu voneinander unabhängigen Annahmen der Emissionstheo- rie geführt haben, so hat sich doch schließlich die einheitliche kinetische Vor- stellung der Wellentheorie Bahn gebrochen. In dem Augenblicke aber, wo das ganze Gebiet der Elektrizität und des Magnetismus und im Anschluß daran nahe- zu das Gesamtgebiet der Physik zu einem einzigen Gebiete sich zusammenschloß, mußte die Sprache der Elektromagnetik in den Vordergrund treten. Die verautUcho Dem Uneingeweihten, der von grundstürzenden neuen Theorien der Physik einer einheit- hört, mag CS wohl den Eindruck machen, als ob die Physik gleich den philo- ^ *Phy^^ *"" sophischen Theorien fortwährend neue Gebäude aufführe, nachdem die alten vorher eingerissen wurden. Das ist keineswegs der Fall. Die alten Theorien pflegen in den neuen meist restlos aufzugehen, und so hat sich denn beim Über- gang von der mechanischen in die elektromagnetische Lichttheorie im wesent- lichen nichts anderes geändert als die Bezeichnungen. Man nimmt noch heute an, daß im Lichte sich schwingende Vorgänge ausbreiten, die gleich den Wasser- wellen übereinanderdeckbar, d. h. interferenzfähig sind. Freilich, worin diese Schwingungen bestehen, das kann man noch nicht mit Sicherheit angeben. Der Sprachschlüssel, der einmal gestatten wird, das Elektromagnetische restlos in das Kinetische zurückzuübersetzen, hängt so innig mit der Deutung der elek- trischen und magnetischen Kräfte und mit der Enträtselung des Aufbaues der Materie und des Äthers und wahrscheinlich auch mit der Natur der Schwerkraft zusammen, daß die Entdeckung dieses Schlüssels der Enträtselung der Grundfragen der Physik nahekommt. Daß ein solcher Schlüssel aber einmal ge- funden werden wird, ist die Überzeugung des Verfassers dieser Zeilen.

Ausblick auf eine einheitliche kinetische Physik 573

Literatur.

E.Wilde, Geschichte der Optik. 2 Bde. Berlin, Verlag von Rücker und Püchler, 1838 u. 1843. W. Whewell, Geschichte der induktiven Wissenschaften. 3 Bde. Deutsch von J. J. von Littrow.

Stuttgart, Verlag von Hoffmann, 1840 1841. 3. Aufl. engl. 1857. J. C. POGGENDORFF, Geschichte der Physik. Leipzig, Verlag von J. A. Barth, 1879. F. ROSENBERGER, Geschichte der Physik. 3 Bde. Braunschweig, Verlag von F. Vieweg u. Sohn,

1882 1890.

F. ROSENBERGER, Isaac Newton und seine physikalischen Prinzipien. Leipzig, Verlag von J. A, Barth, 1895.

Die Werke von ROSENBERGER, die die Geschichte der Physik im Rahmen allgemeiner kultur- und weltgeschichtlichen Zusammenhänge behandeln und die Hauptzüge der £nt- tiricklung und die Kernfragen der Physik in besonders plastischer Weise darstellen , hat der Verfasser seiner eigenen Darstellung in erster Linie zugrunde gelegt.

£. T.Whittacker, A History of the theories of sether and electricity from the age of Descartes to the dose of the nineteenth Century. Dublin, Hodges, Figgis&Co., 191 0.

Walter König, „Die Lebensgeschichte des Äthers/' Akademische Festrede. Gießen, von Münchowsche Druckerei, 1912.

Zu den einzelnen Abschnitten.

Abschnitt 2. A.£. Haas, Antike Lichttheorien. Archiv f. Gesch. d. Philosophie. Neue Folge. Bd. Z3, S. 345, 1907. A. E. Haas, Die antiken Hypothesen über das Wesen der physi- kalischen Grundkräfte. Archiv f. d. Gesch. d. Naturwiss. u. Technik. Bd. 2, S. 380, 19 10. G. LiBRi, Histoire des sciences math^matiques en Italie. Bd. 3, S. 43, Anm. 3. Paris, J. Renouard et O«, 1840. Mereschkowski, „Leonardo da Vinci". Überschrift zum 10. Kap. Leipzig, Verlag von Schübe & Co., 1903.

Abschnitt 5, 6, 8. Newtons Optik. 3 Bücher, 1704. Deutsch von W. Abendroth. Nr. 96 u. 97 von „Ofitwalds Klassikern**. Leipzig, Verlag von W. Engelmann, 1898.

Abschnitt 9. CHRIST. Huygens, Abhandlung über das Licht, 1690. Deutsch von £. Lommel. Nr. 20 von „Ostwalds Klassikern*'. Leipzig, Verlag von W. Engelmann, 1890.

Abschnitt 16, 18, 22, 24. Oeuvres compl^tes d'AuGUSTiN Fresnel. Paris, Imprimerie im- periale. Bd. I 1866: Bd. 2 x868; Bd. 3 1870. Insbesondere die vorzügliche ausführliche ,,Introduction** von £mile Verdbt.

Abschnitt 17. G. Kirchhoff, Zur Theorie der Lichtstrahlen. Wiedcm. Aon. 13, 1883. Willy MObius, „Ober die Mascartsche einfache Methode . . .*' und „Zur Theorie des Regen- bogens . . ." Wiedem. Ann. 33, 19 10.

Abschnitt 21. Lummer, Optik in MtJLLER-PouiLLETS Lehrbuch der Physik. 2. Bd., 13. Kap. 10. Aufl. 1909. O.Wiener, Wiedem. Ann. 31, 1887.

Abschnitt 22. Chr. Doppler, „Über das farbige Licht der Doppelsteme und einiger anderer Gestirne des Himmels*'. Abhandl. d. Egl. Böhm. Ges. d. Wiss. (5) 2. Prag 1843. Neuheraus- gegeb. von F.J. Studniöka. Prag, Verl. d. K. Böhm. Ges. d. Wlss. 19O3. Michelson, Phil. Mag. (5) 34, 1892. J. Stark, Phys. Zeitschr. 6, 1905.

Abschnitt 23. Arago, Ann. de chim. et de phys. (3) 37, 1853. Fizeau, Compt. rcnd. 33, S. 349, 1851. G. Sagnac, Comptes rendus 157, S. 708, 1913.

Abschnitt 24. JOHN Tyndall, „Die Wärme", deutsch von H. Hehnholtz u. G. Wiedemann, 3. Aufl., 13. Kap. Braunschweig, F. Vieweg u. Sohn, 1875. H. v. Helmholtz, Handbuch der physiologischen Optik. 3. Aufl., herausg. von A. Gullstrand, J. v. Kries und W. Nagel. 2. Bd. Abschnitt „Die einfachen Farben''. Leipzig, L. Voss, 1911. H. Rubens, Arbeiten über Wärmestrahlen in den Annalen der Physik u. Chemie, Annalen der Physik, Berliner Berichten und den Verhandlungen der Physikalischen Gesellschaft V. Schumann, Wiener

^^4 ^^* Otto Wiener: Entwicklung der Wellenlehre des Lichtes

Berichte 1893. Th. Lyman, Astrophys. Journal 23, 1906. Erich Marx, Leipziger Ab- handlungen und Annalen der Physik 1906 u. 1910. W. Friedrich, P. Knipping und M. Laue, Münchener Berichte 191 2. Annal. d. Phys. 41, 19 13.

Abschnitt 25. £. T. Whittacker (s. oben). Drude, Winkelmanns Handbuch der Physik. Bd. 6. Leipzig, J.A. Barth, 1906.

Abschnitt 26. LORD Rayi^GH, PhiLMag.(4) 41, 1871; (5) 47, 1899. Tyndall, Proc Roy. See. 17, 1869. O. Wiener, Wiedem. Ann. 40, 1890. P. Drude und W. Kernst, Wiedem. Ann. 45, 1892. G. Lippmann, Compt. Rend. zz2, 1891.

Abschnitt 27. H. Hertz, Wiedem. Ann. 1887— 1892. 'A. Kundt, Pogg. Ann. 1871— 1872. Cl. Maxwell, Cambridge Calendar 1869, wieder veröffentlicht von Lord Rayleigh. Phil. Mag. (5) 48, 1899. W. Ski.lmeikr, Pogg. Ann. 1872. H. Helmholtz, Pogg. Ann. 187$. P. Drude, Ann. d. Phys. 1904.

Abschnitt 28. M. Planck, Verhandl. d. deutsch, phys. Ges. 1900. A. Sommerfeld, Münch. ner Berichte 1911. A. E. Haas, Wiener Ber. 1910. H. A. Lorentz, Phys. Zeitschr. zz, 1910; Jahrbuch d. Radioakt. u. Elektronik 7, 1910. G. E. GiBSON, Ber: d. deutsch, phys. Ges. 1912« N. Bohr, Phil. Mag. 26, 1913. H. A. Lorentz, The theory of electrons. Leipzig, Teubner, 1909. A. A. MiCHELSON, Americ. Joum. of Science (3) aa, 1881. A. A. Michelson and E. W. MORLEY, Americ. Joum. of Science (3) 31, 1886. E. W. MoRLEY and D. C. Miller, Phil. Mag. (6) g, 1905. Zu Fitzgerald, Lodge Nature 46, 1892. A. Einstbin, Ann. d. Phys. 17, 1905. M. Abraham, Ann. d. Phys. 1912. A. Einstein, Phys. Zeitschr. zo, 1909. A. Rfttbr, Mündliche Mitteilung anfangs der neunriger Jahre. P. Lenard, Heidelberger Berichte 1911. V. Bjerknes, „Die Kraftfelder**. Braunschweig, Vieweg, 1909.

Der Kollege des Verfassers, Herr A. E. Haas, Prof. d. Geschichte d. Phys. in Leipzig, war so freundlich eine Korrektur zu lesen und wertvolle Vorschläge zu Verbesserungen zu machen.

27.

NEUERE FORTSCHRITTE DER GEOMETRISCHEN OPTIK.

Von Otto Lummer.

1. Grundlage der geometrischen Optik. Die geometrische Optik Grundiag« der legt den Lichtstrahlen Realität bei und nimmt an, daß immer da, wo sich Licht- **^"optik. ^ strahlen in einem Punkte schneiden, auch wirklich ein Lichtpunkt oder punkt- förmige Lichtkonzentration auftritt. Mit der weiteren Annahme, daß das Licht

in einem homogenen Medium sich geradlinig fortpflanzt und die Lichtstrahlen an der Grenzfläche zweier Medien nach dem Reflexions- bzw. Brechungsgesetz gespiegelt bzw. gebrochen werden, kommt die geometrische Optik aus.

2. Ziel der geometrischen Optik. "Es sollen von den leuchtenden Ob- zi©i der jekten „Bilder** entworfen werden und zwar von jedem Objektpunkt ein **^olSk!**" Bildpunkt. Dabei soll das „Abbild** dem Objekte ähnlich, also ohne „Ver- zeichnung" sein, und außerdem eine große Helligkeit besitzen. Das Ziel der geometrischen Optik läuft also darauf hinaus, alle von den verschiedenen Objektpunkten des Objektraums ausgehenden und das abbildende System

(,, Objektiv**) treffenden Strahlenbüschel in wieder je einem Punkte zu ver- einigen. Außerdem soll die Ähnlichkeit gewahrt bleiben.

In der Geometrie nennt man ein solches ,, punktweises'* Entsprechen zweier Räume, Objekt- und Bildraum, „kollineare** Verwandtschaft. Bei dieser soll einem Punkte des einen Raumes ein Punkt des anderen Raumes und einem durch den Objektpunkt gezogenen Strahl ein durch den Bildpunkt gehender Strahl entsprechen.

Die geometrische Optik ist weit davon entfernt diese kollineare Verwandt- schaft („KoUineationsbeziehung**) oder „punktuelle** Abbildung zu verwirk- lichen, wenigstens wenn man beliebig ausgedehnte Objekte und beliebig „weit- geöffnete** Büschel ins Spiel treten läßt.

3. Gaußsche Abbildung. In gewisser Beziehung kann man eine Linse als GaoBicbo ein Mittel zur Verwirklichung des erstrebten Zieles ansehen, wenigstens wenn '^^^'^*^°''«- man sich auf sehr kleine Objekte beschränkt, die auf der Linsenachse liegen,

und keine weitgeöffnete Strahlenbüschel, sondern unendlich enge zur Ab- bildung zuläßt, d.h. die „Öffnung** der Linse klein macht. Schon vor Gauß wußte man, daß eine spiegelnde oder brechende Kugelfläche die von einem Achsenpunkte ausgegangenen und der Achse unendlich nahe verlaufenden (,,paraxialen**) Strahlen ohne „sphärische Aberration** in wieder einem

576 27. Otto Lummer: Neuere Fortschritte der geometrischen Optik

Punkte der Achse vereinigt. Auch die Gesetze, nach denen diese ,,paraxiale Abbildung" vor sich geht, waren bekannt. Das Verdienst von Gauß besteht darin, nachgewiesen zu- haben, daß eine solche punktweise paraxiale Abbildung auch für ein beliebiges zentriertes System von Kugelflächen (deren Zentra alle auf einer Geraden liegen) Gültigkeit hat. Die Gaußschen Abbildungsgesetze, nach denen das zentrische System abbildet, sind im wesentlichen von gleicher Einfachheit wie diejenigen an einer Kugelfläche.

Indem man die Gauß sehe Abbildung lange Zeit hindurch auch noch als erfüllt ansah, wenn eine endliche Öffnung des Systems vorausgesetzt wird, also weitgeöffnete Strahlenbüschel mitwirken, beging man den Fehler, den jede Extrapolation an sich trägt. Jedenfalls hat die G a u ß sehe Abbildung nur für par- axiale Strahlen Gültigkeit und darum ist sie für die praktische Optik ohne jeden Wert, da nur unendlich kleine Flächen senkrecht zur^chse punktweise abgebildet werden und wegen der engen Strahlenbüschel die Lichtstärke zu gering ist. Ab- gesehen von diesen Mängeln haftet der Gaußschen Abbildung aber noch ein Fehler an, der dadurch bedingt ist, daß im Schnittpunkt so enger homo- zentrischer Strahlen gar keine punktweise Lichtkonzentration eintritt, wie es die geometrische Optik annimmt, sondern eine ziemlich große Lichtfläche. Um dies zu zeigen, müssen wir die Abbildung im Sinne der Wellenlehre be- trachten. Abbildung 4. Abbildung im Sinne der Wellenlehre. Es werde vorausgesetzt,

der weii^hre. ^2iß das Systcm S (Fig. i) so berechnet ist, daß es alle vom Objektpunkt L ausgegangenen Strahlen wirklich punktweise im Gaußschen Bildpunkte L' vereinigt, wie groß auch die Öffnung des Systems S sei.

Im Sinne der Wellenlehre ist der leuchtende Punkt L das Zentrum einer Athererschütterung, die sich in Form kugelförmiger Wellen WM im umgebenden homogenen Medium fortpflanzt. Ein Strahlenbüschel ist ein kegelförmig be- grenzter Teil der Kugelwelle. Die Gestalt der fortschreitenden Welle die „Wellenfläche** zu einer gewissen Zeit ist auf dem ganzen Wege bestimmt dadurch, daß sie von allen vom Objektpunkte L ausgegangenen Lichtstrahlen zur gleichen Zeit erreicht wird. Auf der diese gleichzeitig erreichten End- punkte verbindenden Wellenfläche besteht ein übereinstimmender Oszillations- zustand mit endlicher Amplitude. Soll der Wellenfläche eine andere Lage oder Gestalt gegeben werden, wie es sein muß, damit die vom Objektpunkt L aus- gegangenen divergierenden Strahlen sich faktisch in einem Punkte schneiden, so müssen die Fortpflanzungsbedingungen geändert werden. Bei der Spiegelung und Brechung ist solches der Fall. Bei der Abbildung von leuchtenden Ob- jekten sollen die von jedem Punkte ausgehenden Strahlen wieder in einem Punkte konzentriert werden. Die Systeme spiegelnder oder brechender Flächen müssen demnach kugelförmige Wellen WM umgestalten in wieder kugelförmige Wellen W'M^ mit anders gelegenem Zentrum. Wandelt das optische Sjrstem konvexe Kugelflächen in konkave um, so entsteht ein reeller Bildpunkt im Zentrum Ü der konkaven Kugelfläche. Was die geometrische Optik „Licht- strahlen** nennt, sind jene senkrechten Schnittlinien der Wellenflächen. Eine

Abbildung im Sinne der Wellenlehre ^yy

physische Bedeutung und eine gewissermaßen ,, reale'' Existenz hat der Licht* strahl nur im Inneren eines Strahlenbündels von endlichem Divergenzwinkel. Sobald er als einzelner Strahl erfaßt oder physisch isoliert werden soll, hört er auf zu sein.

Gemäß der Wellenlehre des Lichtes sind, wie erwähnt, die Lichtstrahlen nichts anderes als die Normalen zur Wellenfläche. Welche Gestalt auch die Wellenfläche in irgendeinem der brechenden Medien haben mag, stets stehen nach einem allgemeinen Satze von Malus die Strahlen senkrecht zur Wellenfläche, und umgekehrt ist diejenige Fläche Wellenfläche, auf welcher die Strahlen senkrecht stehen.

Da die von L ausgegangenen Strahlen im Bildpunkt ü vereinigt werden, so sind die um L' als Zen-

trum gezogenen Kugelflä- *\^^l.>^*''''/\" ~Tr^

chen W^M! im homogenen ^f*^ \ Bildmedium also ebenfalls ^^i^.,,^^ I0 \ ^ /

Wellenflächen, d. h. auf '^i?'''*^*Ov /

der Kugelfläche P7'M' herr- '' ^ \f ^

sehen gleiche Oszillationszustände. ^**' **

Die von L ausgegangene Welle wird begrenzt in Fig. i vom Rande der Linse, im Bildmedium also von denjenigen Teilen WM' der mit Ü konzentri- schen Kugeloberflachen, welche von den letzteren durch das austretende Strah- lenbüschel ausgeschnitten werden. Wir können demnach die von L durch Ver- mittlung des optischen Systems 5 auf irgendeinen Punkt 0 des Bildmediums übertragene Bewegungswirkung nach dem Huygensschen Prinzip (vgl. Artikel 26) ersetzen durch die Wirkung der Wellenfläche WM' und diese Wirkung berechnen nach dem Fresnel- Huygensschen Prinzip durch die Interferenz aller von den Punkten der Welle WM' kommenden Elementar- wellen, (vgl. Artikel 26).

Es ist Aufgabe der Interferenz- und Beugungstheorie, die Art der Licht- verteilung im Bildraume, also z. B. im Punkte L', zu berechnen. Hier genügt das Resultat, daß bei kreisförmiger Begrenzung der Welle WM' die Lichtverteilung in der durch L! gehenden Mittelpunktsebene sich als ein helles, kreisrundes Seh ei beben bei L' darstellt, welches von abwechselnd dunkeln und hellen Ringen von schnell abnehmender Intensität umgeben ist. Jede andere Art der Begrenzung des Strahlenkegels bringt bei L' eine andere Abstufung des Licht- effektes hervor, die stets der Fraunhoferschen Beugungserscheinung eines leuchtenden Punktes für die betreffende Öffnung ähnlich ist. Je größere Ausdehnung die wirksame Fläche der Kugelwelle (also die Öffnung des Sy- stems S) erhält, desto rascher erfolgt bei jeder Form der Begrenzung der In- tensitätsabfall um den Punkt L' herum, desto mehr reduziert sich demnach die ganze beleuchtete Fläche in der Mittelpunktsebene auf ein verschwindend kleines Flächenelement um L' herum, in welchem die ganze lebendige Kraft des strahlenden Lichtpunktes P, die vorher auf den verschiedenen Wellen- flächen ausgebreitet war, wieder zusammenströmt. So entsteht der zu L ge-

K. d. G. IIL m, Bd i Phytik 37

ey3 27* Otto Lummer: Neuere Fortschritte der geometrischen Optik

hörige Bildpunkt L! als die ideelle Grenze, welcher sich die resultierende Lichtverteilung (Beugungserscheinung) in der Mittelpunktsebene der aus dem optischen System S austretenden Kugel welle in dem Maße nähert, wie die wirksame Wellenfläche größere Ausdehnung gewinnt: Die physische Optik kennt keinen anderen Begriff von Bildpunkt. Man nennt schlechtweg den Einfluß der Begrenzung auf den Lichteffekt in der Gauß- schen Bildebene L' F die Beugungswirkung (Beugungseffekt) der Öffnung.

Um die geometrischen Gesetze der G au ß sehen Abbildung mit denen der Wellentheorie in Einklang zu bringen, bedarf es daher noch der jedesmaligen Bestimmung des Beugungseffektes der wirksamen Öffnung des abbildenden Systems und der Substitution dieses Beugungseffektes an Stelle des geometri- schen Lichtpunktes. In der geometrischen Optik faßt man also fälschlicher- weise den Bildpunkt als das Primäre im Abbildungs vorgange auf, jedenfalls als ein selbständiges Element in demselben. Die Bestimmung des Beugungs- effektes der Öffnung des Systems wird nachträglich abgemacht, als ob es gälte, gleichsam ein „störendes*' Nebenphänomen abzutun. Das ist auch vom mathe- matischen Standpunkte aus erlaubt; in Wirklichkeit ist es umgekehrt: Der Bildpunkt ist die Folge der Beugungsfigur. Ohne Beugungsfigur kann niemals ein Bildpunkt entstehen, da er ja nur die ideelle Grenze der erste- ren ist. Man kann also auch nur in den Fällen der geometrischen Optik von Bildpunkten reden, wo das Öffnungsverhältnis (Querschnitt dividiert durch den Abstand vom Mittelpunkte) der abbildenden Strahlenkegel genügend groß ist, d.h. der Beugungseffekt unendlich klein wird. Bei der Gaußschen Ab- bildung muß das Öffnungsverhältnis jedoch sehr klein sein, da bei größerem Öffnungsverhältnis durch das zentrierte System keine punktweise Abbildung stattfindet, vielmehr die sogenannte ,, sphärische Aberration'' auftritt, eine Art Brennfläche statt eines Brennpunktes.

Wenn, wie bei einer einzigen brechenden Kugelfläche, sphärische Aberra- tion auftritt, so heißt das im Sinne der Wellenlehre nichts anderes, als daß die vom Lichtpunkte kommende Kugelwelle beim Übertritt in das letzte Medium in eine von der Kugel abweichende Rotationsfläche übergeht. In diesem Falle gibt es keinen Punkt, in dem sich alle Elementarwellen sum- mieren. Die wellentheoretische Berechnung solcher nicht sphärischer sondern asphärischer Wellenflächen am Orte der Gaußschen Bildebene ist äußerst schwierig, wenn nicht unausführbar. Soll eine punktweise Abbildung statt- finden, so muß man das abbildende System so wählen oder korrigieren, daß die austretende gleichzeitig von allen Strahlen erreichte Fläche eine Kugel- fläche ist und eine große Öffnung hat. Aber diese Kugelfläche muß außerdem zugleich Wellenfläche sein d. h. interferenzfähige Elementarwellen aussenden. Diese Bedingung lautet anders ausgedrückt: Der Objektpunkt muß kohärente Strahlen aussenden, er muß also selbstleuchtend sein.

A. Abbildung selbstleuchtender Objekte. Es sei außer dem Achsen- punkte L (Fig. i) noch ein zweiter, seitlich gelegener Lichtpunkt P vorhanden. Auch von ihm erzeuge das System S einen Bildpunkt P', indem es alle von P

Abbildung im Sinne der Wellenlehre^ cjg

ausgehenden Strahlen nach dem Punkte P' breche. Dann ist auch für diesen Punkt P die Bedingung erfüllt, daß die von ihm ausgegangenen Kugelwellen durch das optische System 5 wiederum in Kugelwellen mit anders gelegenem Zentrum {P') verwandelt werden.

Sind statt der zwei Punkte P und L auf der Strecke LP unendlich viele vorhanden, d. h. ist LP ein selbstleuchtendes Objekt, welches den geometri- schen Gesetzen gemäß punktweise vom System S im Bilde L'F abgebildet wird, so gilt für jeden einzelnen Punkt und sein Bild das oben für L und L' oder P und -P Gesagte. Die physische Optik rechtfertigt also aus ihren Prin- zipien auch die Abbildung eines flächenhaften Objektes in dem Sinne, daß sie zu jedem einzelnen Objektpunkte eine gewisse, aber für alle die gleiche Licht- ausbreitung in der Bildebene von LP nachweist, und diese Lichtausbreitung mit zunehmender Größe der Öffnung auf Punkte sich reduzieren läßt.

Damit sich aber der Vorgang so abspielt, muß noch folgende Bedingung erfüllt werden: Es müssen die verschiedenen Objektpunkte voneinander un- abhängige Erschütterungszentra sein. Nur in diesem Falle enthalten die den verschiedenen Objektpunkten zugehörigen Kugelwellen im Bildmedium inko- härente, d. h. nichtinterferenzfähige (vgl. Artikel 26) Bewegungszustände, so daß die von ihnen einzeln erzeugten Beugungsscheibchen sich einfach ohne gegenseitige Störung superponieren. Diese Bedingung ist bei selbstleuchtenden Objekten, wie es die Flammen sind, von selbst erfüllt. Wir sind somit zu folgendem Resultat gelangt:

Die nach den Regeln der geometrischen Optik bestimmte punktweise Ab- bildung eines Objektes (mit nachträglichem Hinzufügen des der Öffnung des Systems entsprechenden Beugungseffektes der Bildpunkte in Form von sich superponierenden Beugungsscheibchen) steht in Übereinstimmung mit den Grundsätzen der Undulationstheorie, falls die beiden Voraussetzungen erfüllt sind, I. daß die von den einzelnen Objektpunkten ausgehenden Strahlen- büschel Wellenflächen aufweisen, so daß alle Strahlen je eines Büschels in gleichem Abstände vom Zentrum zu allen Zeiten übereinstimmenden Os- zillationszustand repräsentieren, und 2. daß die von benachbarten Objekt- punkten ausgehenden Strahlen nicht interferenzfähig sind, also Wellenflächen zugehören, die voneinander unabhängig sind.

B.Abbildung nichtselbstleuchtender Objekte. Wir wollen jetzt den Fall betrachten, daß von einem Punkte ein Strahlenbüschel ausgeht, dessen Strahlen nichtinterferenzfähig miteinander sind. Dieses Strahlenbüschel besitzt keine Wellenflächen mit übereinstimmendem Oszillationszustand, also zieht die Begrenzung keinen Beugungseffekt nach sich. Dieser Fall tritt ein, wenn, wie in Fig. 2, in L sich Strahlen von allen Punkten der ausgedehnten Licht- quelle F kreuzen. Man kann sich vorstellen, daß bei L eine Wand mit sehr enger Öffnung steht. Von dieser punktförmigen Öffnung geht ein Strahlen- büschel aus wie von einem selbstleuchtenden Punkte, aber die Strahlen dieses Büschels sind inkohärent, da sie alle von verschiedenen Punktender Lichtquelle F herrühren. Wie verhält sich die Lichtverteilung im Vereinigungs-

37*

580 ^7* Otto Lummer: Neuere Fortschritte der geometrischen Optik

punkte L\ in welchem die Strahlen gemäß dem Brechungsgesetz durch das optische System S vereinigt werden? Dazu beschreiben wir wieder um L und V als Zentra die Kugelflächen WM und WM'] auch hier sind die „optischen Längen** aller Strahlen zwischen WM und W' M einander gleich, d. h. alle Strahlen brauchen die gleiche Zeit, um von WM nach WM^ zu gelangen; auch hier enthält die Kugelfläche W' MC die Endpunkte aller kürzesten Wege von gleicher optischer Länge gerechnet vom Objektpunkte L aus, aber hier ist WM' nicht zugleich Wellenfläche, da auf ihr von Punkt zu Punkt ein anderer Schwingungszustand herrscht: von ihren Punktengehen keine interferenzfähigen Elementarwellen aus. Diese Elementarwellen können also auch in der Mittelpunktsebene keine von der Begrenzung der Welle M'W

abhängige Beugungs- wirkung, also auch im Grenzfalle keinen Bildpunkt hervor- bringen. Im Falle, daß \^ ein Objekt nur solche

^*** von der Lichtquelle

transmittierten Strahlenbüschel aussendet, ist eine Abbildung im Sinne der geometrischen Optik ausgeschlossen. Findet dennoch im allgemeinen eine Ab- bildung nicht selbstleuchtender Objekte statt, scheinbar ganz übereinstim- mend mit den Gesetzen der geometrischen Optik, so muß trotzdem als Konse- quenz der allgemein angenommenen Theorie des Lichtes behauptet werden, daß diese Abbildung im Prinzip verschieden ist von der Abbildung selbstleuch- tender Objekte.

Indem E. Abbe sich dieser Unterschiede klar wurde und die Theorie der „Abbildung nichtselbstleuchtender Objekte" entwickelte und auf das Mikro- skop anwandte, wurde er der Begründer des modernen Mikroskops und der Zeißschen Mikroskopindustrie. In bezug auf seine Theorie der mikroskopischen Abbildung sei auf die von Lummer und Reiche herausgegebenen diesbezüg- lichen Abbeschen Vorlesungen verwiesen.

In diesem Artikel wollen wir fortan nur selbstleuchtende Objekte vor- aussetzen oder solche, bei deren Abbildung die Gesetze der geometrischen Optik, mit nachträglich zu jedem Bildpunkt hinzugefügtem Beugungseffekt, zulässig sind. Kanatische 5. Kaustische Flächen. Cartesische Ovalen. Sind die brechenden

Aborrationsfreic Flächen stctig gekrümmt, wie z. B. eine Kugelfläche, so sind es auch die Wellen - s^Hcme. flächen, auf denen die von einem Objektpunkt ausgegangenen Strahlen nach jeder Brechung senkrecht stehen. Also schneiden sich nach der Theorie der stetig gekrümmten Flächen im allgemeinen nur je zwei unendlich benach- barte Strahlen (Normalen) in einem Punkte und die Gesamtheit der ge- brochenen Strahlen bildet die sog. kaustische Fläche (Brennfläche). Diese besteht im allgemeinen aus zwei Flächenschalen.

Descartes stellte sich die Aufgabe, diejenigen spiegelnden oder brechen-

Erweiterung der A-bbildungsgrenzen 581

den Flächen aufzusuchen, die nach ihm benannten ,,Cartesischen Ovalen", welche alle von einem Punkte ausgegangenen Strahlen (sog. „homozentrische") aberrationsfrei wieder in einem Punkte vereinigen. Der Parabolspiegel ist ein Beispiel einer solchen Cartesischen Fläche, da er sämtliche zur Spiegel- achse parallel auffallenden Strahlen aberrationsfrei in seinem Brennpunkte vereinigt. Diese nicht sphärischen Flächen spielten bis vor kurzem keine Rolle bei der Konstruktion abbildender Systeme, da man diese vielmehr aus brechenden Kugelflächen kombinierte.

Die Kugelflächen gehören nicht zu diesen aberrationsfreien Cartesischen Ovalen, da bei ihnen im allgemeinen die Strahlenvereinigung keine punkt- weise ist, der „Bildpunkt** vielmehr kein Punkt sondern mit „Aberrationen** behaftet (Sphärische Aberration, Astigmatismus usw.) ist. Je nachdem der Objektpunkt auf der Achse der brechenden Kugelfläche liegt oder außerhalb, je nachdem der Querschnitt des wirksamen Bündels (entsprechend der Öffnung des Systems oder einer Blende daselbst) klein oder groß ist, ist die Strahlen- vereinigung (Kaustische Fläche) eine ganz verschiedene. Frühzeitig hat man die kaustische Fläche für diese verschiedenen Fälle zu bestimmen gesucht, ist aber über die ersten Ansätze nicht hinausgekommen. Als weitestgehende Unter- suchung ist diejenige von Sturm zu nennen, welcher die Konstitution eines schiefen engen Büschels nach der Brechung an sphärischen und n i ch tsphärischen Flächen bestimmte. Erst Gullstrand hat die genauere Untersuchung der kaustischen Flächen durchgeführt, dadurch der geometrischen Optik ganz neue Bahnen gewiesen und ihr durch Einführung nicht sphärischer Flächen neue Er- folge verschafft. Ehe wir hierauf eingehen, müssen wir aber berichten, auf welche Weise man sich bei Verwendung von Systemen zentrierter Kugel- f lachen geholfen hat, um praktisch die punktweise Abbildung wenn möglich von ausgedehnten Objekten mittels weitgeöffneter Büschel zu erzielen.

6. Erweiterung der Abbildungsgrenzen bei zentrierten Sy- Erweitenmg stemen. Allgemeines. Gemäß der Wellentheorie des Lichtes entsteht nur '^*" ^^jj^"*** dann ein punktweises Abbild, wenn das optische System Strahlenbüschel ^«» xentneiten

■^^ ' '^ ' Systemen.

endlicher Öffnung so bricht, daß sie im Bildraum senkrecht auf einer kugel- förmigen Wellenfläche stehen. Dieser Bedingung entsprechen nur die aberra- tionsfreien brechenden und spiegelnden Flächen, die sogar alle von einem Lichtpunkt ausgegangenen Strahlen wieder in einem Punkte vereinigen, in welchem tatsächlich eine punktweise Lichtkonzentration stattfindet. Leider besitzt jede aberrationsfreie Fläche aber nur ein aberrationsfreies Punktepaar, ist also von geringer praktischer Bedeutung, da sie keine Objekte punktweise abzubilden vermag.

Das zentrierte System brechender Kugelflächen anderseits vermag nur paraxiale Strahlen zu vereinigen, so daß gemäß der Wellenlehre des Lichtes Statteines Bildpunktes eine mehr oder weniger ausgedehnte Bild fläche (Beu- gungsscheibchen) entworfen wird. Die G au ß sehe paraxiale Abbildung ist daher in Wirklichkeit keine punktweise Abbildung und somit ebenfalls ohne praktische Bedeutung (vgl. Nr. 3 d. Art.).

582

27. Otto Lummsr: Neuere Fortschritte der geometrischen Optik

Die Forderungen der Wellenlehre für eine punktweise Abbildung und die Resultate der geometrischen Optik, welche in der G au ß sehen Abbildung gip- feln, stehen also in unlösbarem Widerspruche.

Man hilft sich daher durch Kompromisse. Zunächst kommt unser Auge ^u Hilfe, insofern dieses keine genaue punktweise Abbildung erheischt, da es infolge seiner Netzhauteinrichtung doch nicht zwei genügend nahe Bildpunkte voneinander trennen kann. Dem Auge erscheint daher auch ein Lichtscheib- chen von kleiner, aber endlicher Ausdehnung noch als Punkt. Auch die photo- graphische Platte verhält sich ähnlich dem Auge, denn sie hat ein „Korn" wie man sagt, und ist vergleichbar in ihrer Struktur unserer Netzhaut.

Ferner führt man eine Arbeitsteilung herbei, indem man die opti- schen Apparate wie das Mikroskop und das Fernrohr aus zwei Tei- len (Objektiv und Oku- lar) konstruiert, von denen der eine (Objek- iv*»-3- '"^•» tiv) wenig ausgedehnte Objekte mittels weitgeöffneter Büschel, der andere (Okular) dagegen ausge- dehnte Objekte mittels enger Büschel abzubilden hat.

Nach diesen Bemerkungen allgemeinerer Art wollen wir sehen, durch welche Mittel man beim zentrierten System brechender Kugel flächen die Ab- bildungsgrenzen der Gau fischen Abbildung erweitern kann. BeseitiRiiDg 7. sphärische Aberration und ihre Beseitigung. Zwei von einem

^^'ISr^OT *" Achsenpunkte L (Fig. 3) ausgegangene Strahlen LE und Le, von denen LE einen endlichen Divergenzwinkel C7, dagegen Le einen unendlich kleinen Win- kel u mit der Achse der brechenden Kugelfläche LS bildet, schneiden nach ihrer Brechung die Achse in verschiedenen Punkten L und /. Die Distanz LI wird als sphärische Längsabweichung bezeichnet. Alle zwischen E und e auffallenden Strahlen bilden einen Teil der kaustischen Kurve FjP, die von allen gebrochenen Strahlen eingehüllt wird. Wir wollen den vom System S aufgenommenen äußersten Strahl LE als Randstrahl bezeichnen im Gegen- satz zu dem Nullstrahl Le. Die engste Einschnürung xm des gebrochenen Bü- schels ist da, wo die kaustische Kurve FW von den Randstrahlen geschnitten wird; der Querschnitt vw stellt somit die Größe des kleinsten Zerstreuungs- kreises dar (Lateralaberration oder Seitenabweichung).

Bei einer einzigen brechenden Fläche und für parallel auffallende Strahlen bei dünnen Linsen haben die Randstrahlen eine kleinere oder größere Vereini- gungsweite als die Nullstrahlen, je nachdem die brechende Fläche oder Linse parallele Strahlen reell oder virtuell vereinigen. Schneiden die Randstrahlen die Achse näher dem System als die Nullstrahlen, so nennt man das System sphärisch unter korrigiert; im entgegengesetzten Falle sphärisch über korrigiert.

..,/•

Erweiterung der Abbildungsgrenzen egj

Hieraus erkennt man ohne weiteres, daß man durch die Kombination eines über- und unterkorrigierten Systems ein Gesamtsystem erhalten muß, dessen sphärische Aberration dem absoluten Betrage nach kleiner ist als die jedes Einzelsystems. Bei geeigneter Wahl der Einzelsysteme wird man also die sphärische Aberration ganz beseitigen können.

So ist es gelungen Mikroskopobjektive herzustellen, welche Strahlen- büschel von i8o® Öffnungswinkel punktweise vereinigen.

Die durch Beseitigung der sphärischen Aberration erzielte Erweiterung der Abbildungsgrenzen bezieht sich nur auf die Objektpunkte, welche auf der Achse des Systems gelegen sind und streng genommen auch nur auf ein Punkte- paar, für welches das System sphärisch korrigiert worden ist.

8. Abbildung von Flächenelementen mittels weitgeöffneter Sinusbedingung. Büschel. Sinusbedingung. Es sei das optische System S (Fig. 4) für den Achsenpunkt L sphärisch korri- /v*—-

giert, so daß das weitgeöffnete von ^..'-ffJj^mSlJ^^^ x^^*"^

L ausgehende Strahlenbüschel nach V gebrochen werde. Früher glaubte man, daß dann auch ein L benach- barter Punkt / punktweise abgebil- det werde. Dies ist aber nicht der ' ^**'*' Fall, vielmehr wird vom unendlich benachbarten Punkte l ein Zerstreuungs- kreis tr erzeugt, der von gleicher Größenordnung ist wie der Abstand IL des Objektpunktes / von der Achse. Es hat dies nach Abbe seinen Grund darin, daß die verschiedenen Partien („Zonen**) des sphärisch korrigierten Systems 5 von LI Bilder verschiedener Lateralvcrgrößerung entwerfen. In der Figur ist L'l' das durch die Nullzone (Nullstrahlen) entworfene Bild von L/, während die Randzone (Randstrahlen) von LI das Bild L'l" entwirft.

Wir wollen ein System als „aplanatisch** bezeichnen, wenn es mittels weitgeöffneter Strahlenbüschel ein axiales Flächenelement LI punktweise und ähnlich wieder als axiales Flächenelement abbildet. Die Punkte L und L\ für welche diese Bedingung erfüllt ist, heißen „aplanatisch e** Punkte. Da- mit sie aplanatische Punkte werden, muß für sie die sphärische Aberration auf- gehoben und die Lateralvergrößerung aller Zonen des Systems die gleiche sein, d.h. es muß jede Zone desSystems5 vom Element ZJ das gleich- große Bild L't entwerfen. Die notwendige und hinreichende geometrische Bedingung dafür ist die Sinusbedingung:

Es muß das Sinusverhältnis konjugierter Achsenwinkel u und u' für alle vom Achsenpunkte L ausgegangenen und zum Bildpunkte Ü gebrochenen Strahlen konstant sein, d. h. es muß gelten:

sin i/' sin «* , ^ x

s—TF -■ -: konstans ... i)

sm c/ sin 1/ '

Was die Aufstellung der Sinusbedingung und die Ableitung des Wertes

der Konstanten betrifft, so ist sie fast gleichzeitig von Abbe und Helmholtz

gegeben worden. Helmholtz fand sie als Bedingung dafür, daß alles von

1

584 37. Otto Lummer: Neuere Fortschritte der geometrischen Optik

I

einem Flächenelement ausgehende und das System treffende Licht wirklich indem konjugierten Bildelement vereinigt werde, welches das aberrationsfreie System nach den gewöhnlichen Regeln der geometrischen Optik (Gaußsche Abbildungs- lehre) vom Objektelement entwirft. Er wandte also gleichsam das Gesetz von der Erhaltung der Energie auf die Lichtstrahlung an. Viel allgemeiner hatte Clau- sius sie schon vor Helmholtz und Abbe aus dem zweiten Hauptsatze der mechanischen Wärmetheorie hergeleitet. Sommerfeld und J. Runge haben ganz kürzlich für den Sinussatz unter Anwendung der Vektorenrechnung einen Beweis erbracht, der im Grunde genommen mit dem von Schwarzschild gegebenen identisch ist. Den Zusammenhang des Sinussatzes mit einem allgemeineren Reziprozitätsgesetz der geometrischen Optik betont Straube 1.

Ist die Sinusbedingung für das Punktepaar L und L! (Fig. 4) erfüllt, so kann sie nicht für ein anderes konjugiertes Punktepaar erfüllt sein. Denn um zwei verschiedeneAchsenpunkteLaplanatisch abzubilden, muß nachCzapski einer Bedingung genügt werden, welche im Widerspruch steht mit der Sinus- bedingung.

Aus beiden Bedingungen folgt, daß man mit allen Mitteln der praktischen Dioptrik sich höchstens folgendem theoretischen Ziele nähern kann, mittels be* liebigweitgeöffnet er Büschel entweder nur ein zur Achse senkrechtes Flächen- element oder ein unendlich kleines Stück der Achse selbst deutlich abzu« bilden. Dagegen bleibt es praktisch unmöglich, ein unendlich kleines axiales Raumelement scharf abzubilden. Taoffenten- 9- Abbildung ausgedehnter Objekte mittels sehr enger Bü- ^•*""*™*' schel. Tangentenbedingung. Es werde vorausgesetzt, daß ein Objektiv bei kleiner Öffnung, d.h. bei Benutzung nur der Objektivmitte, ein ausge- dehntes Objekt punktweise abbilde. Damit dies der Fall ist, muß vor allem der Astigmatismus schief einfallender enger Büschel gehoben sein. Dann zeigt das Bild noch zwei Fehler, es ist gewölbt und verzerrt. Ist die Bildwölbung ebenfalls gehoben, so daß von einem ebenen Objekt ein ebenes Abbild ent- steht, so bleibt nur noch die „Verzerrung** zu beseitigen. Für die Aufhebung der Verzerrung läßt sich ganz allgemein eine Bedingung aufstellen, während die Beseitigung des Astigmatismus und der Bildwölbung oder die Herstellung der sog. „anastigmatischen Bildebenung** sich nicht allgemein fassen läßt. Es ist das Verdienst P. Rudolphs zuerst Objektive mit anastigmati- scher Bildebenung („Zeiß-Anastigmate**) hergestellt zu haben. Im Prinzip ist dies durch die Kombination eines Achromaten aus Fraunhof ersehen Gläsern („Altachromat**) mit einem Achromaten aus den neuen Jenaer Gläsern („Neu- achromat**) zu einem Objektiv gelungen (vgl. Abschn. 12). Als Vorläufer des Anastigmaten ist der „Antiplanet** von Steinheil zu erwähnen.

Ist die Verzerrung eines Objektivs auch bloß ein Schönheitsfehler, so ge- winnt sie an Bedeutung, wenn es sich wie bei der Photogrammetrie darum han- delt, perspektivisch ähnliche und winkelgetreue Abbilder zu erzielen. Um diese Bedingung der „Orthoskopie** zu formulieren, nehmen wir an, dafralle vom Ob- jekt li (Fig. 5) kommenden engen Strahlenkegel die Achse des Systems S an ein

Arbeitsteilung beim Mikroskop

585

und derselben Stelle p schneiden und daß ebenso die das Bild erzeugenden Büschel die Achse an ein und demselben Punkte p' durchsetzen (in Fig. 5 ist das Bild virtuell). Man erreicht den geforderten Strahlengang dadurch, daß man bei p und p' Blenden einschiebt.

Ist X ein beliebiger Punkt des Objekts, o(f sein Bildpunkt, sind u und u' die zugehörigen Achsenwinkel der von ihnen ausgegangenen Strahlen (wenn man die Zentral- oder Hauptstrahlen mit den engen Strahlenbüscheln iden- tifiziert), so erhalten wir als Bedingung für die Orthoskopie, daß für alle kon- jugierten Strahlenpaare gel- i ten muß:

-^— konstans ... 2)

tgu f

Ist diese Airy-Abbe- sehe „Tangentenbedingung** erfüllt, so bildet das anastig- matische Ob j ektiv ein Kreuz- gitter von sich rechtwinklig schneidenden Geraden (Schachbrett) wieder als ein Kreuzgitter (Schachbrett) ab; im anderen Falle tritt ein verzerrtes Bild auf.

Man nennt ein System, bei welchem der Tangentenbedingung genügt wird, ein „orthoskopisches** System und die Schnittpunkte der abbildenden Strah- lenbüschel mit der Achse p oder p' die ,,orthoskopisc'hen** Punkte des Systems. Die orthoskopischen Punkte können nicht zu gleicher Zeit aplanatische Punkte sein, für welche ja die Sinusbedingung erfüllt sein muß. Es kann also das ausge- dehnte Objekt U nicht zugleich durch weit geöffnete Büschel abgebildet werden.

Die Tangentenbedingung, wie ich 1897 zeigte, schon 1862 von Airy und Sutton erkannt (freilich ohne Beachtung zu finden), ist nicht hinreichend, wenn nicht, wie in Fig. 5 angenommen war, die von p kommenden und nach p' zielenden abbildenden Strahlenbüschel sich in einer durch 5 senkrecht zur Achse pp' gelegten Ebene schneiden. In diesem Falle ist die Tangenten- bedingung gleichbedeutend mit der Bedingung : es sollen alle vonp kommenden Strahlen durch das System S wieder in einem Punkte p' vereinigt werden, d. h. es soll das System sphärisch korrigiert sein in bezug auf den Ort der Blende p und ihres Abbildes p\ Diese Bedingung ist bei einer Linse schlechter- dings nicht zu erfüllen, da eine Zerstreuungslinse sphärisch überkorrigiert, eine Sammellinse sphärisch unterkorrigiert ist. Beide Linsensorten müssen also in entgegengesetztem Sinne verzerren.

IG. Arbeitsteilung beim Mikroskop und Fernrohr durch Tren- Arbeit»toüung nung in Objektiv und Okular. Die im vorigen Abschnitt behandelten ob-rfu^Md Spezialfälle, entweder Abbildung eines axialen Flächenelementes durch weit- oknUr. geöffnete Büschel oder eines ausgedehnten Objektes durch sehr enge Büschel sind zugleich verwirklicht beim Fernrohr und ganz besonders beim zusammen- gesetzten Mikroskop. Hier erreichen die Öffnungswinkel der abbildenden Bü- schel am Objektiv maximal 180*^, während das mikroskopische Objekt als

586

27. Otto Lummbr: Neuere Fortschritte der geometrischen Optik

Flächenelement zu betrachten ist. Demnach muß vor allem das Objektiv frei von sphärischer Aberration sein und aplanatisch für den Ort des Objektes (nahezu vorderer Brennpunkt) und seines weit vom Objektiv entfernten Ab- bildes. In bezug auf dieses Punktepaar muß also die Sinusbedingung erfüllt sein. Beim Fernrohrobjektiv sind der unendlich ferne Objektpunkt und der hintere Brennpunkt des Objektivs zu aplanatischen Punkten zu machen.

Dem Okular in Verbindung mit dem Auge bzw. dem Projektionsokular bei objektiver Projektion des mikroskopischen Bildes fällt dagegen die Aufgabe zu,

relativ ausgedehnte Objekte mittels rela- tiv enger Büschel ab- zubilden. Das Oku- lar muß also frei von Astigmatismus, Bild- wölbung und Ver- zerrung sein, d. h. es muß bei ihm die Tan- gentenbedingung er- füllt sein. Nur dieser Arbeitsteilung ver- dankt das Fernrohr und zusammenge- setzte Mikroskop sei- ne hohe Leistungs- fähigkeit.

Zweck

der Stnthlen-

begrenxong

durch Blenden

(maximale

HeUigkeit

optischer Bilder).

Flg.;.

II. Über die Strahlenbegrenzung. A. Zweck und Bedeutung der Blenden. Da ein optisches System weder unendlich große Objekte, noch auch einen Punkt mittels beliebig weiter Büschel abbildet, so bedient man sich ge- eigneter Blenden oder Diaphragmen, welche den Strahlengang in gewünschter Weise begrenzen. Die so willkürlich herbeigeführte Strahlenbegrenzung ist für die Theorie der optischen Instrumente, deren Helligkeit, Auflösungsvermögen usw. von großer Wichtigkeit. Sie ist zum Teil von Helmholtz, hauptsächlich aber von Abbe entwickelt und neuerdings durch Gullstrandbei subjektiver Beobachtung in ein neues Licht gerückt worden.

B. Eintritts- und Austrittspupille. Iris. Bei jeder Abbildung (Fig. 6) werden die abbildenden Strahlenbüschel im Objektraume von einer Blende p begrenzt, deren Bild p' in bezug auf das optische System die Strahlenbüschel im Bildraume begrenzt, so daß kein Strahl aus dem System durch p' austreten kann, der es nicht durch p eintretend erreicht hat. Beide brauchen nicht wirk- lich als körperliche Blenden oder Diaphragmen vorhanden zu sein, sondern können die Bilder einer solchen sein.

Der allgemeinste Fall wird durch folgende Betrachtung gefunden. Es liege die körperliche Blende p (Fig. 7) zwischen den Systemen S^ und S^\ ferner sei py das Bild von p in bezug auf System 5^, und p^ das Bild von p in bezug auf

Strahlenbegrenzung 587

System Sg. Das Objekt ALB werde durch das Gesamtsystem S^ + 5^ in A'U B' abgebildet.

Bei dieser Lage hat das aus S^ austretende Büschel die Blende p zur Basis, demnach muß das eintretende nach p^ zielen, um zur Geltung zu kommen. Das aus S^ austretende Büschel ist vor dem Eintritt durch die Blende p ge- gangen; es muß also p2 zur Basis haben. Die in bezug auf das Gesamtsystem Si + S2 konjugierten Öffnungen p^ und pg sind demnach für den Strahlengang maßgebend als Begrenzungen. Sie ersetzen in ihrer Wirkung vollkommen die körperliche Blende p.

Beim Auge ist der in Fig. 7 dargestellte Fall vorhanden. Zwischen der Linse und der Augenkammer befindet sich die Iris mit der Pupillenöffnung. Von ihr entwerfen Hornhaut und Augenwasser ein Bild vor dem Auge; demnach sind nur diejenigenStrahlen wirksam, welche nach diesem Bilde zielen. Man sieht dieses Bild, wenn man dem Beobachter direkt in yf das Auge blickt. Wegen dieser Analogie hat .^. Abbe die körperliche Blende p eines Sy- stems die Iris, das Bild p^ der Iris im Ob- jektraumedie„Eintrittspupille** und das ^*«**'

Bildpjderlrisim Bildraume die Aus trittspupille" genannt.

C. Reziprozität zwischen Objekt und Eintrittspupille bzw. Bild und Austrittspupille. Haupt strahlen. Wie aus Fig. 8 ersichtlich ist, gehen von der Eintrittspupille cd Strahlenkegel aus, welche das Objekt AB zur Basis haben, während umgekehrt die von einem Objektpunkte kommenden Strahlen die Eintrittspupille cd zur Basis haben. Analog verhält es sich mit dem Bilde und der Austrittspupille. Die sämtlichen wirksamen Strahlen lassen sich demnach in zweierlei Art zusammenfassen: Einmal als Strahlenkegel, aus- gehend von den Objektpunkten, mit der Eintrittspupille rd als Querschnitt, das andere Mal, ausgehend von den Punkten der Eintrittspupillc, mit dem Objekt AB Bis Basis. Wir können nach Belieben die Rolle von Objekt und Eintritts- pupille vertauschen. Ist AB das Objekt, so ist cd die Eintrittspupille; ist £:ddas Objekt, so ist AB die Basis der abbildenden Büschel.

Als „Hauptstrahlen** bezeichnet man die vom Rande des Objektes AB nach der Mitte m der Eintrittspupille gezogenen Strahlen Am und ßm. Ihnen entsprechen im Bildraume die von der Mitte der Austrittspupille zum Rande des Bildes von AB gezogenen Strahlen. Diese Hauptstrahlen geben gleichsam das Gerippe des Strahlenganges. Die von der Objektmitte L zum Rande der Eintrittspupille gezogenen Strahlen cL und dL sind maßgebend für die zur Ab- bildung beitragende Strahlenmenge. Man nennt daher den Winkel cLd den „öff- nungswinkel** des Systems und den konjugierten Winkel, unter welchem die Austrittspupille von der Mitte des Bildes erscheint analog den „Projektions- Winkel**.

D. Numerische Apertur und Öffnungswinkel. Außer vom Öff- nungswinkel hängt die zum Bildpunkte geführte Lichtmenge noch von anderen

588

27. Otto Lummer: Neuere Fortschritte der geometrischen Optik

Faktoren ab. Sendet doch ein strahlendes Flächenelement, wie z.B. ein glühen des Platinblech, um so weniger Licht aus, je größer der Winkel ist, welchen die Strahlungsrichtung mit der Flächennormalen bildet.

Strahlt das Flächenelement gemäß dem Lambertschen Kosinusgesetz und ist es eingebettet in ein Medium von Brechungsquotienten n, so ist die zum konjugierten Bildelement transportierte Strahlenmenge proportional dem

Produkt:

n

Flg. 9.

sinu

wobei u den halben Öffnungswinkel der abbildenden Büschel im Objekt- raum bedeutet.

Damit im Bildpunkte bei beliebi* gem Offnungswinkel u und bei belie- bigem Brechungsquotient n des Ob- jektraumes die doppelte, dreifache usw. Lichtmenge vereinigt werde, muß man das Produkt n ' sin u ver- doppeln, verdreifachen usw., nicht

aber, wie man früher glaubte, den Öffnungswinkel. Das Produkt n sin u ist von Abbe als die numerische Apertur bezeichnet worden. Zwei Systeme sind demnach in bezug auf die Strahlenkonzentration einander gleich, wenn sie gleiche numerische Aperturen, also gleiche Werte von n * sin u haben. Ein Öffnungswinkel von 120® im Medium n = 1,5 führt mehr Strahlen zum Bild- punkte, als ein Öffnungswinkel von 180® in Luft (n = i), denn es ist 1,5 -sin 60® s= 1,3 und I ' sin 90® = l. Die Apertur n * sin u ist also das wahre Maß für die Strahlenaufnahmefähigkeit eines Systems.

E. Abbe hat durch seine Theorie der Abbildung nichtselbstleuchtender Objekte nachgewiesen, daß von der Apertur des Mikroskopsystems die Güte des Mikroskop bildes in bezug auf seine Ähnlichkeit mit dem Objekt und ebenso die Grenze der Auflösungsfähigkeit des Mikroskops abhängt.

£. Okularkreis (reelle Austrittspupille). Alle wirksamen Strahlen im Bildraume durchsetzen die Austrittspupille oder scheinen von ihr zu kom- men. In Fig. 9 sei AVB das reelle Bild des Objekts und c'rrii die reelle Aus- trittspupille des Systems.

Tritt zu der Austrittspupille c'Ü noch eine zweite Blende ir mit der Öff- nung r5, so beeinflußt diese den Strahlengang in zweierlei Hinsicht. Fällt rs nicht zusammen mit dem Kreuzungspunkte m' der Hauptstrahlen im Bild- raume, so wird der Bildwinkel Bm'A und damit das Gesichtsfeld verkleinert. Fällt rs mit d^ zusammen, so blendet diese zwar vom Gesichtsfelde nichts ab. wohl aber je nach ihrer Größe von dem Querschnitte der Strahlenbüschel und damit von der wirksamen Strahlenmenge.

Bei subjektiver Beobachtung des optischen Bildes ist rs identisch mit der Pupille des Auges. Um daher die Leistungsfähigkeit des Systems in bezug auf das Gesichtsfeld auszunutzen, muß man vor allem die Augenpupille mit der Austrittspupille zur Koinzidenz bringen. Man nennt daher den Achsenpunkt

Lichtwirkung optischer Systeme egg

ni der Austrittspupille auch den Augenpunkt und die kreisförmige Aus- trittspupille selbst den Augenkreis oder Okularkreis.

F. Lichtwirkung optischer Systeme bei flächenhaften Objek- ten. Das Systems (Fig. lo) entwerfe vom Objekt ^5 punktweise und kollinear das Bild ÄW und von der Eintrittspupille crf das punktweise reelle Abbild dd! als Austrittspupille. Dann kann gleichsam das Bild als selbstleuchtend auf- gefaßt werden, wobei aber die von seinen Punkten (z. B. A) ausgehende Strah- lung nur die Austrittspupille ausfüllt, also innerhalb gewisser Kegelräume (z. B. ä Ad) verläuft und sich nicht nach allen Seiten ausbreitet, wie es sein würde, wenn es kein dioptrisches Abbild, sondern ein selbstleuchtendes Objekt wäre.

Bekanntlich gilt in bezug auf eine selbstleuchtende oder diffus reflek- tierende ausgedehnte Fläche, welche man direkt betrachtet, daß ihre Helligkeit proportional der Pupillengröße des Auges, im übri- gen aber unabhängig von der Ent- fernung und Lage der Fläche ist.

Ist die Intensität des dioptrischen Abbildes All (z. B. des Fernrohrbildes) gleich derjenigen des Objektes AB^ so erscheint also das Abbild ebenso hell wie das direkt (mit bloßem Auge) betrachtete Objekt, solange der Okularkreis größer als die Augenpupille oder ihr an Größe gleich ist. Beim Fernrohr und bei den Mikroskopen ohne Immersion, wo Objekt- und Bildmedium (Luft) den gleichen Brechungsquotienten haben, kommt tatsächlich jedem Bildpunkt (z. B. Q) die gleiche Intensität zu wie dem zu Q konjugierten Objektpunkt Q (abgesehen von den Reflexions- und Absorptionsverlusten). Strahlt das Ob- jekt überall mit gleicher Lichtstärke, so strahlt auch das konjugierte Bild mit überall der gleichen Lichtstärke wie das Objekt. Sind n^ und n^ die absoluten Brechungsquotienten des Objekt- und Bildraumes, so muß bei jedem Bild- punkte ß' die (n,/ni)^mal so große Leuchtkraft oder Intensität des kon- jugierten Objektpunktes zugeschrieben werden, also eine kleinereLeuchtkraft, falls wie bei Immersionsmikroskopen n^'>n^ ist.

Bei allen Apparaten ist also die Helligkeit des Bildes bestenfalls gleich derjenigen des mit bloßem Auge betrachteten Objektes. Durch keine noch so sinnreich erdachte Kombination optischer Systeme und Apparate kann ein Bild von einem flächenhaften Objekt erzielt werden, welches heller erscheint als das direkt gesehene Objekt.

Aber auch für die Intensität objektiver Bilder läßt sich beweisen, daß sie, selbst im Brennpunkte einer Linse, höchstens der des konjugierten Objekt- punktes gleich kommen kann. Da durch Verwendung optischer Apparate (Lupe, Fernrohr, Mikroskop, Brennglas usw.) weder an Helligkeit bei subjek- tiver Beobachtung noch an Intensität bei der Projektion flächenhafter Bilder gewonnen wird, so darf man mit Recht fragen, welches der Zweck und Nutzen der optischen Apparate ist: Der Nutzen besteht lediglich in der Mög- lichkeit, durch optische Systeme Lagen- und Größenänderungen der Objekte

•••

11.0

590 ^7* Otto Lumbier: Neuere Fortschritte der geometrischen Optik

hervorzubringen, ohne wesentliche Verluste an Helligkeit und Intensität zu erleiden.

Nach Hclmholtz bezeichnet man diejenige Vergrößerung als die „Nor- malvergrößerung", bei welcher das Bild mit der gleichen Helligkeit gesehen wird wie das Objekt mit bloßem Auge. Dies ist, wie erwähnt, der Fall, solange der Augenkreis größer oder gleichgroß an Fläche ist wie die Augenpupille. Da der Okularkreis beim Fernrohr und Mikroskop soviel mal kleiner als das Ob- jektiv ist, als die Vergrößerung des Instrumentes angibt, so kann man durch Anwendung immer größerer Objektive (bei Fernrohren) auch bei stärkster Vergrößerung die normale Bildhelligkeit (Normalvergrößerung) erreichen, bei Mikroskopen dagegen niemals. Ersetzt man das Okular, für welches das Fern- rohr normal vergrößert, durch ein stärkeres, so nimmt die Bildhelligkeit ab. Man sieht den Okularkreis vor dem Okular des Fernrohrs und Mikroskops frei in der Luft als helles Scheibchen schweben. Im Verhältnis als dieses Scheibchen an Fläche kleiner ist als die Augenpupille, im gleichen Verhältnis erscheint das Bild im Instrument dunkler als das mit bloßem Auge betrachtete Objekt.

G. Intensität und Helligkeit punktförmiger Gebilde (Fix- sterne). Blicken wir einen Lichtpunkt an, dessen Bild trotz der sphärischen Aberration des Auges auf der Netzhaut nur ein Netzhautelement erregt, so ist die Helligkeit proportional der Pupillenfläche einerseits und umgekehrt proportional dem Quadrate der Entfernung vom Auge anderseits. Hierbei ist es gleichgültig, ob das gesamte Licht nur einen Punkt eines Netzhautelementes trifft oder ob das Licht das ganze Netzhautelement ausfüllt. Da die scheinbare Größe eines Netzhautelementes (Zapfen der Fovea centralis) eine Winkelminute beträgt, so darf natürlich auch der Zertrennungskreis ebenso groß sein, den ein optisches System und das Auge gemeinschaftlich von einem Lichtpunkte erzeugen, ohne daß jenes Gesetz seine Gültigkeit verliert. Ja, unter Berück- sichtigung der eigentümlichen Lichtverteilung im Zerstreuungskreise bleibt jenes Helligkeitsgesetz auch noch bestehen, wenn der Zerstreuungskreis mehr als ein Netzhautelement einnehmen sollte; hier gibt es aber eine Grenze, über welche hinaus das von mir aufgestellte und „Punktgesetz** genannte Hellig- keitsgesetz für Lichtpunkte nicht mehr gilt, wo vielmehr das für ausgedehnte Flächen zur Geltung kommt.

Nur solange bei Anwendung von Riesenfernrohren die Sterne auf der Netz- haut noch als ,, Punkte** im dargelegten Sinne abgebildet werden, gewinnt man so viel mal mehr an Helligkeit, als das Objektiv die Pupille an Größe übertrifft: Man hat gleichsam die Pupille vergrößert. Die Folge davon ist, daß man mit dem Fernrohr Sterne sieht, die infolge ihrer Lichtschwäche ohne Instrument nicht sichtbar sind. Und da bei genügend starker Vergrößerung die Hellig- keit der diffusen blauen Himmelsfläche entsprechend abnimmt, so kann man mit Riesenfernrohren auch die Sterne bei Tage beobachten. BedoatttDg der 12. Bcdcutung der Jenaer Gläser. (Altachromat und Neuach- jena«r **'romat,) Bishcr haben wir vorausgesetzt, daß der Objektpunkt mit homo- genem Licht einer Wellenlänge leuchtet. In der technischen Optik haben wir

Bedeutung der Jenaer Gläser 591

es aber mit der Abbildung von Objekten zu tun, welche sog. „weißes** Licht aussenden, d. h. mit Licht aller möglichen Wellenlängen strahlen. Infolge der mit der Brechung verbundenen ,, Dispersion** entstehen daher von einem Ob- jektpunkt so viele Bildpunkte als das Licht des leuchtenden Punktes verschie- denfarbige Strahlen aussendet. Aber nicht nur der Bildort, sondern auch die Bildgröße variieren mit der Wellenlänge des Lichtes; ebenso die Sinusbedin- gung und das Tangentenverhältnis, da in den Konstanten derselben (Formel I und 2 S. 583 u. 585) der Brechungsquotient vorkommt.

Hierbei ist wichtig hervorzuheben, daß die Variation des Bildortes und der Bildgröße mit der Wellenlänge des Lichtes schon der Gauß- schen Abbildung anhaftet, bei welcher eine punktweise Abbildung nur unter Verwendung einer unendlich kleinen Öffnung des Sy- stems (Objektivmitte oder Nullzone) und paraxialer Strahlen er- halten wird. Die Variation des Bildortes mit der Wellenlänge wird als „Chromasie der Vereinigungsweite**, die Variation der Bildgröße mit der Wellenlänge als „Chromatische Differenz der Vergrößerung** bezeichnet. Beide chromatischen Fehler haften also schon der Null- zone des zentrierten Systems an und sind nicht wie die sphärische Fig.xi. Aberration durch Verengerung der Öffnung zu beseitigen, sondern nur durch die Kombination von Linsen mit entgegengesetzten chromatischen Fehlern.

Bekanntlich gelang es Dollond im Jahre 1752 durch die Kombination einer sog. Kronglaslinie und einer sog. Flintglaslinie die Farbenzerstreuung (Variation des Bildortes) zu kompensieren, ohne die Strahlenkonzentration aufzuheben. Eine solche Kombination aus zwei Linsen, welche von einem axialen weißen Objektpunkt einen weißen Bildpunkt entwirft, nennt man einen ,,Achromaten**.

Die Herstellung eines Achromaten hängt also wesentlich von der Wahl der Glassorten ab. Im allgemeinen vereinigt eine dünne Sammellinse die blauen Strahlen näher der Linse als die roten, während es bei einer Zerstreuungslinse gerade umgekehrt ist. Kombiniert man also eine Sammellinse (Nr. i in Fig. 11) mit starker Brechung (kleiner Brennweite) und aus Glas von geringer Dis- persion mit einer Zerstreuungslinse (Nr. 2) von größerer Brennweite und aus Glas mit relativ großer Dispersion, so hat die Kombination noch eine endliche Gesamtbrennweite, während die entgegengesetzten Farbenzerstreuungen sich aufheben. In bezug auf die Auswahl von geeigneten Glassorten hat man zwei Perioden zu unterscheiden, die Fraunhof ersehe und die Abbe-Schottsche. Während bei den „Fraunhof er sehen Gläsern** die Größe der Dispersion mit der Größe des Brechungsquotienten Hand in Hand geht, natürlich nicht genau proportional, da sonst eine achromatische Kombination unmöglich wäre, gibt es unter den „Jenaer Gläsern** (Abbe- Schott) auch solche, welche bei ge- ringem Brechungsquotient eine relativ hohe Dispersion und bei hohem Brechungsquotient eine relativ geringe Dispersion besitzen.

Unter Benutzung Fraunhof er scher Gläser muß die Sammellinse (Nr. l) des Achromaten notwendig aus Glas von kleinem Brechungsquotient mit ge-

502 27. Otto Lummer: Neuere Fortschritte der geometrischen Optik

ringer Dispersion und die Zerstreuungslinse (Nr. 2) aus Glas von hohem Bre- chungsquotient und hoher Dispersion gefertigt werden. Einen solchen aus Fraunhof ersehen Gläsern gefertigten zweilinsigen Achromaten habe ich „Alt- achromat" genannt. Unter Benutzung geeigneter Jenaer Gläser kann man die Sammellinse i aus Glas von höherem Brechungsquotienten fertigen als die Zer- streuungslinse, wenn dem höheren Brechungsquotienten eine relativ kleinere Dispersion zukommt als dem Glase der Zerstreuungslinse 2. Geeignete Gläser zum Neuachromaten sind z. B. die folgenden:

Bariumsilikat: n^= 1,6112; n/y^c* = 0,01747, Natronbleiglas: n^j = 1,5205; n/jL.c' = 0,01956, wo fij) den Brechungsquotienten für das Licht der Fraunhof ersehen JD-Linie (Natriumlicht) und n^f^c ^^^ sog. ,, mittlere Dispersion**, d. h. die Differenz des Brechungsquotienten für Licht der Fraunhof ersehen Linien F und C be- deuten. Einen aus solchen Jenaer Glaspaaren gefertigten Achromaten habe ich ,,Neuachromat** getauft.

Die von mir eingeführte Nomenklatur hat den Vorzug, gewisse Erfolge der neueren Objektive, zumal der photographischen, mit kurzen Worten cha- rakterisieren zu können. Es hat sich nämlich gezeigt, daß die Bedeutung des Neuachromaten erst so recht zur Geltung kommt, wenn man ihn mit einem Alt- achromaten zu einem Gesamtsystem kombiniert. Bei geeigneter Kombination kann man bewirken, daß das Gesamtsystem in ziemlicher Vollkommenheit frei von „sphärischer Aberration** (niederer Ordnung), von ,,Chromasie der Ver- einigungsweite**, von ,, Astigmatismus** und von „Bildwölbung*' ist. Die sog. Anastigmatemit „anastigmatisch geebnetem Bildfelde*' (vgl. Abschn. 9) sind, wie ich zeigen konnte, im Prinzip auf eine Kombination eines Neuachro- maten mit einem Altachromaten zurückzuführen, sekandärat ^3' Sekundäres Spektrum. Apochromate. Im allgemeinen kann

spektram, ^^^^ beim Achromaten aus zwei Linsen auch nur zwei Farben zur Vereinigung

Apochromate. ^ ^ o o

bringen. Da dann die Vereinigungsweite noch für die übrigen Farben variiert, so zeigt das Bild eines weißen Achsenpunktes immer noch Farben oder ein sog. ,, sekundäres Spektrum**. Unter Verwendung geeigneter Jenaer Gläser dagegen kann man mittels zweier Linsen streng drei Farben vereinigen, so daß das sekundäre Spektrum verschwindet und praktisch von einem weißen Objektpunkt ein farbloser Bildpunkt entsteht. E^ eignen sich hierfür nur solche Glaspaare, bei denen das Verhältnis der partiellen Dispersionen für alle Teile des Spektrums (also im roten, gelben, grünen, blauen usw. Teil des Spektrums) das gleiche ist oder für welche, wie man sagt, der „Gang der partiellen Disper- sionen** der gleiche ist. Zur Erzielung dieser höheren Achromasie bediente man sich vor der Existenz der Jenaer Gläser der Kombination fester und flüssiger Medien, natürlich ohne praktischen Erfolg.

Unter „Apochromat" versteht man ein Mikroskopobjektiv von großer Apertur, bei welchem das sekundäre Spektrum praktisch ganz und außerdem auch die Chromasie der Vergrößerung (Variation der Bildgröße mit der Wellen- länge) und der Sinusbedingung beseitigt ist.

Gullstrands Abbildungslehre enj

14. Ausgangspunkt der GuUstrandschen Theorie der allge-GuiutrandsAb- meinen Abbildung. Diese Theorie wurde ins Leben gerufen durch die Be- ^J^°"^*^^^®* dürfnisse der physiologischen Optik. Im Auge haben wir ein brechendes System, welches mit keinem der praktischen Optik zu vergleichen ist, insofern es nichtsphärische oder asphärische Flächen aufweist und einen eigen- tümlich geschichteten Bau der Linse zeigt. Ja nicht einmal zentriert scheint das ganze optische System des Auges zu sein.

Als Helmholtz seine grundlegenden Arbeiten über die Dioptrik des Auges veröffentlichte, beherrschte die Gaußsche Abbildungslehre das Feld, also die Vorstellung einer punktweisen Abbildung durch Systeme von Kugel- f lachen. Man wußte zwar, daß selbst die von einem Achsenpunkt ausgegangenen Strahlen chromatische und sphärische Aberration zeigen. Man wußte auch, daß ein in größerem Abstände von der Achse gelegener Objektpunkt vom zen- trierten System nicht als Punkt abgebildet wird, indem das entsprechend ge- brochene schiefe Bündel astigmatisch ist, und man kannte die Formeln zur Berechnung dieses Astigmatismus. Die Konstitution des bei schiefer Inzidenz gebrochenen Strahlenbündels und seine Abweichungen von der homozen- trischen Strahlenvereinigung blieben aber unbekannt, da man nur die in den beiden Hauptschnitten (Meridional- und Sagittalschnitt) verlaufenden Strahlen berücksichtigte, welche doch nur einen verschwindenden Teil der Strahlen- masse des schiefen, körperlichen Büschels ausmachen. Da es somit unmög- lich war, die wirklich eintretende Abbildung zu untersuchen, wurde der Weg befolgt (insbesondere von Abbe), welcher ohne Kenntnis der allgemeinen Abbildungsgesetze allein zu einem System führen konnte: Man suchte ohne Rücksicht auf ein brechendes System die mathematischen Bedingungen für eine kollineare Verwandtschaf t oder ,,punktuelle** Abbildung zweier Räume auf. Diese Bedingungen fallen mit den von Gauß bei der paraxialen Abbildung durch ein zentriertes System aufgefundenen Gesetzen zusammen. Diese prak- tisch bedeutungslose kollineare Abbildung übertrug man ohne weiteres auf ausgedehnte Objekte bei endlicher Blendengröße, ohne sich der Willkür be- wußt zu werden, den Gültigkeitsbereich der Gauß sehen paraxialen Abbildung in unerlaubter Weise erweitert zu haben. Anderseits suchte man die bei end- lichem Büschelquerschnitt und endlicher Blendenöffnung auftretenden Reali- täten als ,, Abweichungen** bzw. „Aberrationen** von dem Ideal der punk- tuellen Abbildung darzustellen. In unserer oben gegebenen Darlegung ist dieser Weg befolgt und gezeigt worden, in welchen Spezialfällen und mit welchen Mitteln eine Erweiterung der Abbildungsgrenzen der Gaußschen paraxialen Abbildung möglich ist bzw. welche Aberrationen und auf welche Weise die- selben praktisch zu beseitigen sind.

Daß die GuUstrandschen Gesetze der reellen optischen Abbildung durch die Untersuchungen am Augensystem gefunden wurden, beruht wohl z. T. dar- auf, daß die technische Optik durch die trigonometrische Berechnung das gewünschte Ziel, eine punktweise Strahlenvereinigung herzustellen, wenig- stens bei den wichtigsten technischen Aufgaben erreichte (Mikroskop, Fernrohr,

K. d. G. ni.nu Bd x Phytik 38

^g^ 27. Otto Lumbier: Neuere Fortschritte der geometrischen Optik

photographisches Objektiv usw.). Diese gaben jedoch keinen Aufschluß über die komplizierten Vorgänge bei der Abbildung durch das Augensystem.

Gullstrand konnte bei der Herleitung seiner allgemeinen Abbildungs- theorie auch nicht anknüpfen an die mathematischen Untersuchungen von Sturm, Hamilton usw., wenngleich er deren Methode verwendete, auf flächen- theoretischem Wege die Konstitution eines gebrochenen schiefenBüschelsvon endlichemQuerschnitt zu ermitteln. Diese Untersuchungen hatten mit zwei Dimensionen gearbeitet, während das allgemeine Problem dreidimensional ist. Auch hatte man sich begnügt, die Konstitution des Strahlenbündels durch Größen erster und zweiter Ordnung zu bestimmen und schließlich immer mehr die Bedingungen vergessen, unter denen die erhaltenen Gesetze gültig sind. So ist die Anwendung des Sturm sehen Satzes vomAstigmatismus, wonach ein Ob j ekt- punktdurch ein enges schiefes Büschel in zwei zueinander senkrechten Brenn- linien abgebildet wird, auf das Auge grundfalsch, da dieser Satz nur gilt, wenn die Blendenöffnung unendlich klein imVerhältnis zum Abstände der Brennlinien vom System und zum Abstand derselben voneinander (astigmatische Differenz) ist.

Gullstrand führte daher eine vollständige Untersuchung des schiefen weit geöffneten Strahlenbündels durch und diskutierte die Spezialfälle unter Be- rücksichtigung von Größen dritter und vierter Ordnung, wo man sich früher mit solchen erster und zweiter Ordnung begnügt hatte, um die Gestalt der kaustischen Flächen und die Lage, Größe und Form der dünnsten Querschnitte des gebrochenen Büschels zu bestimmen. £^ ergab sich, daß beim Auge die den dünnsten Quer- schnitten der gebrochenen Büschel früher zugeschriebene Rolle unmöglich der Realität entspricht. Vielmehr spielt die Licht Verteilung im Querschnitte derKaustikdie Hauptrolle. Dazu war es notwendig, die durch Entwicklung in Reihen gewonnenen approximativen Maße von der Größe der dünnsten Quer- schnitte durch exakte geometrische Größen zu ersetzen, welche die Gestalt der kaustischen Flächen bestimmen. Implizite erscheint dies eine Umgestaltung des Begriffs der Blendenfunktion, da die Blende nur mit Hinsicht auf die Strah- lenbegrenzung behandelt und als unendlich klein angenommen worden war. In solchem Falle überdecken aber die Beugungseffekte vollständig die geo- metrischen Abbildungserscheinungen. Zudem ist beim Auge die begrenzende Öffnung (Pupille) relativ groß. Da das Auge in der Linse außerdem kein homo- genes, sondern ein heterogenes Medium besitzt, mußten endlich die Gesetze der Abbildung in heterogenen Medien erforscht werden. GesetM und 15- Gesetze und Anwendungen der Gullstrandschen Theorie.

^"^^^^^^^^ Wie die geometrische Optik, so legt auch Gullstrand seiner mathemati- Gttiutrand- schen Entwicklung die beiden Erfahrungstatsachen, die geradlinige Fortpflan-

•eben Thoöria. jt»«_ •« »*•

zung des Lichtes m homogenen Medien und das Brechungsgesetz, zugrunde. Aus diesem kann man nach Malus folgern, daß durch jeden Punkt auf einem beliebigen Strahle eines ursprünglich homozentrischen Strahlenbündels eine Fläche (Wellenfläche) gelegt werden kann, auf welcher sämtliche Strahlen senkrecht stehen, und daß die Zeit, welche ein Strahl braucht, um von einer Wellenfläche zu einer anderen zu gelangen, für alle Strahlen eines Büschels

Gullstrands Abbildungslehre

595

* Fl erster Fokalpunkt F^ sweiter Fokalpnnkt Die im ersten bexw. sweiten Fokal- punkte senkrecht snm ersten Uanpt- schnitt besw. «weiten Hanptschnitt errichtete Gerade heiAt erste bexw. sweite Fokallinie

die gleiche ist. In homogenen Medien sind die Lichtstrahlen identisch mit den Normalen zu den Wellenflächen, in heterogenen Medien treten gekrümmte Linien (Trajektorien) an Stelle der Lichtstrahlen.

Die Untersuchung der Strahlenvereinigung ist also allgemein gleichbedeu- tend mit der Untersuchung der Konstitution eines Bündels von Senkrechten zur Wellenfläche (,, Normalenbündels**) endlichen Querschnitts, welche sich ihrerseits aus der Form der Wellenflächen ergibt. Diese läßt sich aber nur in be- langlosen, einfacheren Fällen durch algebraisch angebbare Gleichungen dar- stellen, so daß man gezwungen ist, die Fläche in der nächsten Umgebung eines ausgewählten Punktes und das Strahlenbündel in der nächsten Umgebung eines aus- gewählten Strahles zu unter- suchen.

Wir können hier weder die Theorie noch alle Ergebnisse der zwanzigjährigen Studien Gull- strands wiedergeben auf einem Gebiete, welches von den Mathema- tikern auch rein flächentheoretisch nicht behandelt worden ist. Viel- mehr wollen wir uns auf Mitteilun- gen über die Konstitution des all- gemeinen astigmatischen Strahlen- bündels beschränken und auf die hieraus von Gullstrand gezogenen Folgerun- gen über die allgemeine Abbildung von Linienelementen anstatt von Punkten.

In erster Näherung hat nach Sturm ein enges schiefes Strahlenbündel folgende Eigenschaften: Faßt man einen Strahl der Wellenfläche ins Auge (auserwählter Strahl oder auserwählte Normale) und legt man durch diesen auserwählten Strahl alle möglichen Ebenen (Schnitte), so wird derselbe nur in zwei aufeinander senkrechten Ebenen (den beiden Hauptschnitten) von seinen beiden benachbarten Strahlen (Normalen) in je einem Punkte geschnitten, wie es Fig. 12 schematisch darstellt. Diese beiden bevorzugten Ebenen heißen der erste und der zweite Hauptschnitt; diebeiden Schnittpunkte der erste und zweite Fokalpunkt. Die im ersten Fokalpunkt F^ senkrecht zum ersten Hauptschnitt errichtete Linie heißt die e r s t e F o k a 1 1 i n i e , die im zweiten Fokal- punkt zum zweiten Hauptschnitt senkrechte Linie die zweite Fokallinie Fg.

Fallen imsingulären Falle die beiden Fokalpunkte zusammen, so ist das Büschel längs diesem Strahle an astigmatisch und dieser Strahl wird nicht nur von denjenigen benachbarten Strahlen geschnitten, welche in den beiden Haupt- schnitten verlaufen, sondern von sämtlichen benachbarten Strahlen wenn auch nur bis auf unendlich kleine Größen höherer Ordnung als der ersten.

Im allgemeinen astigmatischen Bündel ändern sich von auserwähltem Strahl zu auserwähltem Strahl sowohl die Fokalpunkte als auch die Haupt-

38*

Fig. X2.

^gf) 27. Otto Lummer: Neuere Fortschritte der geometrischen Optik

schnitte, wobei sämtliche ersten Fokalpunkte die erste kaustische Fläche (oder erste Schale der kaustischen Fläche), sämtliche zweiten Fokalpunkte die zweite Schale der kaustischen Fläche bilden.

Die Vereinigung sämtlicher Strahlen in einem Punkte stellt also einen sin- gulären Fall dar, während die Strahlenvereinigung im allgemeinen nur nächstliegende Strahlen in ebenen Büscheln betrifft und nur auf den Schalen der kaustischen Fläche vorkommt. Es sei extra nochmals die Unrichtigkeit des oft gezogenen Schlusses betont, daß sämtliche Strahlen eines dünnen astig- matischen Strahlenbündels annäherungsweise durch die beiden Sturmschen Fokallinien F^ und Fj in Fig. 12 gehen.

Da Objektpunkte also im allgemeinen nicht als Punkte abgebildet werden, so fragt es sich, ob andere einfache Gebilde punktweise ineinander abgebildet werden können. Tatsächlich ist dies nach Gullstrand für Linienelemente der Fall.

Das erste der Gullstrandschen Grundgesetze der allgemeinen optischen Abbildung lautet demnach:

I. Auf einer beliebigen Objektfläche gehen durch jeden Objektpunkt, in welchem die Objektfläche unter endlichem Winkel vom Hauptstrahle ge- schnitten wird, zwei einen endlichen Winkel miteinander bildende Linien, welche unter vollständiger Strahlenvereinigung erster Ordnung im Bildraume abge- bildet werden, jedes Liniensystem auf einer anderen Bildfläche.

Auf Grund seiner neuen Grundgesetze, deren Aufzählung ohne die An- wendung neuer von Gullstrand eingeführter Nomenklaturen und ohne deren Erklärung unverständlich sein würde, hat Gullstrand die bei der Brechung im Auge des Menschen vorkommenden Fälle eingehend behandelt. In bezug auf die sphärische Aberration des Menschenauges sei folgendes hervorgehoben. Definiert man diese richtig, wie Gullstrand es tut, so ist eine Berechnung derselben für endlich geöffnete Büschel nur annäherungsweise möglich. Es er- gibt sich das interessante Resultat, daß das im ersten Hauptschnitt (das Auge ist bekanntlich abweichend von der brechenden Kugelfläche auch für das Achsen - büschel astigmatisch) verlaufende Strahlenbündel so beschaffen ist, daß mit wachsender Schiefe der gebrochenen Strahlen die Schnittpunkte auf dem Haupt- strahle sich der Wellenfläche nähern (positive Aberration in der praktischen Optik genannt) und bei noch größerer Schiefe der Strahlen die Schnittpunkte der gebrochenen Strahlen sich wieder von der Wellenfläche entfernen (nega- tive Aberration). Gullstrand bezeichnet diese Abweichungen von Strahlen endlicher Einfallshöhe als „periphere Totalaberration" (in der Optik die „Fehler der Zonen**). Gullstrand hat so erwiesen, daß die Hornhaut nicht einer Kugelfläche, sondern einer sog. „deformierten** Fläche zu verglei- chen sei. Dieser Übergang aus positiver in negative Aberration findet schon bei einem Durchmesser des Büschels von 4 mm statt. Zwei enge Strahlen- büschel, deren Hauptstrahlen die Pupillenöffnung in der Mitte bzw. 2 mm oberhalb der Achse durchsetzen, weisen den unerwartet hohen Refraktions- unterschied von vier Dioptrien auf. Dieses Ergebnis zeigt auch, daß das Auge nicht auf den Brennpunkt oder Fokalpunkt des axialen Büschels, sondern auf

GuUstrands Abbildungslehre ^gy

dessen engsten Querschnitt einstellt; es muß also der Abstand der macula lutea vom Hornhautscheitel etwas kleiner sein als die Bildweite des einem unendlich entfernten Achsenpunkte konjugierten Fokalpunktes des paraxialen Bündels»

Während früher angenommen wurde, daß die Schichtung der Augenlinse die sphärische Aberration vermindere, ist nach Gullstrand das Gegenteil der Fall. Ebenso zeigt der Astigmatismiis längs eines Strahles, der unter 25 ® in den vorderen Linsenpol einfällt, bedeutend größere Abweichungen als für eine homo- gene Augenlinse gleicher Brechkraft. Die alte Annahme ist also falsch, daß die Linsenschichtung einen Vorteil für die Strahlenvereinigung in schiefen Büscheln böte. Infolge der geringen Auf lösungskraf t bzw. Sehschärfe in den peripherischen Netzhautteilen wäre eine bessere Strahlenvereinigung übrigens auch zwecklos und überflüssig.

Der Zweck der Linsenschichtung ist vielmehr ein anderer und viel zweck- mäßigerer, nämlich die Erzielung einer relativ großen Akkommodationsbreite bei geringer Formänderung der Augenlinse. Bei Akkommodation des Auges nimmt die Linsendicke zu und der totale Brechungsquotient wächst von 1,4085 auf 1,4263. Diese große Zunahme der Brechkraft bei so geringer Formverände- rung der Augenlinse kann nur durch eine heterogene, geschichtete Linse er- zielt werden. Damit ist die Zweckmäßigkeit des geschichteten Baues in viel schönerer Weise dargetan als bei der alten Annahme, die sich auf die Verbesse- rung der Strahlenvereinigung bezog, da diese sich auch bei homogener Linse durch zweckmäßigere Wahl der Form der Trennungsfläche hätte erreichen lassen.

Vor den Gullstrand sehen Untersuchungen ist eine stichhaltige Erklärung des strahligen Aussehens der Sterne nicht möglich gewesen. Helmholtz suchte die Ursache in der faserigen Struktur der Augenlinse, da sog. ,,aphakische'' Augen (Augen mit künstlicher Glaslinse) die Sterne ohne die strahlige Kontur sehen. Wollte man letztere auf die faserige Struktur der Augenlinse zurück- führen, so könnte man wohl einen sechs- nicht aber einen achtstrahligen Stern erklären. Durch Diskussion der kaustischen Flächen in der Nähe des Fokalpunktes der anastigmatischen Bündel im Auge erhält Gullstrand eine bestimmte An- ordnung von hellen Schnittlinien (eben die strahlige Stemfigur) auf dem Auf- fangeschirm. Dabei ergab sich ein enger Zusammenhang zwischen Größe und Vorzeichen der Aberrationen und der Zahl der Strahlen. Nur durch die Ge- stalt der Linsenflächen ist diese Erscheinung zu erklären. Tatsächlich ist hierfür die Befestigung der besonders elastischen vorderen Linsenkapsel durch die Zonula verantwortlich zu machen. Aus den natürlichen Verschiedenheiten der Linsenaufhängung in den Augen verschiedener Personen sind somit auch die Verschiedenheiten der Sternfiguren zu erklären, die bei verschiedenen Augen auftreten. Ganz ähnliche Erscheinungen werden bei Linsensystemen bemerkt, wenn die Metallfassung auf die Linsen einen Druck ausübt, der sie verspannt.

16. Das Sehen mit bewegtem Auge. Da wir beim Blicken oder direk- Seh«n ten Sehen nur mit der Fovea centralis (bzw. Macula lutea) arbeiten, so drehen Auge, wir das Auge beim Sehen um seinen Drehungspunkt und fixieren nacheinander die verschiedenen Objekte des Sehfeldes; wir „fassen sie ins Auge", wie man

egg 37. Otto Lummer: Neuere Fortschritte der geometrischen Optik

zu sagen pflegt. E^ bedarf ganz besonderer Übung, um außer dem fixierten Objekte zugleich noch andere seitlich davon gelegene Gegenstände genau wahr- zunehmen. Dieses indirekte Sehen ist also für gewöhnlich ausgeschlossen. Da- her erklärt es sich, daß unbefangene Beobachter die Undeutlichkeit beim in* direkten Sehen gar nicht bemerken. Ein indirekt bemerkter Lichtreiz dient nur dazu, um das Auge auf denselben aufmerksam zu machen und als Anstoß dazu, das Auge schnell dorthin zu richten, woher der Lichtreiz kam.

Der Augapfel vermag sich in seiner Höhle zu drehen ähnlich einem Kugel- gelenk. Eine Raddrehung, wie früher angenommen wurde, findet nicht statt. Der Mittelpunkt der Bewegung, der Drehungspunkt, ist etwa 13,5 mm bzw. 10,5 mm vom Hornhautscheitel bzw. Augenpupille entfernt. I Bei dieser Sachlage hat die große UnvoUkommenheit der Strahlenvereini- gung schiefer Büschel im Auge keine Bedeutung. Es konnten diese Fehler in der Strahlenvereinigung auch noch ruhig durch den geschichteten Bau der Augenlinse vermehrt werden, wenn dadurch, wie oben erwähnt, Vorteile für die Akkommodationsb rei te zu erzielen waren. Man fixiert ja doch jeden Punkt des Sehfeldes, den man genau wahrnehmen oder erblicken will.

Als Blickrichtung bezeichnet man die Verbindungslinie des anfixierten Objektpunktes mit dem Drehungspunkte des Auges; sie kann als zusammen- fallend mit der Augenachse angesehen werden. Es muß sich also eine Parallaxe zwischen der scheinbaren Lage endlich entfernter Objekte beim direkten und indirekten Sehen einstellen, die als Schwanken der Objektgröße auffallen kann, wenn man darauf achtet. Blickt man bei ruhendem Kopfe nacheinander zwei verschiedene Objektpunkte an, so gehen die Blickrichtungen stets durch den Augendrehungspunkt. Der anguläre Abstand zweier Objektpunkte wird also durch den Winkel bestimmt, den die Blickrichtungen miteinander bilden. Da dieser Winkel nicht durch eine optische Abbildung erhalten wird, so weist das Auge beim direkten Sehen mit rotierendem Augapfel keine Verzerrung auf. Da die Blickfeldwinkel am Drehungszentrum zu messen sind, so müssen die Haupt- strahlneigungen also nicht vom Mittelpunkt der Pupille, sondern vom Drehungs- punkt aus bestimmt werden. In Übereinstimmung mit den technischen Instru- menten ist beim Auge also nur der fixierte oder feste Kreuzungspunkt der Hauptstrahlen, während abweichend von ihnen die Eintrittspupille sich auf der Oberfläche einer kleinen, um den Kreuzungspunkt beschriebenen Kugel so verschiebt, daß sie stets senkrecht zur Richtung des Hauptstrahles steht. Es durchsetzen die abbildenden Strahlenbüschel der anvisierten Objekte also die Augenlinse usw. stets in axialer Richtung. Dadurch wird die Licht- abnahme im Sehfelde nach dem Rande zu vermieden, die bei Instrumenten mit ruhender Austrittspupille eintritt, wodurch die Öffnung der Eintrittspupille für schiefen Lichteinfall gemäß dem Kosinus des Neigungswinkels ver- kleinert wird.

Die beiden Eigenschaften beim direkten Sehen, erstens daß die Pupille dem fixierten Punkte stets als Kreis erscheint und zweitens daß der Winkelabstand zweier fixierter Punkte durch den Winkel der zugehörigen Blicklinien gemessen

Verantlupe egg

wird, kann man zusammenfassen in den Satz: Es existiert beim bloßen Sehen mit bewegtem Auge keine bevorzugte Richtung, die bei einem ruhenden In- strument der Achsenrichtung zu vergleichen wäre. Ähnlich dem Auge verhält sich nur ein Instrument mit drehbarer Kamera; auch die rotierenden Görzschen Panorama-Apparate verhalten sich analog.

Als „Schärfenfläche** oder „Fernpunktsfläche** definiert man nach V. Rohr die Kugelfläche um das Drehungszentrum des Auges, auf welcher die sämtlichen scharf gesehenen Objektpunkte liegen. Im speziellen Falle eines emmetropen Auges in Akkommodationsruhe geht diese Schärfenfläche über in die unendlich ferne Ebene.

17. Perspektive körperlicher Objekte beim freien Sehen und Veranuape. bei Benutzung einer Lupe. Verantlupe. Dem Auge erscheinen gleich« ^'"^^J^*"^*"' große Strecken um so größer, je näher sie dem Auge bzw. dem perspektivischen iSentrum (Augendrehungspunkte) gelegen sind. Wir wollen eine solche Per- spektive mit V. Rohr als „entozentrische** bezeichnen im Gegensatz zur „tele- zentrischen** Perspektive, bei der gleichgroße Strecken in beliebiger Entfer- nung als gleichgroß erscheinen (Parallelprojektion) und zur „hyperzentrischen** Perspektive, bei der eine Strecke um so größer erscheint, je weiter sie vom Pro- jektionszentrum abliegt. Wir wollen hier stets nur die entozentrische Perspek- tive betrachten, wie sie beim freien Sehen eintritt. Schon der Name ,, Perspek- tive** sagt, daß sie nur dann auf die gleichen scheinbaren Größen der darge- stellten Objekte führen iind eine treue Wiedergabe von ihnen vermitteln kann, wenn sie vom perspektivischen Zentrum aus betrachtet wird. Schon J. J. Oppel wies darauf hin, daß man bei Perspektiven, die einen merklichen Winkel umfassen, den Augendrehungspunkt an den Ort des perspektivi- schen Zentrums zu bringen hat.

Beim Sehen mit ruhendem Kopf aber rotierendem Auge ist für alle fixier- ten Punkte der Augendrehungspunkt das perspektivische Zentrum. Diese Per- spektive wird als ,, Hauptperspektive*' bezeichnet. Fixiert man einen Punkt des Sehfeldes, so werden die rund herum benachbart liegenden Punkte indi- rekt gesehen. Für diese Punkte ist die Mitte der Pupille das Zentrum der Per- spektive. Diese weniger wichtigen Perspektiven werden als ,, Füllperspektiven** bezeichnet. Da es sich meistens um entferntere Objekte handelt und das in- direkte Sehen keine Rolle spielt, so wird die Parallaxe zwischen dem direkten und indirekten Sehen im allgemeinen unbemerkt bleiben. Sie spielt aber eine Rolle, wenn eine im kleinen Maßstabe ausgeführte perspektivische Darstellung von einem myopischen Auge aus kurzem Abstände betrachtet wird, weil hier der Abstand (l cm) der beiden Zentren der Perspektive (Pupille bzw. Drehungs- punkt) ein viel größeres Gewicht erhält,

Ist man beim freien Sehen gezwungen, durch eine kleine Blende (z. B. Schlüsselloch) zu sehen, so kann man den Augendrehungspunkt nicht nahe genug heranbringen, um ein ausreichendes Gesichtsfeld zu erhalten. Man nimmt dann Kopf- und Augapfeldrehungen gleichzeitig vor. Die Hauptperspektive ist dann nicht durch den Augendrehungspunkt, sondern durch den Mittelpunkt

FiR. »3-

600 27. Otto Lummer: Neuere Fortschritte der geometrischen Optik

der Lochblende bestimmt. Diese vom Drehungspunkt des Auges unabhängige „Schlüssellochperspektive" kommt bei allen optischen Instrumenten mit re- ellem Augenkreise oder Austrittspupille vor, bei denen man bestenfalb die Augenpupille mit dem Okularkreis zur Deckung bringen kann.

Bei der Herstellung physischer Perspektiven dient als Zentrum entweder der Augendrehungspunkt des Zeichners oder die Eintrittspupille des optischen Instrumentes (photographisches Objektiv, Zeichenkamera). Wählt man als Fläche für die Perspektive eine Ebene, so spricht man von einer ebenen Per- spektive. Im Objektraum denkt man sich diese Ebene („Einstellungsebene*') senkrecht auf demjenigen Hauptstrahl errichtet, der nach dem auffälligsten

Objektpunkte zielt. Alle nach den verschiedenen Objektpunkten ge- zogenen Hauptstrahlen schneiden dann auf der Einstellungsebene das objektseitige Abbild aus, von welchem im Bildraume ein perspektivisch ähnliches Abbild erzeugt werden soll. Bei modernen photographischen Objektiven mit enger Öffnung und punktweiser Abbildung ist das Abbild eo ipso geometrisch ähnlich dem Objekt. Die optische Projektion auf die Mattscheibe, heißt die „Abbildskopie**. Aus der geometrischen Ähnlichkeit folgt, daß die Kopie in den von der Mitte der Eintrittspupille ausgehenden Strahlenkegel so eingeschaltet werden kann, daß sie zum Abbilde und damit zu den körper- lichen Objekten perspektivisch liegt. Falls die photographische Platte in der Brennebene des Objektivs gelegen war, ist der Abstand der Einschaltungs- stelle von der Mitte der Eintrittspupille gleich der Brennweite des Objektivs. Die Abbildskopie soll beim direkten Sehen richtig d. h. vom Augen- drehungspunkte aus betrachtet werden. Dieser Forderung ist leicht zu genügen, wenn wir es mit einer direkt gezeichneten Abbildskopie zu tun haben, da der Zeichner die Zeichenfläche meist in einer Entfernung gehalten hat, auf die auch der Beschauer zu akkommodieren vermag. Anders ist es bei den photographi- schen Abbildskopien, weil hier die Brennweite des Objektivs meist nur 12— 1 5 cm beträgt. Aus solcher Entfernung müßte also auch das Photogramm betrachtet werden oder genauer aus loYj—lsVjCm von der Hornhaut, damit das Drehungs- zentrum des Auges in 12— 1 5 cm zu liegen kommt. Eine so geringe Akkommoda- tionsweite haben nur noch 25 jährige Beobachter.

Darum hat Gullstrand die Forderungen formuliert, die für die Berech- nung einer geeigneten Lupe zu stellen sind, um für ältere Augen bzw. jüngere Augen ohne Akkommodationsanstrengung beim Betrachten die richtige Perspek- tive zu erhalten. Korrigiert man nämlich eine achromatische Lupe von glei- cher Brennweite wie das Aufnahmeobjektiv so für einen etwa 25 cm von der Lupe entfernten Blendenort auf Astigmatismus und Verzeichnung, so kann

Sehen durch eine Brille 6oi

man (Fig. 13) den Drehungspunkt an diesen Blendenort bringen. Das durch eine solche Lupe (,,Verantlupe** von Karl Zeiß) hindurch betrachtete Photo- gramm (vom Objektiv gelieferte Abbildskopie) erscheint unter den perspek- tivisch richtigen Winkeln im Unendlicheii. Die Lupe genügt den gestellten Be- dingungen, wenn für den Kreuzungspunkt (25 mm hinter der Lupe) der Haupt- strahlen die Projektion auf die unendlich ferne Ebene auch bei endlichen Nei- gungswinkeln ähnlich ist der* Darstellung auf dem in der vorderen Brennebene angebrachten Photogramm. Es werden Verantlupen zur Betrachtung von Pho- togrammen geliefert, die mit Objektiven kurzer Brennweite, bis zu 7 cm herab, aufgenommen worden sind. Das Blickfeld einer solchen Lupe beträgt etwa 60®, ist also von gleicher Größe wie das bei ruhendem Kopf durch Rollen des Auges wahrgenommene Sehfeld.

18. Das Sehen durch eine Brille. Gullstrand-Stargläser oder Guiistrand- Katralgläser, Beim Sehen durch eine Brille sind zwei Fälle möglich: Esg^^^]^^ bleibt das Brillenglas ruhig stehen und hinter ihm bewegt sich das Auge oder es kann Brille, Auge und Kopf zugleich gedreht werden. In letzterem Falle werde angenommen, daß die Achse des Brillenglases mit der Augen- achse koinzidiere. Dann wird das Brillenglas stets nur für paraxiale Strahlen benutzt, für welche es korrigiert worden ist. Anders, wenn man Kopf und Brille ruhig stehen läßt und nur den Augapfel hinter dem Brillenglase dreht, um wie beim direkten Sehen die verschiedenen Objekte nacheinander zu fixieren. Dann müssen die Strahlenbüschel in allen den Fällen, in denen die Augenachse von der Achse des Brillenglases abweicht, schief durch letzteres gehen, um in die Pupille zu gelangen. Unter diesen Umständen treten also die Fehler schiefer Büschel auf, die wir als Astigmatismus bezeichnen können und von Gull- strand genauer untersucht sind. Beim Rollen des Auges hinter dem Brillen- glase werden also die seitlich von dessen Achse gelegenen Objekte undeutlich gesehen. Dies gilt ganz besonders von den Staroperierten, bei denen die ganze Augenlinse durch ein Brillenglas in ihrer Wirkung ersetzt ist. Diese Unglück- lichen sahen überhaupt nichts mehr, wenn sie hinter der künstlichen Linse den Augapfel drehten und mußten stets den ganzen Kopf bewegen, um das Seh- feld abzutasten.

Aber auch die myopischen Augen zogen diese beschwerliche Art des Blickens vor. Darum gaben Guiistrand in Verbindung mit M. v. Rohr Mittel und Wege an, wie diesem Übelstande, dem Astigmatismus schiefer Büschel und der perspektivischen Verzeichnung zugleich, abzuhelfen sei. Es mußten opti- sche Systeme als Brillengläser konstruiert werden, bei denen die Fehler schiefer Büschel für den Augendrehpunkt als Kreuzungspunkt der Hauptstrahlen (vgl. Fig. 13 der Verantlupe) aufgehoben sind. In dieser gesetzmäßigen Rücksicht- nahme auf den Augendrehpunkt (25 mm vom augennahen Brillenscheitel) und in der Zugrundelegung desselben für die Berechnung von Brillengläsern liegt das große und wichtige Geheimnis einer richtigen Brillenverordnung. Es will uns heute fast merkwürdig erscheinen, daß den beiden großen Meistern der Ophthalmologie, Donders und Helmholtz, die Wichtigkeit des Augendreh-

6o2

27. Otto Lummer: Neuere Fortschritte der geometrischen Optik

Fi«. 14.

punktes bei bewaffnetem Auge entgangen ist, obgleich Donders die Be- deutung des Drehzentrums für die Gesichtswahmehmungen beim freien Sehen bereits betont hatte. Helmholtz nahm bei seinen Untersuchun- gen über die Wirkung von Brillengläsern sogar stets an, daß das Auge dicht am Brillenglase liege, weil nur dann eine Änderung des Tangenten- verhältnisses (also eine Verzerrung) nicht eintreten könne.

Es darf aber nicht unerwähnt bleiben, daß trot^em schon vor Helm- holtz gewisse Ansätze zur neuen Herstellungstechnik von Brillengläsern ge- macht worden sind. So hatte schon 1804 der englische Arzt W. Hyde durch- gebogene Gläserformen oder Menisken, sog. periskopische Gläser, empfohlen. Auf Grund theoretischer Behandlung berück- sichtigt der Pariser Augenarzt Ostwaldt (1898— 1900) die von der Achsenstellung bis zu 25® abweichende Gesichtslinie und weist auf die Durchbiegung der Linsen- formen zur Aufhebung des Astigmatismus schiefer Büschel hin. Dagegen nahm er die Distanz des Kreuzungspunktes der Haupt- strahlen nicht ganz zutreffenderweise zu 30 mm an und zwar im Objektraume. Erst Tscherning (1899— 1904) machte die richtige Annahme, daß die Hauptstrahlen nach dem Durchgang durch das Brillenglas sich im Augendrehpunkt schneiden müßten. Dabei beschränkte er sich auf den paraxialen Raum. Alle diese Versuche fährten zu keinem praktischen Resultate. Es fehlte die genauere Theorie über den Astig- matismus schiefer endlicher Büschel und die Verbindung der Theorie mit der Praxis. Bereits 1903 war M. v. Rohr bei der Konstruktion der Verantlupe von Gulls trand darauf aufmerksam gemacht worden, daß der Augendrehpunkt bei der Herstellung bestimmter optischer Instrumente eine Rolle spiele und in Rech- nung gebracht werden müsse. Dieser Hinweis wurde bei Zeiß als besonders wichtig für die Theorie der Brille erkannt und auf der Basis der Gullstrand- schen Anschauungen weiter ausgebaut. Dieser gemeinschaftlichen Arbeit ver- danken wir die Lösung der Aufgabe, dem Brillenbedürftigen für sein beweg- tes Auge eine vollkommene Brille zu schaffen. Der Vorteil machte sich natürlich besonders bei Stargläsern für aphakische Augen geltend. Für diese waren Gläser ohne Astigmatismus schiefer Büschel, nach Gulls trand ,, punktuell abbildende*' Gläser genannt, am dringendsten erwünscht. 1908 wurde in Jena das Problem der punktuell abbildenden Brillengläser aufgenommen.

Als Mittel zur Erreichung dieses Zieles kam die Vermehrung der optischen Mittel (Kombination mehrerer Linsen) und die Verwendung deformierter sphärischer („asphärischer**) Rotationsflächen in Betracht. Bei der praktischen Ausführung zeigte sich die Überlegenheit der asphärischen Fläche, wie sie durch

Gullstrands Katralgläser 603

Auftragung von immer etwas mehr Material auf einer Kugelfläche nach dem Rande zu entsteht. Die geeignete Verwendung einer derartigen Fläche erlaubt sowohl bei Konvex- als auch bei Konkavgläsern den Astigmatismus für eine vorgeschriebene endliche Blickrichtung zu heben. Durch zweckmäßige Ver- fügung über die Linsenform ist es außerdem möglich, die störende Verzeich- nung zu vermindern. Namentlich durch 0. Henker sind die technischen Schwierigkeiten bei der Herstellung solcher Brillengläser beseitigt worden.

Die neuen von Zeiß nach diesem Prinzip hergestellten Starlinsen von sphärisch-asphärischer Begrenzung (Fig. 14) oder „Gullstrand-Stargläser** („Katralgläser") sind einfache und leichte Linsen und vom Glasmaterial un- abhängig. Wie die Fig. 15 (links: Aufnahmen von Schriftproben durch ein pikonvexes Starglas von 13 Dioptrien, rechts: Aufnahmen der gleichen Schriftproben durch einKatralglas von 13 Dioptrien) erkennen läßt, ist die Abbildung solcher Gläser wirklich punktuell und zwar bis zu Blickrichtungen von 30^ und darüber. Staroperierte fühlen sich mit solchen Gläsern überaus wohl und haben nicht mehr den tastenden Gang wie unter den alten und ge- wöhnlichen Starbrillen.

Literatur.

1. Sammelwerke bzw. Handbücher, in denen man vollständige Literaturangaben findet:

S. CzAPSKi: Grundzüge der Theorie der optischen Instrumente nach Abbe, II. Aufl., herausg. von O. Eppenstein. Leipzig. Verlag von Joh. Ambr. Barth. Leipzig 1904.

M. V. Rohr: Die Biiderzeug^ng in optischen Instrumenten vom Standpunkt der geometrischen Optik, bearbeitet von wissenschaftlichen Mitarbeitern an der optischen Werkstatt von K. ZeiB. Verlag von Julius Springer. Berlin 1904.

James Southall: Tbe Principles and Methods of Geometrical Optics. The Macmillan Company. New York 19 10.

O. LUMMER: Die Lehre von der strahlenden Energie (Optik), II. Bd. III. Buch von Müller- Pouillets Lehrbuch der Physik. 10. Aufl. Verlag von Fr. Yieweg & Sohn. Braun- schweig 1909. Die Figuren i bis x i und manche Paragraphen des Artikels sind diesem Buche fast wörtlich entlehnt.

2. Spezial werke mit Literaturangaben:

A. Gullstrand: Die Dioptrik des Auges, I. Bd. des Werkes: Handbuch der Physiologischen Optik von H. v. Helmholtz. III. Aufl. Verlag von Leopold Vofi. Hamburg und Leipzig 1909. Diesem ausgezeichneten Werke sind verschiedene auf die Gullstrand- sehe Theorie bezügliche Stellen des Artikels teils wörtlich entlehnt.

M. V. Rohr: Zur Dioptrik des Auges, Sonderabdruck aus Ergebnisse der Physiologie, herausg. von L. Asher u. K. Spiro. VIII. Jahrg. S. 541 bis 592. Verlag von J. F. Berg- mann. Wiesbaden 1909. Diesem ausgezeichneten Artikel sind die Fig. 12 u. 13 und zum großen Teil der Inhalt der Paragraphen 16 bis 18 entnommen.

M. V. ROHR: Die Brille als optisches Instrument Verlag von W. Engelmann. Leipzig 191 1. (Ausführliches Literaturverzeichnis.)

O. LUMMER u. F. REICHS: Die Lehre von der Bildentstehung im Mikroskop von E. Abbe. Verlag von Fr. Vieweg & Sohn. Braunschweig 1910.

3. Originalartikel:

M. V. Rohr: Die modernen Brillengläser und ihre Stellung in der technischen Optik. Die Naturwissenschaften 191 3, Heft 43 bis 45. (Fig. 15 entnommen.)

O. HallaubR: Ober neuere Brillenoptik. 2^itschrift für ophthalm. Optik, I. Bd., I. Heft, S. 3 bis ir. (Fig. 14 entlehnt)

28.

SPEKTRALANALYSE.

Von

F. EXNER.

Kirchbofr Selten hat eine wissenschaftliche Entdeckung oder die Aufstellung einer

und Baiuen. j^g^gj^ Theorie solches Aufsehen in der gelehrten Welt hervorgerufen, wie zu Anfang der zweiten Hälfte des vorigen Jahrhunderts die Entdeckung der Spektralanalyse durch G. Kirchhoff und R. Bunsen in Heidelberg. Dieses Aufsehen wird verständlich, wenn man bedenkt, daß durch diese Entdeckung eine Fülle damals wohl bekannter, in ihrem Wesen aber gänzlich unbegreiflicher Erscheinungen mit einem Schlage ihre volle Erklärung fand; es waren das nicht nur Phänomene, wie sie bei Laboratoriumsexperimenten beobachtet wur- den, sondern auch solche, die das Licht der Himmelskörper zeigte, z. B. in der rätselhaften Erscheinung der sog. Fraunhof ersehen Linien im Spektrum der Sonne. Aber mehr vielleicht noch als diese einheitliche Erklärung vieler bis dahin unverstandener Tatsachen überraschte die merkwürdige Perspektive, die sich für die zukünftige Forschung eröffnete. Wie schon der Name „Spektral- analyse** andeutet, war damit eine Methode zur Ermittlung der physischen und vor allem der chemischen Natur leuchtender Körper durch Untersuchung des von ihnen ausgestrahlten Lichtes geschaffen, eine Methode, die durch die fabelhafte Leichtigkeit ihrer Handhabung, die Präzision ihrer Resultate und vor allem dadurch berechtigtes Staunen erweckte, daß sie, keineswegs auf Laboratoriumsversuche beschränkt, sich ebensogut auf alle leuchtenden Him- melskörper, selbst die entferntesten Fixsterne und Nebelflecke, anwenden ließ. Es gehört in der Tat zu den glänzendsten Erfolgen menschlicher Tätigkeit und speziell der Wissenschaft, daß wir jetzt imstande sind, indem wir das Spektroskop auf einen Stern richten, durch einen Blick uns davon zu über- zeugen, aus welchen chemischen Elementen derselbe zusammengesetzt ist, eine Möglichkeit, an die zu glauben noch vor hundert Jahren für Tollkühnheit gegolten hätte. So wird also das Licht selbst zum Boten, der uns Kunde bringt von der Natur des leuchtenden Körpers; es hat uns zuerst auf der Sonne die Existenz chemischer Elemente angezeigt, die bis dahin völlig unbekannt waren und erst viel später auf der Erde gefunden wurden, zum Teil auch noch un- bekannt sind.

Seit dem Ende des 17. Jahrhunderts wissen wir durch die grundlegenden Versuche Newtons auf optischem Gebiete, daß das weiße Licht nichts Ein- heitliches ist; es läßt sich z.B. durch Brechung in einem Prisma in die einzelnen Farben zerlegen und ebenso aus diesen wieder zu der gemeinsamen Wirkung

Licht und Farbe 605

„Weiß** zusammensetzen. Über die Natur des Lichtes freilich hatte Newton Vorstellungen entwickelt, die sich im Laufe der Zeit als unhaltbar erwiesen (Emissionstheorie) und durch ein entscheidendes Experiment Foucaults (1850) endgültig widerlegt wurden (die Emanationstheorie); aber gleichzeitig mit ihm stellte der Holländer Huygens eine bis auf den heutigen Tag im wesentlichen gültige Theorie auf, wonach das Licht in einer Wellenbewegung besteht, die im Äther abläuft (Undulationstheorie). Daß diese Wellenbewegung nicht eine longitudinale, wie beim Schall, ist, sondern eine transversale, d. h. eine solche, bei der die Schwingungen der einzelnen Teilchen nicht in die Fortpflanzungsrichtung fallen, sondern auf dieser senkrecht stehen nicht unähnlich den Wellen auf einer Wasseroberfläche , das konnte freilich erst später durch die Erscheinungen der Polarisation des Lichtes nachgewiesen werden. Die Farbe eines Lichtes ist nur bestimmt durch dessen Frequenz, d. h. durch die Anzahl Schwingungen oder Wellen, die das Auge in einer Sekunde treffen, sowie beim Schall die Höhe eines Tones gleichfalls durch dessen Schwingungszahl bestimmt ist, wobei den höchsten Tönen die größte Frequenz zukommt. Alle Lichtwellen oder alle Farben in bestimmten Ver- hältnissen gemischt erwecken aber im Auge die Empfindung ,,Weiß'*, das sein akustisches Analogon demnach in einer Mischung aller möglichen Töne, d. i. in einem unbestimmten Geräusch, hätte.

Einer jeden einfachen Farbe kommt eine bestimmte Frequenz oder Farben- Schwingungszahl (pro Sekunde) zu; häufig wird aber die Farbe nicht durch diese Größe, sondern durch die sogenannte Wellenlänge charakterisiert, die Distanz zweier benachbarter im selben Schwingungszustande befindlicher Punkte der Welle. Diese hängt mit der Schwingungszahl durch eine einfache Beziehung zusammen: da jede Welle sich während einer Schwingung um die eigene Wellenlänge vorwärts schiebt, so wird dieselbe in einer Sekunde den Weg V X zurücklegen, wenn v die Schwingungszahl und X die Wellenlänge be- deutet. Dieses Produkt stellt dann nichts anderes vor, als die Fortpflanzungs- geschwindigkeit der Welle c, so daß wir die Beziehung haben: t: = v X. Für das Licht ist c = 300 000 km, v zählt nach hundert Billionen pro Sekunde und X nach Zehntausentel von Millimetern. Die Geschwindigkeit c ist im leeren Raum (Weltraum) für alle Farben gleich groß, das ändert sich aber, sobald das Licht einen durchsichtigen Körper (Glas, Wasser usw.) passiert in der Weise, daß das c kleiner wird, und zwar in verschiedenem Maße für die ver- schiedenen Farben. Dadurch wird aber, wie Huygens gezeigt hat, eine Ab- lenkung des Lichtes von der ursprünglichen Richtung, eine Brechung, her- vorgerufen, die also für die einzelnen Farben von verschiedener Größe ist, so daß ein weißes Licht, nach seiner Brechung in einem Prisma, in die ein- zelnen farbigen Bestandteile zerlegt erscheint, aus denen es besteht (Dis- persion). Diese Farben ordnen sich räumlich ihren Schwingungszahlen oder ihren Wellenlängen entsprechend an, so daß das so entstandene Farbenband oder Spektrum sich von den längsten Wellenlängen (Rot) bis zu den kürzesten (Violett) erstreckt; die letzteren erscheinen dabei am stärksten abgelenkt.

6o6 2S, F. ExNER : Spektralanalyse

Eine einzelne solche Spektralfarbe neuerlich einer Brechung unterworfen zeigt dabei keine weitere Zerlegung, da sie eben nur mehr eine einzige Wellen- länge repräsentiert. Alle diese fundamentalen Versuche wurden schon von Newton in glänzender Weise ausgeführt zum Beweise dafür, daß das weiße Licht eine komplexe Erscheinung ist (vgl. Artikel 26).

Der experimentelle Nachweis dieser Tatsachen konnte einwandfrei geführt werden, ohne daß es notwendig gewesen wäre, über den eigentlichen Vorgang der Strahlung bestimmte Vorstellungen zugrunde zu legen. In der Tat standen sich die beiden so ganz verschiedenen Ansichten, die Emissionstheorie New- tons, derzufolge die Lichtstrahlen durch vom leuchtenden Körper aus- geschleuderte außerordentlich kleine Partikelchen gebildet würden, und die Undulationstheorie von Huygens noch lange Zeit gleichwertig gegenüber, bevor eine Entscheidung zwischen beiden getroffen werden konnte, und beide konnten bis dahin das reichhaltige Beobachtungsmaterial über Brechung und Dispersion befriedigend erklären. Allein der eigentliche Vorgang der Emission des Lichtes, der molekulare Vorgang, welcher unter gewissen Bedingungen zur Aussendung von Licht überhaupt führt, war bis dahin gar nicht in den Bereich der Betrachtung gezogen oder doch nur in ganz allgemeinen Umrissen. Diese Frage mit größtem Erfolge in Angriff genommen zu haben, ist das bleibende Verdienst G. Kirchhoffs (vgl. Artikel 10).

G. Kirchhoff (1859) hat sein Augenmerk zunächst auf den Zusammen- hang zwischen Emission des Lichtes und dessen Absorption in den Körpern gelenkt. Daß farbige Körper uns eben deshalb farbig erscheinen, weil sie von dem auffallenden weißen Tageslicht einen Teil zurückbehalten (absorbieren), so daß der Rest eben nicht mehr Weiß, sondern eine zur absorbierten Farbe komplementäre Mischfarbe gibt, hat schon Newton gezeigt. Stokes hat zuerst diese Absorption als eine Art Resonanz der Körpermoleküle in bezug auf die einfallende Bewegung aufgefaßt. Es ist bekannt, daß eine Stimmgabel oder Klaviersaite nur dann auf einen Ton reagiert (mitschwingt), wenn die Fre- quenz des einfallenden Tones mit der Eigenschwingung der Gabel oder Saite übereinstimmt. Ebenso werden vom einfallenden weißen Licht in einem Körper nur jene Schwingungen absorbiert werden, die mit den möglichen Eigenschwin- gungen der Moleküle dieses Körpers übereinstimmen. Aus der Tatsache, daß es vollkommen undurchsichtige Körper gibt, müssen wir schließen^ daß deren Moleküle alle möglichen Schwingungen auszuführen, also auch zu absorbieren, imstande sind. Vollkommen durchsichtig dagegen werden jene sein, deren Moleküle gar keine den Lichtwellen analoge Schwingungen ausführen können. Es resultiert also daraus eine gewisse Proportionalität zwischen dem Ver- mögen eines Körpers, Licht zu absorbieren und dem, Licht von der gleichen Art auszusenden. Kirchhoffs Diese Begriffe von Emission und Absorption hat nun G. Kirchhoff noch

^^n, strenger gefaßt.

Fällt auf einen Körper Licht, so wird ein Teil desselben reflektiert, ein Teil durchgelassen und ein Teil im Körper absorbiert werden; das Verhältnis

Emission und Absorption 607

der Intensität dieses letzteren zur Intensität des einfallenden Lichtes nennt G. Kirchhoff das Absorptionsvermögen A des Körpers. Dieses ist aber, wie die Erfahrung lehrt, eine Funktion der Wellenlänge X (Lichtart) und der Tem- peratur t^ denn es kommt sehr häufig vor, daß Körper für einzelne Licht- arten durchsichtig sind, andere dagegen ganz zurückhalten und ebenso, daß sie, wie z. B. gewöhnliches Glas, bei niederer Temperatur nichts absorbieren, aber bei höherer, etwa Glühtemperatur, ganz undurchsichtig werden. Wir können also nicht schlechtweg von einem Absorptionsvermögen A eines Kör- pers sprechen, es kommen ihm vielmehr solche in unendlicher Mannigfaltig- keit zu und wollen wir uns präzise ausdrücken, so müssen wir dieses A auf eine bestimmte Wellenlänge und bestimmte Temperatur beziehen. Ai^^ bedeutet also das Absorptionsvermögen eines Körpers bei der Temperatur i für Licht von der Wellenlänge X. Wie aus der obigen Definition von A hervorgeht, kann der Wert desselben immer nur zwischen den Grenzen O und l schwanken, wird also durch einen echten Bruch dargestellt.

Ganz analog hat G. Kirch hoff den Begriff der Emission präzisiert; Emiwion unter dem Emissionsvermögen E versteht er jene Energiemenge, die von der Oberflächeneinheit des Körpers in der Zeiteinheit (Sekunde) ausgestrahlt wird. Dabei ist aber wieder zu bedenken, daß dieses E gleichfalls eine Funktion von X und i ist, denn ein und derselbe Körper kann sehr wohl eine Lichtart aussenden, andere dagegen nicht, z. B. eine gefärbte Flamme, und ebenso kann derselbe bei verschiedenen Temperaturen sich in bezug auf seine Strahlung sehr ver- schieden verhalten, wie ja die tägliche Erfahrung lehrt, daß etwa ein Stück Kohle bei gewöhnlicher Temperatur im Dunkeln unsichtbar ist, bei genügend hoher Temperatur aber hell erglüht. Wir müssen also auch das Emissions- vermögen auf ein bestimmtes X und / beziehen und bezeichnen die so präzisierte Größe mit JE^,/- Wie nun aus den Anschauungen Kirchhoffs folgt, ist das

Verhältnis -j für alle Körper ein konstantes bei gleichem t und X, so daß wir die

Beziehung Ej^^^C^A^^^ aufstellen können, wobei C ein konstanter Faktor ist. Die physikalische Bedeutung dieses Faktors hat G. Kirchhoff aber ge- geben: er ist nichts anderes als das Emissionsvermögen ^^^/^^nes sog. absolut schwarzen Körpers, d. h. eines Körpers, der Licht von jeder Art weder reflek- tiert noch im geringsten durchläßt. Freilich gibt es in der Natur einen solchen ideal schwarzen Körper nicht, als Annäherung daran können wir aber etwa den Ruß als Typus ansehen, der im großen und ganzen bei jeder Beleuchtung schwarz erscheint und keine Lichtart in merklichem Grade durchläßt.

Die Beziehung zwischen Emission und Absorption wird somit, wenig- RirchhoffB stens in ihren Hauptzügen, durch die klassische Gleichung G. Kirchhoffs: ***** Ej^^f = ^2,1 -/Iji,/ wiedergegeben; sie ist der Ausdruck des sog. Kirchhoff sehen Gesetzes, das als das Fundament der wissenschaftlichen Spektralanalyse angesehen werden muß. Aus dieser Gleichung ergeben sich sofort die wich- tigsten Folgerungen; alle Körper z. B., welche auch bei hohen Tempe- raturen völlig absorbieren, müssen auch bei der nämlichen Temperatur zu

5o8 2^' F. Exner: Spektralanalyse

glühen anfangen, denn da für sie der Wert des Absorptionsvermögens gleich Eins ist, so müssen alle sich genau wie der schwarze Körper, also unter- einander, gleich verhalten. Das Experiment hat diese Schlußfolgerung auch bestätigt. Kirch hoff hat sein Gesetz aber noch durch einige andere Ex- perimente trefflich illustriert. Phosphorsalz, Na NH4 HPO4, schmilzt leicht in der Flamme eines Bunsenschen Brenners zu einer klaren Flüssigkeit; läßt man einen Tropfen davon an der Schlinge eines Platindrahtes in der Flamme, so glüht zwar der Platindraht lebhaft rot, aber die Phosphorsalz- perle hängt als vollkommen klarer Tropfen in dieser Schlinge genau wie ein Tautropfen, und nichts würde auf dessen hohe Temperatur hindeuten. Da also das geschmolzene Phosphorsalz selbst bei Glühtemperatur gar kein Licht ab- sorbiert, sondern durchsichtig wie Wasser bleibt, der Wert seines A somit für alle Farben gleich Null ist, so muß auch sein E für alle Farben Null sein. Der Platindraht, an welchem die Salzperle hängt, glüht dagegen unter gleichen Um- ständen lebhaft. Aber noch ein anderes Experiment von außerordentlicher Wichtigkeit hat G. Kirchhoff angestellt, um die Richtigkeit seiner Gleichung zu demonstrieren, ein Experiment, das später in bezug auf astrophysikalische Fragen von der größten Bedeutung wurde. Feste und flüssige Körper bleiben fast ausnahmslos bei höheren Temperaturen undurchsichtig, absorbieren alle Strahlen und senden dementsprechend auch alle Strahlen aus, d. h. sie liefern ein kontinuierliches Spektrum, in dem alle Wellenlängen vertreten sind. Anders liegt die Sache bei Gasen oder Dämpfen; diese sind niemals völlig undurch- sichtig, im Gegenteil, in den allermeisten Fällen erstreckt sich ihr Absorptions- vermögen nur auf einzelne Wellenlängen und demgemäß müssen wir erwarten, daß sie, auf Glühtemperatur gebracht, kein kontinuierliches Spektrum, sondern auch nur einzelne Wellenlängen aussenden werden. Das ist aber erfahrungs- gemäß gerade der Unterschied in den Spektren fester und gasförmiger Körper, daß erstere kontinuierlich sind, letztere aber nicht. Daß diese Diskontinuität der Emission wirklich durch eine solche in der Absorption bedingt ist, das hat nun Kirchhoff durch ein Experiment schlagend bewiesen. Bekanntlich liefert der glühende Dampf des Natriums ein Spektrum, das durch eine außerordentlich starke Linie (in Wirklichkeit eine doppelte Linie) im Gelb charakterisiert ist. Kirchhoff ließ nun weißes Licht durch erhitzten Natriumdampf hindurch- gehen, zerlegte es spektral, und da zeigte sich genau an der Stelle der hellen gelben Linie des Emissionsspektrums eine dunkle Absorptionslinie; es hatte also der Natriumdampf aus dem ganzen Strahlenkomplexe des weißen Lichtes gerade nur jene Wellenlänge absorbiert, welche er auch auszusenden imstande ist. Mit dieser schönen Bestätigung seines Gesetzes hatte Kirchhoff zugleich die Erklärung einer längst bekannten Erscheinung, der sog. Fraunhofer sehen Linien im Sonnenspektrum, gefunden. Diese dunklen Linien im sonst konti- nuierlichen Spektrum der Sonne erkannte Kirchhoff als Absorptionslinien, die dort genau so entstehen wie die dunkle Natriumlinie in seinem Experi- mente. Das weiße Licht des glühenden Sonnenkernes muß, bevor es zu uns gelangt, erst die mächtige Hülle glühender Dämpfe passieren, die die Sonne

KirchhofTs Gesetz 5oQ

umgibt. In dieser Hülle werden aber alle jene Strahlen absorbiert, die den gasförmigen Bestandteilen derselben zukommen, unter anderen auch jene des Natriums, denn genau an der Stelle der gelben Natriumlinie in dessen Emissions- spektrum findet sich im Sonnenspektrum die starke dunkle Frau nhof ersehe Linie D, die nichts anderes ist als die von Kirchhoff künstlich dargestellte Absorptionslinie des Natriumdampfes. Es ist Kirchhoff (1863) geglückt, nicht nur die JD-Linie auf ihren wahren Ursprung zurückzuführen, sondern durch eine erste genaue Zeichnung und Ausmessung des Sonnenspektrums und durch Vergleichung desselben mit den Emissionslinien irdischer Elemente eine große Reihe Fraunhoferscher Linien bekannten chemischen Elementen zu- zuordnen, und damit deren Existenz auf der Sonne unzweifelhaft nachzu- weisen. Es ist das wohl eine der glänzendsten Entdeckungen, durch welche nicht nur die physische Beschaffenheit der Sonne ein fester oder flüssiger glühender Kern umgeben von einer glühenden Dampf hülle erkannt, sondern auch deren chemische Konstitution in ihren wesentlichsten Bestandteilen sichergestellt wurde.

Gestützt auf seine theoretischen Untersuchungen unternahm es G. Kirch- hoff in Gemeinschaft mit R. Bunsen (1860), auch den experimentellen Teil der Spektralanalyse weiter zu entwickeln. Die Konstruktion sehr leistungs- fähiger Apparate setzte sie zunächst in den Stand, die prinzipiell außerordent- lich wichtige Frage zu entscheiden, welchen Ursprungs eigentlich die Emissions- linien eines leuchtenden Dampfes sind. Die gelbe Natriumlinie z. B. wird sicht- bar, sobald man Natriumchlorid oder Natriumbromid oder irgend eine andere chemische Verbindung des Natriummetalles verdampft, und durch analoge Beobachtungen an den Alkali- und Erdalkalimetallen konnten Kirchhoff und Bunsen den Nachweis erbringen, daß bei diesen hohen Temperaturen die cha- rakteristischen Linien dem glühenden Metalldampfe, nicht aber dem Dampfe der Verbindung ihre Entstehung verdanken. Damit war der Gedanke nahe gelegt, daß einem jeden chemischen Elemente sein eigenes Spektrum zukomme und somit in dem Lichte eines glühenden Dampfgemisches sich die einzelnen elementaren Bestandteile von selbst anzeigen. Aber schon Kirchhoff ver- mutete, daß in ganz vereinzelten Fällen wohl auch Verbindungen vorkommen könnten, die selbst bei den höchsten Temperaturen nicht zerfallen, und denen auch ein charakteristisches Spektrum zukommen müßte, eine Vermutung, die bald darauf von A. Mitscherlich (1862) experimentell bestätigt wurde. Doch kommen diese Fälle nur selten, zumeist bei Oxyden vor; derartige Ver- bindungsspektren sind leicht zu erkennen, es sind stets sog. Bandenspektren, die sich durch eine auffallend regelmäßige Anordnung der Emissionslinien in einzelne Gruppen (Banden) auszeichnen, während die Spektren der chemischen Elemente nicht angenähert solche Regelmäßigkeiten erkennen lassen.

Bei diesen Untersuchungen über die elementaren Spektren wurden Kirchhoff und Bunsen auf das zeitweilige Auftreten von Linien aufmerk- sam, die keinem der bekannten Stoffe anzugehören schienen; eine Verfolgung dieses Umstandes führte auch alsbald zur Entdeckung zweier neuer chemischer

K.d.G.m.ni.Bdx Physik 30

5io 28. F. EXNER: Spektralanalyse

Elemente, des Cäsiums und des Rubidiums. So hatte denn die Spektralanalyse gleich bei ihrem Auftreten höchst bedeutende Erfolge auch auf praktischem Gebiete aufzuweisen, sie gab uns nicht nur die ersten Aufschlüsse über die Konstitution der Himmelskörper, sie lehrte uns auch zwei auf unserer Erde weit verbreitete, bis dahin unbekannte chemische Elemente, denen bald noch andere folgen sollten, kennen.

Will man der Größe der Kirch hoff sehen Entdeckung ganz gerecht werden, so muß man bedenken, wie viele auffallende, schon längst bekannte Phänomene sie mit einem Schlage erklärte und unter einem gemeinsamen Ge- sichtspunkte zusammenfaßte. So ziemlich alle von Kirchhoff und Bunsen zielbewußt hervorgerufenen Erscheinungen waren durch zufällige Beobach- tungen schon früher bekannt, aber es fehlte an jeglicher Erklärung für ihr Ver- ständnis. So hatte schon Wollaston (1802) die später von Fraunhofer (1814) wieder entdeckten und nach ihm benannten dunklen Linien im Sonnen- spektrum gesehen, ohne daß er, so wenig wie Fraunhofer, dafür eine Er- klärung zu geben vermochte; diese folgte erst aus Kirchhoffs Experiment über die Umkehrung der Natriumlinie durch Absorption im Natriumdampf selbst. Auch hatte Wollaston schon in schwach leuchtenden Flammen die bekannten grünen und blauen Emissionslinien gesehen, die später als das sog. Swanspektrum Gegenstand zahlreicher Untersuchungen waren, ohne zu wissen, daß er damit das erste Emissionsspektrum überhaupt beobachtet hatte. Auch Ch. Wheatstone hat später (1835) Emissionsspektren untersucht und zwar von Metallen, ja er gibt sogar Zeichnungen derselben, ohne aber in das Wesen der Erscheinung einen Einblick gewonnen zu haben. Noch weiter ging

o

A. Angström (1855), der nichtnur die Spektren der Metalle untersuchte, er ver- glich dieselben auch mit den Fraunhoferschen Linien des Sonnenspektrums, fand sogar zahlreiche Koinzidenzen, aber nicht den Zusammenhang zwischen Emission und Absorption. Auch die Photographie wurde schon frühzeitig in den Dienst dieser Forschung gestellt, und E. Becquerel (1842) war es, der zuerst eine gelungene Aufnahme des Sonnenspektrums anfertigte, die wiederum die Fraunhoferschen Linien in voller Deutlichkeit zeigte; das wurde zwar als Beweis für die objektive Existenz dieser Erscheinung angesehen, aber ohne daß sich daran ein Versuch zur Erklärung anschloß. Noch sei erwähnt, daß H. F. Talbot (1834) schon die hellen Linien in einer Alkoholflamme bemerkte, wenn er in dieselben Salze von Natrium, Strontium oder Lithium brachte; ja er bemerkte sogar, daß man auf diese Weise die Anwesenheit der allergeringsten Mengen dieser Substanzen erkennen kann, glaubt aber, daß das nur Verände- rungen sekundärer Art im Lichte der Flamme sind, die durch die Anwesenheit der Salze hervorgerufen werden, und meint, daß z. B. die gelbe Linie (Natrium) durch die verschiedensten Körper veranlaßt werde, wozu ihn offenbar die an und für sich richtige Beobachtung leitete, daß diese Linie fast immer bemerk- bar ist infolge der allgemeinen spurenweisen Verbreitung des Natriums in der Natur. Trotz dieser schönen Beobachtungen blieb Talbot doch das Wesen der Erscheinung völlig unklar.

Ältere Beobachtungen 6ll

Alle diese und noch viele andere vereinzelte Beobachtungen wurden durch Kirchhoffs Untersuchungen mit einem Male klar, und es ist nur begreiflich, daß man sich einer so schönen Methode wie der spektralanalytischen, sobald einmal ihre theoretische Grundlage feststand, auf das eifrigste bediente und bemüht war, dieselbe nach allen Richtungen hin auszugestalten.

Da die Frage, ob jedem chemischen Elemente sein eigenes ihm charak- teristisches Spektrum zukommt, schon durch die Versuche von Kirchhoff und Bunsen bejaht war, so blieb zunächst die weitere Frage zu lösen, inwiefern diese Spektra etwa durch äußere Einflüsse oder durch die Art des Glühens der Dämpfe beeinflußt werden. Wie schon erwähnt, zeigte zunächst A. Mit- scherlich (1862), daß es auch bei hoher Temperatur beständige chemische Verbindungen gibt, die, da keine Dissoziation in ihre Elemente eintritt, nicht die Spektren dieser, sondern ein für die Verbindung charakteristisches geben. Viele Oxyde oder das Cyan sind typische Beispiele hierfür. Aber selbst ele- mentare Spektren können ihren Charakter völlig verändern, wenn die Strah- lung in verschiedener Weise angeregt wird; die erreichte Höhe der Temperatur, Art die Dichte des entwickelten leuchtenden Dampfes sind dabei maßgebende Fak- ^^ ' p«^*"»- toren. J. Plücker und J. W. Hittorf (1865) haben sich zuerst eingehend mit diesen Fragen beschäftigt, sie studierten insbesondere die Spektren der Gase unter wesentlich vermindertem Drucke in stark evakuierten sog. Geißlerschen Röhren, indem sie das eingeschlossene Gas durch elektrische Entladungen, die zwischen Platinelektroden übergingen, zum Leuchten brachten. Es zeigte sich dabei, daß einem chemischen Elemente zuweilen zwei und mehr Spektren zu- kommen je nach den Druck- und Temperaturverhältnissen.

Während für die Untersuchung der Gase sich die Methode der Geißler- schen Röhren als sehr zweckmäßig erwies und auch bis zum heutigen Tag er- halten hat, mußten für feste Körper, namentlich für die schwer flüchtigen Me- talle, andere Wege eingeschlagen werden. Viele der Substanzen verdampfen schon in der Alkohol- oder Leuchtgasflamme, und werden, wenn es Verbin- dungen sind, in derselben auch dissoziiert, so daß man elementare Spektren erhält; das ist z. B. ohne weiteres bei den meisten Verbindungen der Alkali- und Erdalkalimetalle der Fall. Für andere wieder, etwa die Verbindungen der Schwermetalle oder der Platinmetalle erweist sich die Temperatur der Flamme als zu niedrig, um genügende Dissoziation hervorzurufen; in diesen Fällen ist man genötigt, zum elektrischen Funken oder Bogen zu greifen, die auch jetzt allgemein zur Erzeugung der Spektren verwendet werden. Dabei zeigt sich wieder, daß das Spektrum eines Elementes wesentlich von der Art der Er- zeugung abhängt, insbesondere die Flammenspektren differieren sehr von jenen im Bogen oder Funken, aber auch letztere zeigen untereinander häufig recht bedeutende Unterschiede. Man muß deshalb bei Angabe eines Spektrums immer bemerken, ob es sich auf Geiß 1er sehe Röhren, Flamme, Bogen oder Funken, die vier auch jetzt noch gebräuchlichen Methoden bezieht. B^ ist leicht ein- zusehen, daß diese Unterschiede in vielen Fällen, namentlich bei astrophysi- kalischer Forschung, große Schwierigkeiten bereiten, da die glühenden Dämpfe

6i2 28. F. Exner: Spektralanalyse

auf den Gestirnen wahrscheinlich unter ganz anderen äußeren Verhältnissen stehen als bei unseren Experimenten^ was zu einem abweichenden Aussehen der Spektren Veranlassung geben kann. Neue Biemente. Dank der Zahlreichen Beteiligung der Forscher an spektralanalytischen Untersuchungen gelang es bald, die Existenz neuer chemischer Elemente auf diesem Wege nachzuweisen. Der Auffindung des Cäsiums und Rubidiums durch Kirchhoff und Bunsen folgten bald weitere Entdeckungen, zunächst die des Thalliums durch Crookes (1861), eines Metalles, dessen Spektrum durch eine einzelne helle grüne Linie ausgezeichnet ist. Bald darauf bemerkten F. Reich und Th. Richter (1863) in den Spektren von Präparaten, die aus dem Mineral Zinkblende gewonnen waren, eine auffallende blaue Linie, die keinem der bis dahin untersuchten Elemente angehörte. Sie vermuteten daher das Vorhanden- sein eines neuen, dessen Darstellung ihnen auch gelang; es ist jetzt unter dem Namen Indium bekannt. Ganz analog wurde, gleichfalls in Zinkblende, von Lecoq de Boisbaudran (1875) das Metall Gallium entdeckt. Auch mehrere Gase wurden zuerst auf spektroskopischem Wege erkannt: so das Helium, merk- würdigerweise nicht auf unserer Erde, wo es sehr verbreitet ist, sondern auf der Sonne. J. N. Lockyer (1869) bemerkte unter den Fraunhofer sehen Linien im Sonnenspektrum eine auffallende im Gelb, von ihm als Dj bezeichnet, die keinem bekannten Elemente zuzuschreiben war. Er vermutete daher die Exi- stenz eines neuen, das er Helium nannte, das aber erst viel später von W. Ram - say (1895) als Gas in vielen Mineralien eingeschlossen und als Bestandteil der Luft nachgewiesen und dargestellt wurde. Es gelang später W. Ramsay (1898), noch drei weitere gasförmige Elemente zuerst auf spektroskopischem Wege in der Atmosphäre nachzuweisen, die Gase Krypton, Neon und Xenon, die zwar nur spurenweise in der Luft vorkommen, aber, so wie das Helium, durch sehr charakteristische Spektren ausgezeichnet sind.

Bekannt ist, daß das Nordlicht ein Spektrum liefert, in welchem eine auf- fallende Linie vorkommt, deren Identifizierung mit einem bekannten Elemente bisher nicht gelungen ist; es läßt sich demnach vermuten, daß in den höheren Schichten der Atmosphäre, wo ja das Nordlicht in der Regel auftritt, sich gleichfalls noch ein unbekanntes gasförmiges Element vorfindet.

Es sind also die Entdeckungen neuer chemischer Elemente durch ihre Spektren nicht gerade zahlreich, allein wichtiger vielleicht als das war die Möglichkeit, auf diesem Wege in einfachster Weise Analysen vorgelegter Proben, etwa von Mineralien, auszuführen, wobei die große Empfindlichkeit der Re- aktion und infolge dessen das Auslangen mit oft nur spurenweise vorhandenem Material besonders ins Gewicht fiel. Allein da stieß man auf eine bemerkens- werte Schwierigkeit; solange es sich nur um Untersuchung solcher Elemente handelte, die, wie z. B. die Alkalimetalle, in ihren Spektren durch nur wenige hervorstechende Linien charakterisiert sind, konnte man sich an den bloßen Anblick halten und die beobachteten Linien lediglich nach ihrer mit dem Auge geschätzten Position im Spektrum als diesem oder jenem Elemente zugehörig erkennen. Aber schon Kirchhoff und Bunsen reichten mit diesen einfachen

Erfolge der Spektralanalyse 613

Mitteln nicht aus, sie waren genötigt, die Stellung der einzelnen Linien auf eine willkürliche durch das Spektrum gelegte Skala zu beziehen, um dieselben zu charakterisieren. Bald aber stellte es sich als zweckmäßiger heraus, um von Willkür frei zu sein, direkt die Wellenlängen der Linien zu messen; die so ge- wonnenen Zahlen waren dann untrügliche Charakteristika der betreffenden Linien. Aber noch eine zweite, zur praktischen Analyse absolut notwendige Be- dingung war bisher unerfüllt: die Kenntnis der Wellenlängen für die Linien der schon bekannten Elemente. Ohne diese war man ja nie imstande, mit Sicher- heit anzugeben, ob eine beobachtete Linie einem neuen Elemente oder einem der alten bekannten Elemente angehörte, und eventuell welchem von diesen.

Nach diesen beiden Richtungen hin mußten zunächst die Bemühungen der Spektralanalytiker gerichtet sein.

Genaue Messungen der Wellenlängen setzen eine möglichst große Dis- persion, d. h. räumliche Trennung der Linien voneinander, im Spektrum voraus; alle älteren Messungen wurden mit Prismen ausgeführt, und wenn dabei auch 2—5 derselben hintereinander benutzt wurden, so war doch die erzielte Dispersion noch nicht so groß, wie wir sie gegenwärtig unter Verwendung der Beugungsgitter erhalten. Trotzdem wurden auch mit diesen relativ unvoll- kommenen Apparaten sehr schöne Erfolge erzielt, so daß z. B. W. Hug- gins (1863) schon die Funkenspektren von nahezu dreißig Metallen in einer für die damalige Zeit überraschenden Vollkommenheit bestimmen konnte. Lange blieb es schwankend, in welcher Einheit man die Wellenlängen angeben sollte^ . Kirchhoff und Bunsen hatten sie noch auf eine ganz willkürliche Skala bezogen, was natürlich bei Verwendung verschiedenartiger Apparate zu großen Unzukömmlichkeiten führen mußte, dann drückte man sie direkt in Milli- metern aus und fand, daß der für das Auge sichtbare Teil des Spektrums bei- läufig die Wellenlängen von o 0004 o 0008 mm umfaßt. Für die Praxis als geeigneter stellte sich aber später eine Einheit heraus, die zuerst von A. Angström aufgestellt wurde, die gleichfalls auf das Millimeter zurückgeht, aber nur den zehnmillionten Teil desselben benutzt. In dieser als A. E, be- zeichneten Einheit würde demnach das sichtbare Spektrum den Bezirk von 4000 8000 Ä. E. umfassen. Ein prinzipieller Unterschied zwischen diesen Einheiten besteht natürlich nicht, aber aus praktischen Gründen ist die letztere Art, Wellenlängen ziffernmäßig anzugeben, jetzt ganz allgemein auch im inter- nationalen Verkehr angenommen.

Einen ganz wesentlichen Aufschwung nahm die spektroskopische For- Beoffangiptter. schung, als in den achtziger Jahren des vorigen Jahrhunderts durch A. Row- 1 and die Beugungsgitter so hergestellt wurden, daß sie allgemein an Stelle der Prismen zur Erzeugung des Spektrums verwendet werden konnten. Er benutzte dieselben ausschließlich im reflektierten Lichte, indem er das Gitter mit einer Diamantspitze auf eine spiegelnde Metallfläche ritzte. Da er die letztere zu- gleich als Hohlspiegel formte, vermied er die bisher übliche Verwendung einer Linse zur Abbildung des Spektrums, d. h. er vermied jede absorbierende Substanz, was namentlich bei Untersuchung des Ultraviolett von größter Wich-

5 14 28. F. Exner: Spektralanalyse

tigkeit ist. Es gelang ihm, diese Gitter in solcher Vollkommenheit herzustellen, daß die Messungen sowohl was die Exaktheit der Resultate als was die Leichtig- keit der Ausführung betrifft, alle früheren weit hinter sich ließen. Ein glück- liches Zusammentreffen ist es zu nennen, daß fast gleichzeitig in der photo- graphischen Praxis die Trockenplatten aufkamen, wodurch alle Aufnahmen so wesentlich erleichtert wurden, und Hand in Hand damit die Methode, diese Platten durch Baden derselben in geeigneten Farblösungen auch für grüne bis rote, ja sogar ultrarote Strahlen, empfindlich zu machen. Ultraviolott. Das gab auch den Anstoß dazu, die spektroskopischen Untersuchungen,

mehr als es bis dahin geschehen war, auf die für gewöhnlich nicht sichtbaren Enden des Spektrums, das Ultraviolett und das Ultrarot, auszudehnen. Ersteres kann zwar vom Auge wahrgenommen werden, wenigstens in dem an das Violett zunächst grenzenden Teil, und erweckt dabei die Empfindung Grauviolett; doch aber kommt man nur selten in die Lage, es zu beobachten. Das hat seinen Grund darin, daß diese kurzwelligen Strahlen von den meisten Medien ab- sorbiert werden, so vor allem vom Glas; solange man also mit Glasprismen und Glaslinsen zu operieren genötigt war, mußte man auf das Ultraviolett ver- zichten. Dagegen sind Quarz- und Flußspath für diese Strahlen fast ganz durchsichtig, letzterer bis zu den kürzesten bekannten Lichtwellen, so daß unter Anwendung dieser Materialien an Stelle des Glases die Beobachtung des Ultraviolett keine Schwierigkeiten mehr bietet. Von G. D. Liveing und J. Dewar (1883—88) wurden zahlreiche Wellenlängenmessungen im ultravioletten Teil der Metallspektren ausgeführt. Diese erreichen fast bei allen Metallen eine untere Grenze der Wellenlänge von ca. 2300 A. E. und so mußte es auffallen, daß das Spektrum der Sonne, wie schon erwähnt, nicht einmal bis 2900 A, E, reicht. A. Cornu (1874 80) suchte dieses eigentümliche Verhalten aufzuklären gelegentlich seiner Untersuchung und Zeichnung des ultravioletten Sonnenspektrums; er vermutete, daß die Luft selbst imstande sei, die kürzeren Wellen zu absorbieren, wenigstens bei den großen Schichtdicken, welche das Sonnenlicht zu passieren hat. Das schien auch durch Spektralaufnahmen in verschiedenen Seehöhen bestätigt zu werden: während A. Cornu in einer Höhe von 170 m das Ende des Sonnenspektnims bei 2948 A. E. fand, konnte er auf Aufnahmen, die O. Simony auf der Spitze des Pic von Teneriffa in 3700 m Höhe erhielt, dasselbe noch bis zur Wellen- länge von 2922 A, E. verfolgen. Es schien also in der Tat der größeren Luft- strecke auch die größere Absorption zu entsprechen. Demgegenüber fanden aber A. Miethe und £. Lehmann (1909) einen solchen Unterschied nicht, indem auf ihren sorgfältigst gewonnenen Aufnahmen des Sonnenspektnims sowohl in einer Höhe von 50 m (Berlin) wie in einer solchen von 4560 m (Monte Rosa) das Spektrum gleicherweise bei der Wellenlänge 2912 A,E, endet. Die Frage, ob die Ursachen für die Verkürzung des ultravioletten Sonnenspek- trums auf dieser oder in unserer Atmosphäre zu suchen seien, scheint deomach noch nicht endgültig gelöst.

Daß aber die allerkürzesten Wellen selbst von wenigen Zentimetern ge-

Unsichtbare Strahlen 615

Wohnlicher Luft schon merklich zurückgehalten werden, zeigten V. Schu- mann (1892) und späterTh.Ly man (1906), welchen es gelang, in evakuierten Apparaten von irdischen Lichtquellen noch Wellen von der Größenordnung 1000 A. E, zu erhalten.

Schwieriger als die Beobachtung des Ultraviolett ist die des Ultrarot, denn uitrarot. lange Zeit kannte man kein Mittel, die photographischen Platten auch für lange Wellen empfindlich zu machen. Aus diesem Grunde wendete S. P. Lang- ley (1881—89), der erste, welcher das Ultrarot im Sonnenspektrum unter- suchte, eine neue Methode an; er ließ einen feinen geschwärzten Platindraht, der parallel zu den Fraunhofer sehen Linien im Sonnenspektrum gestellt war, langsam durch den ganzen ultraroten Bezirk gleiten und maß gleichzeitig auf elektrischem Wege seine Temperatur in den verschiedenen Positionen. Ein plötzliches Sinken derselben zeigt an, daß der Draht eben eine Absorptions- linie passiert und die Stellung desselben gibt zugleich ihre Lage im unsichtbaren Spektrum an. Dieses Instrument, Bolometer genannt, hat vortreffliche Dienste geleistet und die erste wirklich genaue Untersuchung des ultraroten Teiles im Sonnenspektrum geliefert. Aber fast gleichzeitig gelang es W. Abney (1880 bis 86), die photographischen Platten durch ein geeignetes Verfahren auch für lange Wellen empfindlich zu machen und damit war natürlich ein wesentlich bequemerer und auch exakterer Weg gegeben. Abney selbst konnte das Sonnenspektrum noch bis zu Wellen von loooo A, E. verfolgen, während die Empfindlichkeit des Auges für Licht schon bei weniger als 8000 A. E. auf- hört. Aber damit waren noch keineswegs die längsten Strahlen, die von glühen- den Körpern ausgehen, nachgewiesen. Freilich unter Anwendung ganz anderer Methoden konnten H. Rubens und E. Aschkinaß (1898) den Nachweis er- bringen, daß in solchen Strahlenkomplexen sich noch Wellen von der relativ bedeutenden Größe von 610000 A. JE, oder 0,061 mm finden, eine Grenze, die übrigens durch Versuche der jüngsten Zeit noch bis 0,314 mm erweitert wurde. Hält man dagegen die kürzesten bis jetzt beobachteten Wellen von 1000 A. £., so kann mag sagen, daß der bis jetzt bekannte Strahlungskomplex leuchtender Körper ca. 1 1 12 Oktaven umfaßt, während der sichtbare Teil kaum i Oktave darstellt (vgl. Artikel 9).

Die kolossale Erleichterung und Verfeinerung aller spektroskopischen Untersuchungen, die durch Rowlands Konstruktion der Konkavgitter er- möglicht war, wurde zunächst von ihm selbst der Wissenschaft dienstbar ge- macht. In einer Reihe von Untersuchungen (1882— 1898) hat er die moderne Spektroskopie sozusagen begründet und auf eine solide Basis gestellt, letzteres vor allem dadurch, daß er für eine große Anzahl von Linien, sowohl in der Sonne als im Bogenspektrum der Elemente, ihre Wellenlängen mit größter Genauigkeit bestimmte und so ein System von Wellenlängennormalen schuf, das für alle Messungen seiner Nachfolger von ganz unschätzbarem Werte war. Diese Normallinien erlauben ja durch Vergleich ihrer Lage im Spektrum mit jener der zu messenden Linien, die Wellenlängen der letzteren relativ zu den weUeniangott- ersteren leicht und sicher zu bestimmen, ohne daß eine zeitraubende absolute

6i6 28. F. Exner: Spektralanalyse

Bestimmung notwendig wäre. Die Wellenlängen all seiner Normalen hat Rowland selbst wieder relativ zu einer einzigen bestimmt, nämlich zu der langwelligeren Komponente der gelben Doppellinie des Natriums, deren Wellen- länge nach den besten damaligen absoluten Messungen von ihm zu 5896 * 156 A. E. angenommen wurde. Auf diese Normalen gründete er später ein großes Werk über die Bestimmung der Wellenlängen aller Fraunhoferschen Linien im Sonnenspektrum, das nicht weniger als 20000 Linien umfaßt, deren Wellen- längen mit einer für die damalige Zeit unerreichten und auch jetzt noch muster- gültigen Genauigkeit angegeben wurden, und deren Zuordnung zu bekannten irdischen Elementen ihm durch Vergleich mit den Bogenspektren der letzteren in sehr vielen Fällen gelingt. An dem hohen Werte dieses fundamentalen Werkes ändert es wenig, wenn durch die Untersuchungen der internationa- len Vereinigung für Sonnenforschung in jüngster Zeit nachgewiesen wurde, daß der von Rowland angenommene Wert für die Natriumlinie nicht ganz richtig ist, und eine einfache Korrektur genügt, um die Rowlandschen Zahlen auf das richtige Maß zu reduzieren; man erhält nämlich mit einer für alle praktischen Bedürfnisse genügenden Genauigkeit den wahren Wert einer Wellenlänge, wenn man den von Rowland gegebenen um den Betrag von O^igÄ.E, vermindert. An Stelle der Natriumlinie hat das internationale Komitee in letzter Zeit die rote Kadmiumlinie als Fundament für ein neues System von Normalen festgesetzt, deren Wellenlänge nach ganz besonders verfeinerten Methoden von Michelson zu 6438 472 Ä, E, bestimmt wurde; die in diesem internationalen Systeme das mit L A. bezeichnet wird aus- gedrückten Wellenlängen sind um oben erwähnten Betrag von 0,19-^. £. kleiner als die Rowlandschen.

Nach den Arbeiten Rowlands, insbesondere nach Aufstellung eines Systems der Wellenlängennormalen war die Arbeit für die nachfolgenden For- scher relativ leicht; in diese Zeit fallen denn auch die meisten spektroskopischen Untersuchungen und Ausmessungen bisher unbekannter Elementspektren, von denen hier nur die durch große Genauigkeit ausgezeichneten Arbeiten H. Kay- sers und seiner Schüler erwähnt seien. Was der praktischen Spektralanalyse bisher in einer wirklich erfolgreichen Anwendung noch fehlte, war ein Ver- zeichnis der Wellenlängen aller Linien irdischer Elemente, mit dessen Hilfe man in zweifelloser Weise bestimmen konnte, ob eine beobachtete Linie einem schon bekannten Elemente angehört und eventuell welchem. Trotz der zahl- reichen Einzelmessungen fehlte es merkwürdigerweise doch noch an einem ein- heitlichen und alle bekannten Elemente umfassenden Werke. Durch Aus- messung der zahlreichen noch fehlenden Elemente waren F. Exner und E. Haschek in allerletzter Zeit imstande, die Bogen- und Funkenlinien sämt- licher Elemente (mit Ausnahme der Edelgase) unter normalem Druck in einer Tabelle zu vereinigen, die ohne weiteres zur Identifizierung gemessener Linien dienen kann. Sie umfaßt mehr als 120000 Linien zwischen dem Ultraviolett von 2000 Ä. E. an und dem roten Ende des sichtbaren Spektrums.

Durch die infolge Rowlands Arbeiten gegebene Leichtigkeit und große

Fortschritte der Spektralanalyse 5iy

Genauigkeit der Wellenlängenmessungen eine Genauigkeit, die sich, ab- gesehen von dem Spezialstudium einzelner Linien, kaum noch steigern dürfte und durch die nun erzielte Kenntnis der Linien aller chemischen Elemente scheint die Spektralanalyse, soweit sie als analytische Methode dient, zu einem vorläufigen Abschluß gebracht. Ist damit auch die erste Erwartung, die man an die schöne Entdeckung Kirchhoffs knüpfte, spät in Erfüllung gegangen, so haben sich unterdessen für die Spektralanalyse neue Perspektiven eröffnet, die in noch ganz nebelhafte Fernen führen, in das Gebiet der Astrophysik und in das der Molekularstruktur der Materie.

Schon Kirchhoff hatte die große Tragweite seiner Methode für das Anwendnne Studium der Himmelskörper erkannt und als erster auf diesem Wege uns aa^yiJ*laf die sicheren Aufschluß über die Konstitution der Sonne gegeben. Seinem Beispiele Himmeiskörper, folgten bald andere Forscher. G. B. Donati (1863) hatte die alte Angabe Fraunhofers, daß die Fixsterne verschiedene Spektren geben, durch neue Beobachtungen bestätigt, aus denen unzweifelhaft folgt, daß die chemische Zusammensetzung und die physikalischen Bedingungen nicht auf allen die glei- chensind. W. Huggins (1865) fand zuerst, daß auch die Nebelf lecke bestimmte Spektren geben die in neuerer Zeit noch Gegenstand vielfacher Studien wurden , so daß die Möglichkeit besteht, selbst von diesen im Weltraum weit entfernten Gebilden durch das Licht Aufschluß zu erlangen. Insbesondere aber mußten die der Beobachtung leichter zugänglichen Vorgänge auf der Sonne die Aufmerksamkeit auf sich ziehen. Gelegentlich einer totalen Sonnenfinsternis bemerkte J. J außen (1868) helle Wasserstoff linien in den Protuberanzen am Sonnenrande, wodurch diese Gebilde sich als kolossale Ausbrüche glühender Gasmassen manifestierten, und bald darauf fand J. N. Lockyer (1869), daß diese Linien der Protuberanzen merkwürdige Verkrümmungen aufwiesen, die anfangs völlig rätselhaft erschienen. Er brachte dieselben in glückliche Ver- bindung mit dem von Ch. Doppler (1848) aufgestellten und nach ihm be- nannten Gesetze (vgl. Artikel 26), demzufolge einem Beobachter die Strahlen einer bewegten Lichtquelle kurzwelliger erscheinen müssen bei Annäherung und lang- welliger bei Entfernung, sowie auch der Ton einer Lokomotivpfeife höher erscheint beim Herankommen derselben als nach dem Passieren des Beobachtungsortes. Lockyer folgerte aus diesem Gesetze und den erwähnten Erscheinungen an den Linien der Protuberanzen, daß sich diese glühenden Gasmassen in ihren verschiedenen Teilen mit sehr wechselnden und enorm großen Geschwindig- keiten bewegen.

Das Doppl ersehe Prinzip sollte aber noch vielfache und fruchtbare Anwendung in der Astrophysik finden; zunächst wurde es von F. Zöllner (1871) zum Nachweise der Rotation der Sonne um ihre Achse verwendet, wobei ja stets der eine Sonnenrand gegen uns, der andere von uns weg sich bewegt. Die Fraunhoferschen Linien müßten also an dem einen Rande gegen Rot, an dem anderen gegen Violett verschoben sein, was sich auch bestätigte und welche Erscheinung von H. C. Vogel (1871) noch quantitativ verfolgt und mit dem Doppler sehen Prinzipe im Einklang gefunden wurde.

5i8 28. F. ExNKR: Spektralanalyse

Die Anwendung dieses Prinzipes auf eine eventuelle Bewegung der Fix- sterne ergab sehr überraschende Resultate; daß eine solche Bewegung vor- handen ist, war schon, wenigstens für viele derselben, durch die Beobachtungen mit dem Fernrohr bekannt, allein diese konnten sich naturgemäß nur auf jene Komponente der Bewegung beziehen, welche senkrecht zum Visionsradius lag. In letzterer Richtung dagegen, also von uns weg oder gerade gegen uns, war jede direkte Beobachtung wegen der allzugroßen Entfernung ausgeschlossen. Hier tritt nun das Spektroskop ergänzend ein. Richten wir dasselbe auf einen Fix- stern, dessen Spektrum bekannte Linien zeigt und vergleichen wir deren Posi- tion mit den gleichen Linien einer irdischen Lichtquelle, so finden sich dieselben fast immer gegeneinander etwas verrückt; eine Verschiebung der Linien im Sternspektrum gegen Rot würde eine Entfernung desselben, eine solche gegen Violett eine Annäherung bedeuten. Aus der Größe dieser Differenzen läßt sich aber auch die Geschwindigkeit der Bewegung ermitteln und die Genauigkeit dieser Messung ist gegenwärtig eine so große, daß Geschwindigkeiten von weni- gen Kilometern in der Sekunde der Beobachtung nicht entgehen können. Eis ist bemerkenswert, daß diese Geschwindigkeiten nicht allzu groß sind, sie er- reichen mit den äußersten Grenzen nicht ganz 100 km pro Sekunde in bezug auf Annäherung sowohl als auf Entfernung.

Eine ganz eigenartige Entdeckung wurde auf Grund des Doppler sehen Prinzips bei Beobachtung der sog. spektroskopischen Doppelsteme gemacht. Unabhängig voneinander bemerkten H. C. Vogel (1889) ^^^ gleichzeitig Pickering am Spektrum von Fixsternen, an welchen die gewöhnliche Fern- rohrbeobachtung nichts besonderes erkennen ließ, eine auffallende Eigentüm- lichkeit: die Linien derselben verdoppelten sich im Laufe der 2^it, zogen sich wieder zu einfachen Linien zusammen, verdoppelten sich abermals und so fort in rhythmischen Intervallen. Die Erklärung ist eine einfache; der Stern ist ein Doppelstern, d. h. er besteht aus zwei leuchtenden Massen, die aber zu nahe aneinander stehen, um getrennt wahrgenommen zu werden und die um einen gemeinsamen Schwerpunkt rotieren. Bei dieser Bewegung tritt abwechselnd Annäherung und Entfernung des einen und des anderen ein, wodurch die bei- den Spektren sich, dem Dopplerschen Prinzipe gemäß, gegeneinander ver- schieben. Nur wenn beide gerade senkrecht zur Visierrichtung laufen, fallen ihre Spektren zusammen und erscheinen als ein einziges. Bis zum Jahre 1905 waren am Himmel schon 140 solcher merkwürdiger Gebilde bekannt.

Daß auch die chemische Analyse der Fixsterne mit Hilfe des Spektroskops nicht ohne Erfolg blieb, ist selbstverständlich, obgleich sie eigentlich noch ziem- lich in ihren Anfängen steht. Die weite Verbreitung mancher Substanzen im Weltraum, wie z. B. des Natriums, Kalziums, des Wasserstoffes, des Siliciums und anderer konnte leicht erwiesen werden, ebenso der sog. seltenen Erden, und unter diesen wieder besonders des Scandiums; auch das Helium findet sich auf vielen Fixsternen, und da dieses ein Produkt der radioaktiven Substan- zen ist, so müssen wir auch letztere auf diesen Himmelskörpern vermuten. Sehr viel mehr freilich läßt sich vorläufig nicht aussagen, aber wenn einmal die Technik

Anwendung auf Astrophysik 619

der Spektralauf nahmen von Fixsternen weiter entwickelt sein wird jetzt ist sie noch in den Anfängen , dann wird auch eine genauere chemische Analyse derselben so wenig Schwierigkeiten bereiten, wie es jetzt bei der Sonne der Fall ist.

In den letzten Jahren hat auch die spezielle Sonnenforschung aus der Spektralanalyse manchen Nutzen gezogen; so ist es Haie gelungen, auf diesem Wege durch ein sehr sinnreiches Verfahren über die Verteilung einzelner Dämp- fe, z. B. des Kalziumdampfes in der Atmosphäre der Sonne genauen Aufschluß zu erhalten; auch konnte er den Nachweis erbringen, daß sich um die Sonnen- flecke herum riesige Wirbel von glühenden Wasserstoffmassen bilden und daß diese ein sehr bedeutendes magnetisches Feld entwickeln. Letzteres mani- festiert sich dadurch, daß die Linien des Lichtes, das aus dem Inneren der Wir- bel kommt, in mehrere Komponenten gespalten erscheinen; das ist aber der sog. Zeemaneffekt, der immer eintritt, wenn die Lichtquelle sich in einem starken magnetischen Felde befindet. Eis ist mit Sicherheit zu erwarten, daß auf diesem Gebiete uns die nächste Zukunft noch wichtige Aufschlüsse brin- gen wird (vgl. Artikel 30).

Man sieht, daß seit den ersten Arbeiten G. Kirchhoffs sich die spektral- analytische Forschung fast ausschließlich auf das experimentelle Gebiet ge- worfen hat, da allerdings mit dem größten Erfolge; aber auch die theoretischen Ansichten sollten in mancher Beziehung erweitert werden, namentlich in Betreff eines Punktes, der in der Kirchhoffschen Theorie gar nicht näher erörtert wurde, der Mechanik des leuchtenden Atoms. Man mußte erwarten, daß die regelmäßigen Schwingungen eines solchen auch regelmäßige Erschei- KegeimäBig. nungen im ausgestrahlten Lichte, respektive in dessen Spektrum zur Folge ha- in den*spoktrci ben, ähnlich wie der Klang eines tönenden Körpers sich in regelmäßige Einzel- töne zerlegen läßt; überblickt man aber die jetzt bekannte Fülle elementarer Spektren, von denen viele mehrere tausend Linien enthalten, so möchte man daran verzweifeln, in deren Anordnung irgendeine Gesetzmäßigkeit zu ent- decken. Und doch stößt man immer wieder auf Erscheinungen, die derartige Versuche nicht ganz aussichtslos erscheinen lassen. Nicht nur daß die Spektren chemisch ähnlicher Elemente unter sich auch Ähnlichkeiten in der Anordnung, Zahl und Art der Linien zeigen, auch innerhalb ein und desselben Spektrums treten zuweilen auffallende Analogien in der Stellung von Linien und von Liniengruppen auf, wie z. B. die bekannte Reihe von Doppellinien beim Natrium oder die sich wiederholenden Triplets beim Magnesium usw. Auf derartige Regelmäßigkeiten hat G. Ciamician (1877) als einer der ersten aufmerksam gemacht, doch gingen seine Resultate nicht wesentlich über die Tatsache hin- aus, daß chemisch ähnlichen Elementen auch ähnlich gebaute Spektren zu- kommen. Wesentlich anders war eine glückliche Entdeckung J. J. B almers (1885) bezüglich der regelmäßigen Anordnung der Linien im Wasserstoffspek-

trum. Die empirisch aufgestellte Formel X = 3645 6 -— gibt, wenn man in

dieselbe sukzessive für n die ganzen Zahlen größer als zwei einsetzt, mit ver- blüffender Genauigkeit die Wellenlängen X aller Linien des Wasserstoffes

620 28. F. ExNER: Spektralanalyse

wieder. Jaes konnte Saliner auf diese Weise Linien im Ultraviolett berechnen, die zu seiner 2^it noch gar nicht bekannt waren und erst später durch A. Cornu aufgefunden wurden. Die Bemühungen, dieser Formel irgendeine physikalische Deutung zu geben, wie z. B. in jüngster Zeit durch Bohr, sowie analoge For- meln für andere Elemente zu finden, hatten nur teilweisen Erfolg.

Trotzdem ist es H. Kays er und C. Runge (1890—93) gelungen, gewisse Regelmäßigkeiten, wenn auch nicht Gesetze, in anderen Spektren aufzufinden; dazu gehören die sog. Serien, d. h. Reihen von Linien, die über das Spektrum so verteilt sind, daß ihre Schwingungszahlen sich immer um eine konstante Diffe- renz unterscheiden. Solche sog. Serienlinien sind dann auch gewöhnUch durch ein ähnliches Aussehen gekennzeichnet. Die Alkalimetalle zeigen je drei solcher Serien, ebenso die Gruppen: Kupfer, Silber, Gold, und Magnesium, Kalzium, Strontium oder Zink, Kadmium, Quecksilber. Im Spektrum des Heliums konnten C. Runge und F. Paschen (1895) sechs solcher Serien nachweisen und ähnlich auch im Sauerstoff, Schwefel und Selen. Über die Ursache dieser Serien fehlen aber sichere Anhaltspunkte. Wenn noch erwähnt wird, daß auch die Anzahl der Linien mit der chemischen Natur des Elementes in einem offen- baren Zusammenhang steht und sich als eine periodische Funktion des Atom- gewichtes erweist, so ist auch ziemlich alles gesagt, was auf Regelmäßigkeiten im Bau der Spektren hindeutet. Bau der Atome. Solangc man au der Anschauung festhielt, das Atom eines Körpers sei eine

unveränderliche starre Masse, mußte der komplizierte Bau im Spektrum ein- atomiger Gase, wie der Metalldämpfe, ein ungelöstes Rätsel bleiben; durch die Entdeckung der radioaktiven Eigenschaften der Materie aber wurde auch in dieses dunkle Gebiet mit einem Male Licht gebracht. Die von solcher Ma- terie ausgehenden Strahlungen haben in überzeugender Weise den Nachweis erbracht, daß das Atom ein sehr kompliziertes Gebilde ist, an dessen Aufbau respektive Zerfall außer der Materie im gewöhnlichen Sinne des Wortes auch elektrische Ladungen ganz wesentlich beteiligt sind. Wir wissen jetzt, oder können es doch mit großer Wahrscheinlichkeit vermuten, daß die Atome der radioaktiven Körper, und wohl auch vieler anderer, aus einer größeren oder geringeren Anzahl von Heliumatomen (den sogenannten a-Partikeln) zusam- mengesetzt sind, an die aber auch noch elektrische Ladungen (Elektronen, ß-Teilchen), die wir direkt als Atome der Elektrizität ansprechen können, ge- koppelt sind. Ein solches Elektron repräsentiert die kleinste uns bekannte Elektrizitätsmenge und seine Masse ist beiläufig dem zweitausendsten Teil eines Wasserstoffatomes gleich. Diese große Zahl der a- und ß-Teilchen bilden ein mehr oder minder stabiles System, das wesentlich auch durch elektrische Kräfte zusammengehalten wird. Daß in einem solchen die verschiedensten Bewegungen und Schwingungen vor sich gehen können und müssen, ist klar, und die große Mannigfaltigkeit der von einem solchen Atom ausgehenden Strah- lungen wird begreiflich. Von diesen Bewegungen eine bestimmte und einiger- maßen begründete Vorstellung zu gewinnen, ist freilich noch nicht gelungen, doch sind die Versuche nach dieser Richtung nicht ohne Erfolg geblieben und

Gesetzmäßigkeiten in den Spektren 621

namentlich die Ansichten, wie sie in den letzten Jahren von H. A. Lorentz, von J. J.Thomson und von Bohr entwickelt wurden, haben wenigstens teil- weise durch das Experiment ihre Bestätigung gefunden.

Wenn die Strahlungen durch Schwingungen elektrischer Massen verur- sacht werden, die bekanntlich elektrischen Strömen äquivalent sind, so ist zu erwarten, daß ein Magnetfeld um die Lichtquelle auch deren Schwingungen in ganz bestimmter Weise beeinflussen wird. Das wurde eben durch das früher schon erwähnte Experiment von P. Zeeman (1897) nachgewiesen. Befindet sich die Lichtquelle in einem solchen Felde von genügender Stärke, so erschei- nen die Linien des Spektrums in mehrere Komponenten gespalten, teils mit etwas größerer, teils mit kleinerer Wellenlänge, als die normale Linie hat. Blickt man in der Richtung der magnetischen Kraftlinien, so erweisen sich die äußeren Komponenten dabei zirkulär, senkrecht zu den Kraftlinien dagegen linear polarisiert, Erscheinungen, die mit den theoretischen Ansichten, soweit solche gegenwärtig möglich sind, in Einklang stehen (vgl. Artikel 30).

Noch eine Erscheinung steht offenbar mit dem komplizierten Bau des Atoms im Zusammenhang; die Wellenlänge einer Spektrallinie hat sich als abhängig von den Bedingungen, unter welchen die Lichtquelle steht, heraus- gestellt, z. B. von dem Druck. Freilich sind diese Variationen nicht bedeutend, sie betreffen zumeist nur die Hundertel, selten die Zehntel der Angström sehen Einheit, wie von W. J. Humphreys und F. M oh 1er (1896) experimentell nachgewiesen wurde, trotzdem machen sie sich bei feineren Untersuchungen be- merkbar. Es ist z. B. aufgefallen, daß viele Linien bekannter Elemente im gewöhnlichen Bogenspektrum eine etwas andere Stellung haben als im Sonnen- spektrum, woraus man schließen muß, daß dort die Verhältnisse des Druckes oder der Dampfdichte andere sind wie im Bogen. Diese Verschiebung der Linien tritt immer im Sinne größerer Wellenlängen auf bei wachsendem Druck. Es ist wichtig, auf dieses Phänomen aufmerksam zu sein, wenn es sich etwa um die Bestimmung von Sterngeschwindigkeiten nach dem Doppl ersehen Prinzipe handelt; die beiden Ursachen können dadurch auseinander gehalten werden, daß letztere sich immer gleichmäßig auf alle Linien äußert, erstere aber meist nur einzelne Linien stark, andere dagegen gar nicht beeinflußt.

Überblicken wir die Tätigkeit des letzten halben Jahrhunderts auf dem Gebiete der Spektralanalyse, so kann uns das nur mit Befriedigung erfüllen: die großen Erwartungen, die sich an die Entdeckung G. Kirchhoffs knüpften, sind nicht getäuscht worden. Als chemisch-analytische Methode ist die Spek- tralanalyse gegenwärtig in einem so abgeschlossenen Zustande, daß ihrer An- wendung im Laboratorium wie auf astronomischem Gebiete nichts mehr im Wege steht, nach anderen Richtungen aber, insbesondere was die Erforschung des Größten und des Kleinsten anlangt, die Erforschung der physischen Beschaffen- heit der Weltkörper und der Mechanik des Atomes ist sie in eifrigster Entwick- lung begriffen, und kein Jahr vergeht, ohne daß wir ihr eine wesentliche Bereiche- rung unserer Kenntnisse zu verdanken hätten. Um so mehr wollen wir stets des Begründers derselben, G. Kirchhoffs, gedenken.

2g. STRUKTUR DER SPEKTRALLINIEN.

Von E. Gehrcke.

AUgemeines. Dic voD Wollastoii und Fraunhofer zu Beginn des 19. Jahrhunderts entdeckten schwarzen Linien im Sonnenspektrum sowie die Beobachtung, daß leuchtende Gase und Dämpfe bestimmte, diskrete Teile des Spektrums zu er- zeugen vermögen, ließ die Frage nach der genauen Ermittlung der Lage dieser Teile des Spektrums, die man Spektrallinien nannte, entstehen. Es zeigte sich, daß der Ort der Spektrallinien außerordentlich exakt gemessen werden kann, daß die Linien hervorragend scharfe, von äußeren Umständen augenscheinlich unabhängige Fixpunkte darstellen. So ist z. B. der Abstand der blauen von der roten Linie leuchtenden Cadmiumdampfes heutzutage genauer ab bis auf ein Milliontel seines Wertes im Spektrum festgelegt. Das ist eine selbst in der Wissenschaft sehr hohe Genauigkeit, die die Meßgenauigkeit, ja die Definitions- genauigkeit mancher physikalischer und chemischer Größen übertrifft.

Diese Fähigkeit der Spektrallinien, genau meßbar zu sein, scheint früher bei vielen Physikern den Glauben an eine fast grenzenlose, bis ins unendlich Kleine fortzusetzende Steigerung der Meßbarkeit erweckt zu haben. Heute wissen wir, daß alle Spektrallinien eine mehr oder weniger kleine Ausdehnung im Spektrum haben, daß die Spektral,, linien" Spektral„bereiche** von endlicher Ausdehnung sind. Deshalb ist es nicht mehr das ausschließliche Ziel der Forschung, die Mitten dieser Spektralbereiche oder die Stelle der größten Intensität der „Linie** mit möglichster Genauigkeit zu messen, ebenso wichtig ist die Feststellung der gesamten Struktur der Spektrallinie, d. h. der Ver- teilungskurve ihrer Intensität.

Die Bearbeitung dieser und hiermit verwandter Aufgaben hat in den letzten 20 Jahren zu einer bedeutenden Verfeinerung der bisher bekannten Meßver- fahren im Spektrum geführt, über deren Entwicklung im folgenden kurz be- richtet wird. Die Fortschritte dieser optischen Meßtechnik sind für den Laien vor allem deshalb so erstaunlich, weil die wahrgenommenen und meßbaren Größen von einer Kleinheit sind, für welche wir keine anschauliche Vorstellung haben; sind wir doch imstande, Lichtwellen, die selbst nur etwa den zwei- tausendsten Teil eines Millimeters ausmachen, auf weniger als ein Milliontel dieser Größe genau zu messen. Wir kommen damit zu Strecken, die kleiner

sind als --— mm, d. h. zu Größen, die ungefähr ein Hundertel vom Durch-

1000 000 000 ' ' °

messer der im Lichte der heutigen Forschung kleinsten Teile wägbarer Materie, der Atome, sind. Die Erforschung der Spektrallinien und ihrer Struktur aber

Struktur der Spektrallinien 523

ist deshalb so wichtig, weil die Lichtschwingungen offenbar von Teilen der Atome ausgehen, und weil wir hoffen dürfen, dereinst aus den Beobachtungen an den Spektrallinien über den Aufbau und die Struktur der Atome Auf- schluß zu erlangen.

Es ist hier nicht der Ort, die verschiedenen Methoden zur Wahrnehmung und Messung der Struktur der Spektrallinien eingehend zu erörtern, es können nur in großen Zügen und im Umriß der Gang der Entwicklung und besondere Merkpunkte auf dem bisher betretenen Wege gekennzeichnet werden. Das Problem experimenteller Optik, auf das es hier ankommt, ist aufs engste ver- wandt mit der Aufgabe, die Meßgenauigkeit der Spektrallinien zu steigern: es muß ein möglichst reines Spektrum erzeugt werden, d. h. ein solches, in dem zwei einer bestimmten Farbe oder Wellenlänge entsprechende Orte möglichst weit voneinander entfernt sind und von denen jeder einzelne möglichst kleine Ausdehnung besitzt. Man könnte zunächst meinen, daß man ja dann nur die Größe und die Zahl der Prismen in dem bekannten Prismenapparat, den schon Newton anwandte, zu vergrößern habe. Dieser Weg führt indes nur theore- tisch, nicht aber mit den heutigen technischen Hilfsmitteln auch praktisch zum Ziel. Die klare Erkenntnis der Grenzen des Prismenapparates wurde durch Lord Rayleigh (1879) gewonnen, als man bereits bei der erfolgreichen Durch- führung anderer Methoden war.

Es ist interessant, daß die bedeutende Steigerung der Leistungsfähigkeit der Spektralapparate nicht durch Forscher erfolgte, die ein hohes physikalisches Ziel, etwa die Aufklärung der Schwingungszustände des Atoms, verfolgten, son- dern vielmehr durch Physiker, die die Messung der Spektrallinien als Selbst- zweck ansahen und deshalb die Verfeinerung der experimentellen Hilfsmittel mehr wie einen Sport betrieben. Vor allem sind hier die Amerikaner H. A. Rowland (1848— 1901) und A. A. Michelson (geb. 1852) zu nennen; der erstere hat durch seine bis auf den heutigen Tag kaum übertroffenen Beugungs- gitter, der zweite besonders durch seine Interferenzapparate experimentelle Hilfsmittel geschaffen, die von erstaunlicher Vollkommenheit und Leistungs- fähigkeit sind: alle bis dahin ersonnenen Spektralapparate werden durch diese im Prinzip so einfachen Apparate, die einem konsequenten, von Energie und praktischem Geschick begleiteten Denken ihr Dasein verdanken, in den Schat- ten gestellt.

Diese neueren Hilfsmittel bedienen sich vor allem zweier Grundphänomene der Optik: der Interferenz und der Beugung (vgl. Artikel 26). Ebenso, wie zwei auf einer Wasseroberfläche hinziehende Wellenbewegungen an den Durchschnitts- p unkten der Wellenberge besonders hohe, an denen der Wellentäler besonders tief e Niveauveränderungen des Wassers erzeugen, so werden auch beim gegenseitigen Durchdringen zweier Lichtstrahlen unter geeigneten Versuchsbedingungen im Lichtäth er Lichterregungen von periodisch wechselnder Stärke erzeugt ; an diesen Stellenwird ein daselbst befindlicherKörperbesondershellbzw.besondersschwach beleuchtet. DieseErscheinungwirdalsZusammenwirken oder Interferenz vonWel- len aufgefaßt, und man hat in der Messung der gegenseitigen Abstände der hellen

624 29* ^* Gbhrcke: Struktur der Spektrallinien

und dunklen Interferenzstreifen ein Mittel in der Hand, um die Wellenlänge, welche man den einzelnen Farben des Lichtes zuspricht, zu messen. Die Beu- gung des Lichts ist die Erscheinung, daß ein Lichtstrahl, der eine enge Öffnung durchsetzt, dabei eine nach verschiedenen Richtungen verschieden starke Streuung erleidet: er wird von seiner geradlinigen Fortpflanzung abgebeugt. Auch der Betrag der Beugung ergibt ein Maß für die Größe der Wellenlänge, und es hat sich herausgestellt, daß alle Erscheinungen der Optik von der Größe der Wellenlängen abhängen, welche den verschiedensten Lichtarten zukommen. Die Interferenz und die Beugung des Lichts haben den Vorzug, auch in dem von wägbarer Materie freien Raum, also im Vakuum, unabhängig von der speziellen Natur der wägbaren Materie herstellbar zu sein. Diese Eigenschaft begründet in letzter Instanz die Überlegenheit der auf den Prinzipien der Beu- gung und Interferenz begründeten Spektralapparate gegenüber den Prismen- spektroskopen, in denen die verschieden schnelle Fortpflanzung der verschieden- farbigen Lichtarten in Körpern wie Glas, Quarz, Flußspat u. dgl. benutzt wird, um die Spektrallinien voneinander zu trennen und zu messen. Answertong Um die Wellenlänge einer bestimmten Lichtart zu messen, hat man nur

in \^iieidalgen. ^ötig, auf einer in ihrer Größe bekannten, von den Lichtwellen durchsetzten

Strecke Interferenzen zu erzeugen und die Interferenzen auf dieser Strecke zu zählen. Derartige Experimente führte mit den gelben Linien des Natriums be- reits Fizeau im Jahre 1862 aus; sodann hat Michelson seit dem Jahre 1882 die Technik dieses Versuchs zweckmäßiger gestaltet und verfeinert; durch die neueren Versuche (seit 1897) der französischen Physiker Benoit, Fabry und Perot sind sogar die Michelsonschen Arbeiten noch übertroffen worden. Auf Grund dieser Versuche müssen wir annehmen, daß auf einer Strecke von einem Meter die Zahl von 1553163,99 Wellenlängen der roten Kadmiumlinie liegen, oder umgekehrt, daß die Wellenlänge der roten Kadmiumwelle 0,00064384702 mm beträgt, interferenx. Von den Arbeiten Fizeaus und Michelsons ausgehend, hat sich in der

•pektroskopio. Folgezeit ein besonderer Zweig der experimentellen Optik entwickelt, den man kurz als Interferenzspektroskopie bezeichnet. Besonders im Anschluß an die Entdeckung Zeemans (1897), daß die Spektrallinien durch Magnetisierung der Lichtquelle in eigentümlicher Weise verändert werden können, ist das Bedürf- nis aufgetaucht, sehr feine Veränderungen der Spektrallinien wahrnehmen und messen zu können. Diese Aufgabe, sowie das bereits oben genannte Ziel, die Struktur der Linien zu untersuchen, führen zu den gleichen Konstruktionen von Interferenzspektroskopen. Es sind hier drei Typen dieser Apparate zu nennen, die sich praktisch bewährt haben und deren jeder gewisse Vorteile besitzt: Die „versilberte Luftplatte'* von Perot und Fabry (1897), das Michelsonsche „Stufengitter'* (1898) und das Plattenspektroskop von Lummer und Gehrcke (1902). Ohne auf Details hier näher einzugehen, sei nur hervorgehoben, daß zur Herstellung dieser Apparate außerordentlich exakt geschliffene plane Glas- flächen und planparallele Glasflächen^) erforderlich sind und daß die technische i) Nach neueren Untersuchungen sind auch keilförmige Glasplatten verwendbar.

Struktur der Spektrallinien 625

Herstellung dieser erst infolge der hochgestellten Ansprüche der Interferenz- spektroskopie an die optische Technik erreicht wurde. Ferner sei hervor- gehoben, daß diesen neueren Typen von Interferenzspektroskopen die Erzeu- gung scharfer, feiner Interferenzstreifen eigentümlich ist, im Gegensatz zu den älteren Apparaten von Fizeau und Michelson,in denen breite, unscharfe Streifen entstehen. Dieser zuletzt genannte Fortschritt bedingt mehr wie irgend- ein anderer die Verwendbarkeit der Methoden der Interferenzspektroskopie für viele Zwecke.

Die Spektrallinien vieler Stoffe zeigen bei der Untersuchung mit den Inter- Breite ferenzspektroskopen eine Reihe von interessanten Einzelheiten, welche den spekti^^Liaien. älteren Beobachtern, die sich der Prismenapparate und Beugungsgitter bedien- ten, entgangen waren. Zunächst zeigt sich, daß der enge Spektralbereich, den eine einzelne „Linie** repräsentiert, in merklichem Grade von der Temperatur des leuchtenden Gases abhängt. Buisson und Fabry haben z. B. Röhren, die mit verdünnten Edelgasen wie Helium, Argon, Krypton gefüllt waren, in ein Bad mit flüssiger Luft getaucht und so eine beträchtliche Abnahme der Breite der SpektralUnien elektrisch erregten Heliums, Argons, Kryptons ge- funden. Die experimentell gewonnenen Änderungen der Breite sind in quanti- tativer Übereinstimmung mit der Auffassung, die man sich von der Ursache der Linienbreite der SpektralUnien gemacht hat, und man kann geradezu sagen, diese Versuche bilden eine direkte, optische Bestätigung der kinetischen Gas- theorie, welche in jedem Gasvolumen einen Mückenschwarm von regellos durch- einander schwirrenden Atomen erblickt. Ferner hat sich ergeben, daß die fein- sten Spektrallinien oft aus einem Komplex von sehr vielen, äußerst nahe benach- barten ,, Linien** zusammengesetzt sind (z. B. Quecksilberlinien), die sich, wie die Planeten um die Sonne, als Trabanten um ein gemeinsames Zentrum, die Trabmnten. sog. „Hauptlinie**, gruppieren; zuweilen ist auch eine hellste Linie, die man als Hauptlinie bezeichnen könnte, nicht da und wir haben einen Haufen von schein- bar regellos durcheinander geworfenen, äußerst nahen Linien vor uns, wo das alte Prismenspektroskop nur eine einzige Linie erkennen läßt. In anderen Fällen wieder zeigt der Komplex von Trabanten einen gesetzmäßigen, durch eine For- mel ausdrückbaren Bau (z.B. Manganlinien nach Janicki). Die Spektrallinien zeigen auch eigentümliche Veränderungen ihres Ortes, wenn die Bedingungen, unter denen sie in der Lichtquelle ausgesandt werden, eine Änderung erleiden. Die bekannteste Änderung dieser Art ist das von Zeeman 1897 entdeckte Phä- nomen : die Spektrallinien können durch Magnetisieren der Lichtquelle eigentüm- liche Ortsveränderungen, die mit charakteristischen Änderungen des Polarisa- tionszustandes verbunden sind, erleiden. Das Zeeman sehe Phänomen führt uns an Hand einer von H.A. Lorentz auf gestellten Theorie schon in das Innere des Atoms hinein, und wir schließen aus der Diskussion der quantitativen Ergeb- nisse des Zee manschen Phänomens, daß in vielen Lichtquellen und Flammen, in denen Spektrallinien emittiert werden, ein im Innern des Atoms schwingen- des, negativ geladenes Teilchen, dessen Masse kleiner ist als der tausendste Teil des Atoms, und das man als ,, Elektron** bezeichnet, die Ursache des Leuchtens

K.d.G.m.xii,BdK Phytik 40

626 ^9' ^- GehrckE: Struktur der Spektrallinien

ist (vgl. Artikel 15 und 30). Andere, experimentell konstatierte Ortsverände- rungen der Spektrallinien sind theoretisch bisher noch weniger gut erklärbar; vielleicht sind sie durch das Ineinandergreifen verschiedener Atome (bzw. deren elektrischer Kraftfelder) bedingt. Hierher gehört die von Humphreys und Je well gefundene Wanderung aller Spektrallinien in der Richtung nach dem roten Ende des Spektrums zu, wenn der Druck in dem leuchtenden Gase Drnck- gesteigert wird. Diese „Druckverschiebung** ist äußerst klein, aber unschwer ^*'**^****"*^' nachweisbar; sie steht ihrer Größe nach mit dem Atomgewicht des leuchten- den Stoffes in Beziehung und ergibt interessante Zusammenhänge mit dem periodischen System der Elemente.

Eine interessante Konsequenz der an dem Studium der feinsten Spektral- linien entwickelten Anschauungen sei noch kurz erwähnt. Es hat sich gezeigt, daß viele der dunklen, Fr au nho ferschen Linien, die im Sonnenspektrum beobach- tet werden, außerordentlich scharf sind. Hieraus muß gefolgert werden, daß die Temperatur der gasförmigen Schichten, in denen diese Linien absorbiert werden, keine sehr hohe sein kann. Da außerdem die Linien keine sonderliche Druckverschiebung zeigen, so müssen sie in Gasen von geringem Druck, also ge- ringer Dichte, absorbiert werden. Nun ist aber die Sonne, die ein kontinuier- liches Spektrum aussendet, sicherlich auf einer nach mehreren Tausenden von Graden zählenden Temperatur, und wir stehen so vor der Folgerung, daß in verhältnismäßig geringer Höhe über der Sonnenkugel, da, wo die feinen Fr au nho ferschen Linien absorbiert werden, schon ein Bereich von ziemlich niederer Temperatur vorhanden sein muß. Dieser Schluß, der also zur An- nahme eines sehr steilen Temperaturgefälles in der Atmosphäre der Sonne führt, wird seines paradoxen Scheins entkleidet, wenn man daran denkt, daß die von der Sonne aufsteigenden, heißen Gase und Dämpfe sich bei der Aus- dehnung abkühlen müssen; die Erwärmung dieser aufgestiegenen Gase und Dämpfe durch Absorption der sie durchstreichenden, enormen Strahlungs- energie des Sonnenkerns kann aber nur gering sein, da die Absorption in Gasen sehr klein ist, wie dies schon Tyndall experimentell gezeigt hat. Wir sehen an diesem letzten Beispiel, daß die Anwendung der Apparate hoher Auflösungs- kraft und die Analyse der feinsten Spektrallinien über den Bereich der reinen Physik herausreicht und bis zur Sonne und wohl noch weiter bis zu den Ster- nen reicht. Die Anwendung der Interferenzspektroskopie in der Astrophysik aber wird erst im Laufe der Zeit Früchte tragen können, da die Astrophysiker sich bisher noch vor der Benutzung der Interferenzspektroskope zu scheuen scheinen, indem sie es vorziehen, sich der älteren Prismen- und Gitterapparate zur Erforschung der Spektrallinien der Gestirne zu bedienen.

30. MAGNETOOPTIK.

Von P. Zeeman.

A. Drehung der Richtung der Lichtschwingungen im magnetischen Felde.

Die Geschichte der Magnetooptik geht wohl nicht weiter zurück als bis zu Faraday. Magne- Michael Faraday. Im August 1845 begann Faraday zum sechsten Male '"der^PoUri^ in seinem Laboratorium eine Untersuchung nach einer Beziehung zwischen «**»on»ebeiie. Licht und Elektrizität, wonach er schon so oft gespürt hatte. Diesmal hatte er Erfolg, und am 13. September 1845 war die erste Andeutung der magnetischen Drehung der Polarisationsebene in durchsichtigen Körpern gefunden. Linear polarisiertes Licht, das parallel den magnetischen Kraftlinien fortschreitet, hat zwar in jedem Punkte des Strahles die Schwingungen normal zum Strahle, aber die Schwingungsrichtung im austretenden Licht macht einen gewissen Winkel mit der des eintretenden Bündels. Faraday selbst nannte seine Ent- deckung ,,die Magnetisierung des Lichtes und die Erleuchtung der magnetischen Kraftlinien**. Seine Zeitgenossen es war zwanzig Jahre vor Maxwells Idee der elektromagnetischen Theorie des Lichtes verstanden diese Benennung nicht, und dieselbe entsprach vielleicht mehr dem, was er suchte, als dem, was er entdeckt.

Die theoretischen Erwägungen, die Faraday leiteten, konnten wohl nicht sehr scharf formuliert werden. Es ist wenigstens nicht bekannt, welchen Effekt er zu beobachten erwartete. Er wußte aber, ein wie feines Hilfsmittel zur Unter- suchung der Struktur der Körper polarisiertes Licht war. Schon im Anfange des 19. Jahrhunderts hatten Arago (1811) und Biot (18 13) die natürliche Drehung der Polarisationsebene im Quarz und anderen Substanzen entdeckt, und 181 5 hatte Brewster die Erscheinungen der zufälligen Doppelbrechung gefunden. Den allgemeinen Anlaß aber zu seinen Versuchen beschreibt Faraday im Beginn der 19. Reihe (1845) seiner Experimentaluntersuchungen über Elek- trizität in folgender Weise: ,, Längst hegte ich, wie ich glaube, in Gemeinschaft mit vielen anderen Freunden der Naturwissenschaft, die fast an Überzeugung grenzende Meinung, daß die verschiedenen Formen, unter denen die Naturkräfte sich offenbaren, einen gemeinsamen Ursprung haben oder, mit anderen Worten, in so unmittelbarer Verwandtschaft und gegenseitiger Abhängigkeit stehen, daß sie sich gleichsam ineinander verwandeln können und ihre Wirkung sich in äqui- valenten Größen äußert. In neuerer Zeit haben sich die Beweise für ihre Um- wandelbarkeit in beträchtlichem Maße gehäuft, und es ist bereits ein Anfang gemacht, die Kraftäquivalente zu bestimmen. Diese feste Überzeugung dehnte

40^

628 30. P. Zeeman: Magnetöoptik

ich auch auf die Kräfte des Lichtes aus, und sie veranlaßte mich schon früher zu vielfachen Versuchen, deren Ziel die Auffindung einer unmittelbaren Bezie- hung zwischen Licht und Elektrizität und ihrer Wechselwirkung in Körpern war, welche beiden Kräften zugleich unterworfen sind; allein, die Resultate waren negativ.*'

Merkwürdig ist, daß 20 Jahre vor Faraday S. F. W. Herschel die ge- fundene Beziehung zwischen Licht und Magnetismus vermutet hatte. Geleitet von dem richtigen Gedanken einer Analogie zwischen Schraubenstruktur des Quarzes und einer ebensolchen Dissymmetrie des magnetischen Feldes hatte Herschel, wie wir aus einem Brief an Faraday wissen, sogar ein Experiment in der späteren Faradayschen Anordnung, aber wohl mit zu geringen Kräften, angestellt.

Die erste Substanz, an welcher Faraday den Faradayeffekt beobachtete, war sein „schweres Glas** (Borosilikat des Bleies), eine Glasart, die er während einer Untersuchung zum Zwecke der Verbesserung von Glasarten für optische Zwecke gefunden hatte. Diese Untersuchung (1825— 1829) aus der ersten Peri- ode seines wissenschaftlichen Lebens, angestellt unter Mitwirkung von D o 1 1 o n d und Herschel, hatte ihm vier kostbare Jahre genommen und übrigens zu dem beabsichtigten Ziel nicht geführt, welches erst viel später durch Schott und Abbe erreicht wurde. In dem wunderbaren gefundenen Zusammenhang zwi- schen Licht und Magnetismus fand er jetzt auch den Lohn für die dieser um- fangreichen Arbeit gewidmete Geduld und Beharrlichkeit. Weitere Die magnetische Drehung der Polarisationsebene ist eine allgemeine Eigen-

Bntwickiong. ^^^^^ j^y Materie, sei es, daß sie sich im festen, flüssigen oder gasförmigen Zu- stande befindet; nur ist ihre Größe je nach der Eigenart der Körper sehr ver- schieden.

Verhältnismäßig spät gelang die Auffindung der magnetischen Drehung in Gasen, wozu H. Becquerel (1880), Kundt und Röntgen (1879) sich be- sonderer Kunstgriffe wegen der Kleinheit des Effektes in diesem Falle bedienen mußten. Genaue Messungen verdankt man Siertsema (1899). ^^ einem ge- wissen Gegensatze zu der Drehung in Gasen steht die enorme Wirkung durch- sichtiger Eisenschichten, die Kundt (1884) zuerst beobachtete.

Ist die magnetische Sättigung erreicht, so ist bei Eisen die Drehung pro cm 200 000**, bei Kobalt etwas kleiner als bei Eisen, bei Nickel 89 000** pro cm. Die Schwingungen des Lichtes werden also für Eisen schon auf der winzigen Strecke von Yöo ^^ ^^^ ganzes Mal herumgedreht. Im Faradayschen Glase ent- spricht einem Felde von 20000 Gauß eine Drehung von etwa 20® pro cm. Diese Ausnahmestellung der ferromagnetischen Metalle bezüglich der magnetischen Drehung verschwindet freilich, falls man die Drehungen nicht auf gleiche Inten- sität der äußeren Felder, sondern auf gleiche Magnetisierungen (vgl. Artikel 16) bezieht.

In den meisten Substanzen erfolgt die Drehung der Polarisationsebene im Sinne der in den Rollen des Elektromagneten verlaufenden Ströme. Diese „positive** Drehung findet sich nicht, wie Faraday meinte, bei allen Körpern;

Faraday efiekt 629

schon Verdet (1856) fand in gewissen Eisensalzen Vertreter einer Klasse von Substanzen, die im entgegengesetzten, also negativen Sinne drehen.

Interessant ist noch die Klassifizierung der beiden Gruppen von Körpern nach ihrem magnetischen Verhalten (du Bois, 1888). Dabei hat sich dann er- geben, daß fast alle diamagnetischen, d. h. die Mehrzahl der untersuchten Kör- per eine positive Drehung zeigen, die paramagnetischen Körper hingegen bieten eine bunte Verschiedenheit da. Den tieferen Grund dieser Regelmäßigkeit werden wir erst später kennen lernen.

Es ist die spezifische Konstante der magnetischen Drehung (Verdetsche Konstante) für ausgewählte Körper mit einer solchen Genauigkeit bestimmt worden, daß man umgekehrt bisweilen aus der Größe der magnetischen Drehung in Wasser oder Schwefelkohlenstoff die Feldstärke eines Elektromagneten oder die Intensität eines sehr starken elektrischen Stromes in einer ausgemessenen Spule bestimmt hat.

Die magnetische Drehung der Polarisationsebene hat sogar eine technische Anwendung gefunden, indem Crehore und Squier (1896) sich derselben zur experimentellen Bestimmung der Bewegung von Geschossen innerhalb der Boh- rung eines Geschützes bedienten.

Die Größe der Drehung in einem magnetischen Felde hängt in hohem Maße von der Farbe des fortgepflanzten Lichtes ab, und zwar nimmt sie mit abneh- mender Wellenlänge zu, falls wenigstens keine Absorptionsbänder in der be- trachteten Region des Spektrums vorkommen. Wie wichtig die Rolle der Absorptionsbänder sein kann, zeigen wohl am schönsten die Beobachtungen in der Nähe der Absorptionslinien der Metalldämpfe, Beobachtungen, welche übrigens erst nach der Entdeckung der magnetischen Zerlegung der Spektral- linien gemacht wurden, worauf im Verlauf dieses Artikels zurückzukommen ist.

Es möge aber erwähnt werden, daß die Drehung, wie in gewöhnlichen Gasen, auch in Metalldämpfen für fast alle Wellenlängen sehr klein ist. Nur für diejenigen Farben, welche einem Absorptionsstreifen des Dampfes naheliegen, wird, wie Maculuso und Corbino (1898) beim Natriumdampfe in einer ge- wöhnlichen Flamme in einem Felde von etwa 15000 Gauß fanden, die Drehung sehr groß, nämlich von der Ordnung von 180®, und zwar geschieht sie in der positiven Richtung, d. h. der des den Magneten erregenden^^Stromes.

Man hat sich sehr bemüht, für Stoffe, die physikalisch oder chemisch zu- sammengesetzt sind, die Drehung eines Stoffes als Funktion der Drehungen der Bestandteile darzustellen.

In weitem Umfange ist (seit 1882) von P. H. Perkin und später von Schönrock diese Aufgabe in Angriff genommen. Allein, trotz vieler bemer- kenswerter Resultate im einzelnen, haben sich einfache, allgemein gültige Be- ziehungen, die sich theoretisch verwerten lassen, nicht ergeben.

Die Drehung (auch die natürliche Drehung) der Polarisationsebene linear TbeoretitchM. polarisierten Lichtes wird zuweilen beschrieben als eine Ungleichheit der Fort- pflanzungsgeschwindigkeiten links und rechts zirkulär polarisierten Lichtes (Fresnel, 1822). Beide Tatsachen sind sogar völlig äquivalent, falls man ein-

630 30. P. Zeeman: Magnetooptik

mal die Grundsätze der Undulationstheorie für bewiesen hält. Es sind aber einige Physiker so vorsichtig gewesen, die zweite Tatsache durch ein besonderes Experiment noch einmal festzustellen, nachdem die erste gefunden war. Ge- wiß ist also nichts dagegen einzuwenden, daß man gelegentlich statt von ma- gnetischer Drehung der Polarisationsebene von magnetisch-zirkulärer Doppel- brechung spricht.

Was nun die Theorie betrifft, so ist zu bemerken, daß Airy (1846) kurz nach Faradays Entdeckung den Differentialgleichungen der damaligen Licht- theorie neue Glieder hinzufügte, die eine Drehung der Polarisationsebene be- schreiben. Es war das also eine rein mathematische Theorie, in welcher keine Rechenschaft über die physikalische Bedeutung der Zusatzglieder gegeben wird. Das geschah, und zwar in einer sehr bemerkenswerten, unseren neueren Theo- rien sich nähernden Theorie von C. Neumann (1858).

Viel bekannter wurde eine Auffassung von Kelvin (Sir W. Thomson, 1857), welcher in der magnetischen Drehung der Polarisationsebene den Beweis sah, daß im magnetischen Felde verborgene Rotationen um die magnetischen Kraftlinien geschehen. Der Faradayeffekt wäre eine Demonstration ,,der Reali- tät von Amperes Theorie der Natur des Magnetismus'*. Auch in späteren Betrachtungen spielen solche zyklische Systeme mit unsichtbaren Bewegun- gen um die Kraftlinien eine Rolle. Von der Erklärung des Faradayeffektes in der Elektronentheorie wird später die Rede sein.

B. Reflexion des Lichtes an magnetisierten Spiegeln.

Kerr. Reflexioii Bis jctzt betrachteten wir immer den Einfluß des Magnetismus auf Licht,

* EUeS^Ugtlb!" ^^ durchsichtige Körper durchsetzt; eine Entdeckung von Kerr bezieht sich auf Licht, das an einem magnetisierten Eisenspiegel reflektiert wird.

Schon in der ersten Hälfte des vorigen Jahrhunderts war genau bekannt, wie die Eigenschaften des an einem Körper reflektierten Lichtes von der Natur des reflektierenden Mediums abhängen. So wird die Reflexion an durchsich- tigen Körpern durch Formeln Fresnels (1823) als Funktion des Einfalls- und des Brechungswinkels vollständig dargestellt, und das Auftreten des letzt- genannten Winkels in den Formeln beweist, daß eben die Lichtbewegung im zweiten Medium eine Einwirkung auf das reflektierte Licht ausüben muß (vgl. Artikel 26).

Ähnlich verhält es sich mit der Reflexion an doppelbrechenden und stark absorbierenden Medien (Metalle), immer zeigt sich ein Einfluß des zweiten Mediums. Und so war es dann auch zu erwarten, daß bei Reflexionen an Kör- pern, die den Faradayeffekt zeigen, das Licht eine von der Feldwirkung her- rührende Modifikation zeigen würde. Freilich wäre bei Reflexion an durch- sichtigen Körpern eine derartige Wirkung wohl unmerkbar gewesen und es war daher ein glücklicher Umstand, daß Kerr gerade einen Eisenspiegel wählte, obwohl die Ausnahmestellung der ferromagnetischen Metalle bezüglich des Faradayeffektes erst acht Jahre später von Ku ndt gefunden wurde. Im August 1876 konnte der British Association in Glasgow Kerrs Entdeckung mitgeteilt

Kerreffekt 031

werden, daß die Magnetisierung eines Eisenspiegels die Beschaffenheit des re- flektierten Lichtes modifiziert. Der Kerreff ekt wird bei verschiedener Richtung der Magnetisierung beobachtet. Denkt man sich einen eisernen, in der Längs- richtung magnetisierten Stab, dessen Endfläche senkrecht zur Längsrichtung poliert ist, so daß dieselbe als Spiegel dienen kann, dann ist es möglich, an diesem Spiegel die Erscheinungen der polaren Reflexion zu studieren. Falls die Ober- fläche des Spiegels der Richtung der Magnetisierung parallel ist, spricht man von äquatorialer Reflexion.

Das Untersuchungsgebiet ist nun recht ausgedehnt infolge der großen Zahl maßgebender Faktoren. Falls man sich auf die beiden Hauptfälle der polaren und äquatorialen Reflexion beschränkt, kann man noch immer Versuche mit verschiedenen Einfallswinkeln und verschiedenen Farben anstellen.

Und so haben nach K er r Righi, Kundt, du Bois, Sissingh, Hall, Neuere Katz, Zeeman, Wind, Ingersoll, Foote und andere sich mit der Erschei- ^~^*^'^"^"' nung eingehend beschäftigt. Die Messungen sind sehr schwierig, weil der Effekt sehr klein ist, es kommt noch hinzu, daß die gewöhnliche Metallreflexion schon an sich dem Lichte ihre komplizierten Gesetze aufzwingt. Teilweise kann man durch geeignete Anordnung den Einfluß des Magnetfeldes gegenüber dem der Metallreflexion in den Vordergrund bringen.

Kerrs erste Beobachtung bezieht sich auf die Reflexion linear polarisierten Lichtes an der Stirnfläche des Magneten bei normaler Inzidenz. Die Verhält- nisse liegen dann am einfachsten. Nach Erregung des Magneten war die reflek- tierte Schwingung um einen kleinen Winkel (etwa von der Ordnung 20') ge- dreht, und zwar der Richtung des magnetisierende;i Stromes entgegengesetzt.

Mit der Abhängigkeit des Kerreff ektes von der Farbe haben sich besonders du Bois (1890), Ingersoll (1906) und Loria (1912) beschäftigt. Die Ver- hältnisse sind recht kompliziert.

Zur Charakterisierung der Größe der Erscheinung möge erwähnt werden, spitere daß du Bois für rotes Licht bei magnetischer Sättigung folgende Werte ^^^ ^J^^^^tet Drehung beobachtete: Eisen 23', Kobalt 21', Nickel 3'.

Die Drehung bezieht sich auf die große Achse der immer sehr gestreckten Schwingungsellipse. Bei schiefer Inzidenz war das reflektierte Licht im all- gemeinen deutlich polarisiert. Das war auch der Fall, wenn die Kraftlinien der spiegelnden Fläche und auch der Einfallsebene parallel (äquatoriale Reflexion) waren. Die Drehungen sind in diesen Fällen nach Righi besonders von Sissingh eingehend untersucht und ergeben sich noch kleiner als bei polarer Reflexion (etwa 4' im maximo).

Es gibt nun noch einen Fall, welcher noch nicht erwähnt ward und in dem Nener Fau man vielleicht gar keinen Effekt der Magnetisierung des reflektierenden Spie- ^**' ^**"* gels erwarten würde. Ich meine die Reflexion, bei welcher die Kraftlinien zwar der Oberfläche des Spiegels parallel sind, aber die Einfallsebene senkrecht zur Richtung der Magnetisierung steht. Sind die Schwingungen des einfallenden Lichtes parallel oder normal zur Einfallsebene, so werden diese nicht gedreht oder in elliptische Schwingungen verwandelt. Aber bei Lichtschwingungen

632 30. P. Zbbican: Magnetooptik

anderer Richtung als die genannten läßt sich, wie Wind (1890) theoretisch vor- hersagte, eine Einwirkung des Feldes erwarten, und Zeeman konnte die Kxi- stenz der äußerst schwachen Wirkung experimentell nachweisen. zorTh^Kie. Die Thcorie des Kerreffektes ist vielfach behandelt worden, so von Lo- rentz (1883 ^^^ ^9^)f ^^^ Loghem, Righi, Drude, Goldhammer, Leathem, Wind, Voigt (1898 und 1908) und anderen.

Im allgemeinen ist beim Kerreffekt auch dann, wenn die einfallenden Schwingungen parallel oder normal zur Einfallsebene geschehen, das reflektierte Licht elliptisch polarisiert. Durch Erregung des Magneten gesellt sich also eine ,, magnetische Komponente*' senkrecht zur bestehenden Schwingung hinzu. Aufgabe der Theorie, sowie ev. einer vollständigen Beobachtung, ist es, die Amplitude und Phase der neuen Komponente zu bestimmen. In diesem Sinne vollständige Beobachtungen wurden sowohl zuerst von Sissingh, sodann von Zeeman und Wind angestellt.

Ein einfaches Beispiel möge klarmachen, worum es sich bei der Theorie des Kerreffektes handelt. Wir betrachten den Fall der normalen Reflexion bei Magnetisierung senkrecht zur spiegelnden Fläche. Den einfallenden, linear polarisierten Strahl zerlegen wir in zwei, links und rechts zirkulär polarisierte, Strahlen.

Im magnetisierten Metall können sich nun zwei entgegengesetzt zirkulär polarisierte Strahlen fortpflanzen, die sich unterscheiden nicht nur durch die Fortpflanzungsgeschwindigkeiten, sondern überdies durch die Absorptions- indizes. Es ist dann begreiflich, daß die beiden zirkulären Wellen mit verschie- denen Amplituden und einer Änderung der Phase reflektiert werden und daß somit die reflektierte Welle elliptisch polarisiert wird, wie es eben im Kerreffekt beobachtet wird.

Will man diese Skizze weiter verfolgen und sich eine Vorstellung über den Mechanismus der Wirkung machen, so stößt man auf große Schwierigkeiten. Loren tz (1883) hat an den damals entdeckten Halleffekt (>^1. Artikel 20, S.422) (die Ablenkung des elektrischen Stromes in einem Metallblatt durch ein ma- gnetisches Feld, 1897) angeknüpft, eine Erscheinung, die man der Hauptsache nach in der Elektronentheorie vollkommen verstehen kann. Die Beziehungen des Kerreffektes zum Halleffekt sind aber, wie sich nach und nach heraus- stellte, gewiß nicht einfach und man wurde gezwungen, neben den freien Elektronen, die einen Leitungsstrom ausmachen, andere Elektronen, die an be- stimmte Gleichgewichtslagen gebunden sind, mitbestimmend im verwickelten Spiel der Kräfte anzunehmen. Aber auch so sind große Schwierigkeiten übriggeblieben; Lorentz und Voigt haben es daher beim Kerreffekt vor- gezogen, teilweise mehr phänomenologisch (vgl. Artikel 35) gehaltene Betrach- tungen zu benutzen, indem sie in die Beziehungen zwischen der elektrischen Kraft und dem Strom gewisse, von der magnetischen Kraft abhängige Zusatzglieder einführten, ohne bis ins einzelne Rechenschaft von diesen Gliedern zu geben» was aber immerhin später noch möglich bleibt.

Zerlegung der Spektrallinien im Magnetfelde 633

C. Magnetische Zerlegung der Spektrallinien.

Die letztgenannten Arbeiten gehören schon der späteren Entwicklung der Magnetisch© Elektronentheorie an. Wir wollen jetzt um einige Jahre zurück gehen und die spokSSLie^ magnetische Zerlegung der Spektrallinien behandeln, das dritte Phänomen, welches eine enge und wohl die einfachste Beziehung zwischen Licht und Magne- tismus darstellt und nach dem Ausspruche Lorentz' „der Ausgangspunkt einer langen Reihe von Untersuchungen wurde, die ganz besonders dazu geeignet sind, einen Einblick in den Mechanismus der Emission und Absorption zu eröffnen**.

Im Interesse der Übersichtlichkeit haben Voigt und Lorentz in ihren neueren Darstellungen der Magnetooptik die magnetische Zerlegung der Spek- trallinien in den Vordergrund gestellt, das geht aber nur, wenn man von einer chronologischen Anordnung Abstand nimmt, im Gegensatz zu der hier von uns gewählten mehr historischen Behandlungsweise. Wir müssen daher später noch wieder auf den Faradayeffekt zurückkommen.

Die Entdeckung der magnetischen Zerlegung der Spektrallinien wurde von Zeeman (1896) mitgeteilt in einer Abhandlung ,,Uber einen Einfluß der Ma- gnetisierung auf die Natur des von einer Substanz emittierten Lichtes** (der Amsterdamer Akademie vorgelegt von Kamerling Onnes).

Bei den Problemen, um die es sich hier handelt, haben, wie von berufener Seite öfters hervorgehoben wurde, Theorie und Experiment in vorbildlicher Weise kooperiert und dasselbe war auch bei der späteren Entwicklung der Ma- gnetooptik der Fall.

Während vieler Jahre hatte Zeeman sich in Leiden mit Experimenten über die Reflexion des Lichtes an magnetisierten Spiegeln beschäftigt und Kenntnis genommen von den betreffenden Theorien. Immer war darin die Rede von der magnetischen Beeinflussung der Vorgänge der Lichtfortpflanzung, um die es sich in den Phänomenen von Faraday und Kerr dann auch handelt.

Ist es aber nicht möglich, daß auch die in der Lichtquelle arbeitenden Kräf- te durch den Magnetismus beeinflußt werden, daß also eine magnetische Ein- wirkung auf die Lichte mission stattfindet?

Dies wäre möglich, falls die Kräfte, welche während der Fortpflanzung wirken, sich auch während der Emission beteiligen.

Die genannte Frage stellte sich Zeeman (1896), und sie veranlaß te ihn, das Licht einer Natriumflamme, die sich zwischen den Polen eines Elektromagneten befand, mit einem Rowlandschen Gitterspiegel in seine Bestandteile zu analy- sieren. Die Beobachtung geschah normal zu der Verbindungslinie der Pole des Magneten, und es ergab sich, daß die gelben Natriumlinien beim Erregen des Magneten sich verbreiterten. Das beweist, daß unter dem Einflüsse des Magne- tismus einer Flamme außer den ursprünglichen Schwingungen solche von etwas größerer und solche von etwas kleinerer Frequenz emittiert werden. Auch in der Richtung der Kraftlinien wurde die Verbreiterung der Spektrallinien beobach- tet. Sodann wurde gezeigt, daß dem direkten Effekt auch ein i n v e r s e r Effekt entspricht, d. h. die Absorptionslinien, die sich zeigen, wenn weißes Licht glü- henden Natrumdampf durchsetzt, werden gleichfalls verbreitert, wenn der

634 ^^* ^' '^K^^^^- Magnetooptik

Dampf magnetisiert wird. Die beobachtete Änderung der Schwingungsdauer ist überaus klein. In dem schon damals leicht herstellbaren magnetischen Felde von 10 000 Gauß stimmt sie überein mit etwa dem 30. Teil des Abstandes der bekannten gelben Natriumlinien. Theorie £s War nun ein äußerst glücklicher Umstand, daß die Elektronentheorie in

Ton Lorent«. j^^ ^eit, von der wir reden, gerade im Aufblühen begriffen war und Zeeman gleichsam an der Quelle dieser Theorie schöpfen konnte. Dadurch wurde es möglich, daß die gefundenen Erscheinungen sehr bald erklärt und andere neue vorhergesagt und wiederum aufgesucht werden konnten. H. A. Lorentz hatte seinen damaligen Ideen gerade klarsten Ausdruck verliehen in der klassischen Abhandlung ,, Versuch einer Theorie der optischen und elektrischen Erschei- nungen in bewegten Körpern** (1895), und dem Eingreifen seiner Theorie wollen wir zunächst einen Abschnitt widmen.

Lorentz' Theorie nimmt für den Äther zwischen den Molekülen und im freien Räume die von Maxwell formulierten Gesetze an. Sie überträgt die Hypothese Fresnels (181 8) von der Unbeweglichkeit des Äthers von den optischen Erscheinungen auf alle elektromagnetischen. In den Molekülen (oder Atomen) der gewöhnlichen Materie setzt sie überaus feine, elektrisch geladene Teilchen, „Elektronen**, voraus. Alle elektrischen und optischen Erscheinungen beruhen nach ihr auf der Lagerung und Bewegung der Elektronen. In der Abhandlung von 1895 wird noch von „Ionen** gesprochen. Erst nach 1897 wird gemäß unserer vermehrten Erkenntnis der Name „Elektron** bevorzugt. Die ge- wöhnlichen elektrischen Ströme werden erklärt durch die fortschreitenden Be- wegungen der. Elektronen, und ^Ue „Strahlungs**erscheinungen durch Ände- rungen ihrer Bewegungen entweder nach Richtung oder nach Größe. Führt ein Elektron einfache Schwingungen aus, dann pflanzen sich diese im Äther nach allen Richtungen fort und falls sie schnell genug geschehen, erwecken sie in einem Beobachter den Eindruck des Lichtes.

Nimmt man an, daß jedes Atom einer leuchtenden Flamme ein einziges, bewegliches Elektron, das von einer quasi-elastischen Kraft in seine Gleich- gewichtslage zurückgetrieben wird, enthält, dann hat man das Bild einer Sub- stanz mit einer Spektrallinie. Die Schwingungsdauer der Elektronen bestimmt die Lage der Spektrallinien im Spektrum, und jeder Änderung der Schwingungs- dauer entspricht eine Verschiebung der korrespondierenden Linie.

Wie nun die Bewegung eines Elektrons unter dem Einflüsse eines magne- tischen Feldes geändert wird, läßt sich berechnen mit Hilfe des Satzes, daß be- wegte Elektrizität in einem magnetischen Felde eine Kraft erleidet, die senk- recht steht zur Bewegungsrichtung und zu der Richtung des magnetischen Feldes und deren Größe sich leicht angeben läßt. Falls die Richtungen der Geschwindigkeit u und der magnetischen Kraft ^ senkrecht zueinander sind, ist die elektromagnetische Kraft pro Einheit der Ladung gegeben durch das Produkt u ^ und falls u und ^ parallel sind, ist sie Null.

Alle Bewegungen eines Elektrons kann man nun nach Lorentz zerlegen in geradlinige Schwingungen parallel den Kraftlinien und kreisförmige Schwin-

Polarisierte Spektrallinien 635

gungen senkrecht zu diesen. Nach dem soeben angeführten Satze wird die Schwingungsdauer des Elektrons parallel der magnetischen Kraft durch diese nicht beeinflußt, wohl aber die Periode der kreisförmigen Schwingungen senk- recht zu den Kraftlinien je nach der Richtung der Bewegung um einen be- stimmten Betrag verlängert oder verkürzt. Die Theorie erklärt also die Verbrei- terung der Emissionslinien, denn es finden neben den Schwingungen der ur- sprünglichen Periode noch solche von größerer und kleinerer statt. Sie sagt aber voraus, daß, wenn die magnetische Kraft zu genügend hohen Werten gesteigert wird, die Schwingungen von größerer und kleinerer Periode sich gleichsam von der ursprünglichen Schwingung loslösen müssen und statt einer Spektrallinie, deren drei (also ein Trip let von Linien) erscheinen müssen. Außerdem müssen die Linien entsprechend den verschiedenen Schwingungsformen der drei ein- fachen Elektronenbewegungen in eigentümlicher Weise polarisiert sein und zwar muß bei Beobachtung normal zu den Kraftlinien ein Triplet mit linear polarisierten Komponenten erscheinen. Bei Beobachtung parallel zu den Kraft- linien wird man ein Doublet mit zirkulär polarisierten Komponenten erwarten; die Schwingung parallel zu den Kraftlinien gibt in der Richtung der Kraft keine Lichtbewegung.

Zeeman hat diese aus der Lorentzschen Theorie sich ergebenden Folge- spektraiunien rungen durch die Beobachtung geprüft. Es ergab sich eine glänzende Bestäti-°"*|^j^*^**'' gung. In den ersten Versuchen konnte nur eine Verbreiterung der Spektral- linien, keine Trennung der Komponenten, konstatiert werden; die Polarisation der Ränder der verbreiterten Linien konnte aber unzweideutig festgestellt werden.

Es konnte auch der Betrag der Verbreiterung gemessen werden. Die Be- obachtung der Eigentümlichkeiten der Polarisation der Linie in der Richtung der magnetischen Kraftlinien ließ sich nur erklären, falls die schwingenden Elektronen negativ geladen sind. Aus der Größe der Verbreiterung und der Feldstärke, konnte das Verhältnis ejm von Ladung e und Masse m der Elektronen abgeleitet werden. In seiner ersten Mitteilung fand Zeeman für das genannte Verhältnis 10' c. g. s. Einheiten pro Gramm (später 1,6 10^). Es war dies wohl «ine der ersten Bestimmungen dieser wichtigen Zahl. Sie schien von auffallen- der Größe, da sie lOOO mal größer ist als die ähnliche Zahl, welche aus den Erscheinungen der Elektrolyse für Wasserstoffatome den Physikern bekannt war und davon, daß sie so groß war, was kein Mensch hätte voraussagen kön- nen, war eben das Gelingen der Versuche abhängig gewesen. Sie bewies, daß die schwingenden Elektronen und die Ionen der Elektrolyse nicht identisch sind. Sie bewies, daß, falls in beiden Fällen die Ladungen gleich sind, die schwingenden Teilchen in der Flamme nur etwa Viooo Teil der Masse eines Wasserstoffatoms haben können. Der Größenordnung nach stimmt die Zahl für ^/w überein mit der kurz danach an Kathodenstrahlen und ß- Strahlen ge- fundenen (vgl. Artikel 15, 21 und 25).

Nachdem also diese klaren Erscheinungen gefunden waren, konnte man Doublet« sich wohl davon überzeugt halten, daß es auch möglich sein mußte, die von "*** ^npiets.

636 30. P. ZebmaN: Magnetooptik

Loren tz' Theorie geforderten doppelten und dreifachen Linien sichtbar zu machen, nicht nur Spektrallinien mit polarisierten Rändern. In drei der Amster- damer Akademie 1897 vorgelegten Berichten mit dem Titel „Doublets und Triplets im Spektrum verursacht von äußeren magnetischen Kräften" konnte Zeeman mitteilen, daß ihm die Beobachtung der vollständigen Zerlegung wirk- lich gelungen war. Es wurde dies möglich durch Wahl einer feinen Spektrallinie, der blaugrünen Kadmiumlinie von 4678 A.E. (i A.E.^ Viooooooo '^^l (vgl. Ar- tikel 28) und Verstärkung des magnetischen Feldes.

Umtonde Es möge hier die Bemerkung Platz finden, daß im allgemeinen für erfolg-

für Beobachtimg Teiche magnctische Zerlegung drei Umstände bestimmend sind : Starke Magnet- der Zerlegung, fgider, hohes Auflösuugsvermögen des verwendeten Spektroskops, größte Fein- heit der Spektrallinien. Womöglich wird man gleichzeitig alle diese Mittel anwenden, denn immer sind die Zerlegungen durch magnetische Kräfte recht klein, und nie scheint das letzte Detail der wunderbar regelmäßigen Phänomene erreicht. Biektromagnete. Um die Herstellung möglichst intensiver Magnetfelder haben H. du Bois und P. Weiß (seit 1894 bzw. 1898) sich großes Verdienst erworben. Von theo- retischen Grundsätzen geleitet, haben die genannten Forscher rationelle Kon- struktionen von Elektromagneten angegeben, welche den alten Ruhmkorff- schen Typus fast verdrängt haben. Während bis zu Ende der achtziger Jahre des vorigen Jahrhunderts Werte der Feldstärke über etwa 30 000 Gauß nicht erreicht wurden, kann man jetzt in einem Raum von wenigen Kubikmillimetem bei Benutzung von kegelförmig zugestutzten Polschuhen bis 50000 Gauß kommen. Dies kann allerdings nur erreicht werden unter Aufwendung einer Leistung von mehreren Pferdestärken zur Erregung des Elektromagneten, wie die Technik sie jetzt den Laboratorien zur Verfügung stellen kann. Bei Ver- suchen über magnetische Zerlegung ist man bis jetzt wohl nicht viel über 40 ooo Gauß gekommen, eine sehr hohe Zahl im Vergleich mit den 10 000 Gauß, die bei den ersten Beobachtungen von Zeeman benutzt wurden. Wesentlich höher als 50000 Gauß kann man bei verwendbaren Dimensionen des Magneten nicht gelangen, da eine Grenze durch die nahezu erreichte magnetische Sättigung des Eisens gestellt ist. Theoretisch kann man sehr viel weiter kommen, wenn man, wie besonders von Perrin mit Nachdruck betont wurde, eine stromdurchflos- sene, etwa mit flüssiger Luft gekühlte, Spirale benutzt. Ungeheuere Geldmittel würden freilich zur technischen Ausführung notwendig sein, falls man etwa zu 200 000 oder 500 000 Gauß gelangen wollte. Feinste Die feinsten Spektrallinien bekommt man mit Hilfe von mit Quecksilber,

SpektraUinien. Radmium, Zink, Thallium und anderen Metallen beschickten Vakuumröhren. Im allgemeinen sind es die Elemente mit hohem Atomgewicht, welche sich durch Feinheit ihrer Spektrallinien auszeichnen. Allerdings hat trotz eines Atom- gewichtes von nur 83 Krypton die feinste bis jetzt bekannte SpektraUinie(sS70), Bei der Temperatur der flüssigen Luft ist ihre Breite 0,006 A. -£., also Viooo ^^^ Distanz der gelben Natriumlinien. Sie kann nach Buisson und Fabry noch Interferenzen geben bei einem Gangunterschiede der interferierenden Strahlen

Elektromagnete, Spektroskope 637

von 53 cm und scheint bestimmt eine Rolle bei metrologischen Untersuchungen zu spielen (vgl. Artikel 26 und 29),

Der dritte wichtige Faktor für die Zerlegung der Spektrallinien ist das hohe Spektroskope Auflösungsvermögen der Spektroskope. Die neuere Entwicklung der spektro- Aifi»«in^- skopischen Methoden ist mit den Namen von Rowland, Michelson, Hamy, ^«"«»»«•»- . Fabry und Perot, Lummer und Gehrcke verbunden. Die zuerst von Fraunhofer (1821) konstruierten Gitter hatten wenige tausend Linien oder Furchen, reichten aber völlig aus zur Trennung der i?-Linien. Erheblich bessere Gitter fertigten Nobert und L. M. Rutherford an.

Einen außerordentlichen Fortschritt machte Rowland (1881) durch seine geniale Erfindung, „Entdeckung**, wie er selber sagt, des Konkavgitters. Diese sphärischen Metallspiegel mit einemKrümmungsradius vonbis sechs Meter haben bisweilen eine geteilte Fläche von 1 5 X 6 cm mit im ganzen 100 000 eingeritzten, äquidistanten Linien und sie trennen in der ersten Ordnung Spektrallinien, deren Distanz Vioo derjenigen der D-Linien beträgt. In höheren Ordnungen sollte der Theorie gemäß das Auflösungsvermögen proportional der Ordnungs- zahl höher sein; weil aber schließlich die Furchen doch nicht genau äquidistant sind, ist dies praktisch gewöhnlich nicht der Fall. Sehr wenige, ausnahmsweise gelungene Rowlandgitter lösen aber Linien auf, deren Distanz die Hälfte der obengenannten beträgt.

Die neueren Instrumente: das Echelonspektroskop von Michelson, die schwach versilberten, parallelen Platten von Fa b r y und Perot, Lummer und Gehrckes Plattenspektroskop haben noch höheres Auflösungsvermögen als die Rowland sehen Gitter. Sie eignen sich besonders zum Detailstudium eines sehr kleinen Spektralbereiches, einer nicht ausgedehnten Liniengruppe; sie haben den Nachteil, daß die Spektren verschiedener Ordnungen sich sonst bald über- decken. Bei den Rowlandschen Diffraktionsgittern ist das in viel geringerem Grade der Fall. Was Einfachheit der Handhabung und der Interpretation der Resultate betrifft, übertreffen dieselben noch immer die neuesten Apparate.

Es kann daher nur mit Freude begrüßt werden, daß es Michelson neuer- dings gelungen ist, mit unermüdlicher Arbeit und Genialität Diffraktionsgitter von noch höherer Leistung als die Rowlandschen zu teilen. Seine neuesten Gitter können Linien auflösen, deren Distanz etwa V400 ^^^ Distanz der D- Linien gleichkommt, eine Leistung, die sie in Parallele zu den besten Echelon- spektroskopen bringt. Der Vorteil von Spektroskopen mit hoher auflösender Kraft wurde nach der Entdeckung der magnetischen Zerlegung der Spektral- linien deutlichst gefühlt, und gewiß hat der Wunsch, über die ersten Anfänge hinaus weiterzukommen, bei der neueren Entwicklung spektroskopischer Me- thoden beschleunigend gewirkt.

Wir kehren jetzt zu den Resultaten von 1897 zurück. Doppelte und drei- wettere Bat- fache Linien mit merkwürdigen Polarisationsverhältnissen waren also im Spek- 'l^]^^,^!' trum einer magnetischen Lichtquelle aufgefunden worden. Wir hatten nun zum Zerlegung, ersten Male gelernt, polarisierte Strahlen von den Atomen eines Gases zu erhal- ten. In Wahrheit konnte man jetzt die Polarisationserscheinungen, die Hertz

638

30. P. Zeeman: Magnetooptik

mit seinen elektromagnetischen Vibratoren erhalten hatte (vgl. Artikel 14), mit den Strahlungserscheinungen der Atome in Parallele setzen.

Die ersten gefundenen Resultate wurden bald von einer Reihe von For- schern weitgehend bestätigt und ungemein gefördert. Seitdem bildete sich über den Gegenstand eine Literatur so ausgedehnt, daß nur die Titel der betreffenden Abhandlungen 30 Seiten dieses Bandes füllen würden und die Darstellung einen ganzen inhaltreichen Band einnehmen könnte. Aber gerade dieser Um-

Skala.

Auffindung von komplixierteren

Typen der Zerlegung.

Helium (6678) utw.

D), Natrium (5890) utw.

Dj» Natrium (5896) uiw.

Quecksilber (5461) uw.

Quecksilber (4358) a»w.

Quecksilber

(4047) usw.

Skala.

stand zwingt uns, in dieser Skizze verdiente Ar- beiten vieler Forscher nicht einmal zu erwähnen und eine bisweilen willkürliche Auswahl aus den prägnantesten Tatsachen zu treffen.

Bei feinerer Analyse ergab sich, daß viele Linien nicht den zuerst beobachteten, einfachen Typus zeigen. Schon im Jahre 1897 fanden Michelson, Preston, Cornu, H.Becquerel, H. Deslandres kompliziertere Zerlegungen beim magnetischen Effekt; in den folgenden Jahren wurden dann in zahlreichen Abhand- lungen von Runge und Paschen, Lohmann, Purvis, Jack, Moore, Nagaoka, King, Miller, van Meurs u. a., neue Typen der Zer- legung beschrieben, so daß man jetzt 21erlegun- gen in drei, vier, fünf, sechs, ja bis 19 Kompo-

Inenten (Wolframlinie) kennt. Trotz der so kom- schwinguuge» normal «um Felde. püziertcn Zerlegung bleibt jedoch die von

I Lorentz' Theorie geforderte Teilung in drei

Gruppen von Schwingungen bestehen, nur kom* men einige Fälle vor, in welchen die Gruppen teilweise übereinander fallen und ausnahmsweise Linien der beiden Gruppen koinzidieren. Die komplizierteren Zerlegungen sind fast immer von wunderbarer Regel- mäßigkeit und Schönheit. Bei der Neonlinie (6402) scheint es, als ob jede Linie eines Triplets sich in fünf Komponenten zerlegt hat. Die hellgrüne Quecksilber- linie (5460) ist in neun genau äquidistante aber nicht gleich intensive Kompo- nenten getrennt (vgl. die nebenstehende Figur).

Auch die zuerst von Zeeman untersuchten i?-Linien zeigten der feineren Analyse gegenüber Abweichungen vom einfachsten Typus. Es wird die Di- Linie (5896) in vier, die i?2" Linie (5890) in sechs Komponenten gespalten (vgl. Figur), Die Mittelkomponente eines Triplets hat sich bei D^ gleichsam in zwei andere zerlegt, und bei D^ ist jede der Tripletlinien verdoppelt.

Ein merkwürdiges Verhalten zeigen nach Loh mann (1908) die Helium- linien, sie bilden alle Triplets, und auffallenderweise führt die Messung der Zer- legung in bekannten Feldern für alle auf den gleichen Wert von e/m, nämlich 1,77 10''. Man darf sich indessen nicht vorstellen, daß Triplets die Ausnahmen

I Schwingungen parallel cum Felde.

i

Die Skala gibt die Spaltung bei der nor- malen Zeiiegung, sowie da« zweifacbe der- selben. Beispiele der wichtigeren magne- tischen Zerlegungen.

Typen der magnetischen Zerlegung 639

bilden und die komplizierten Zerlegungen die Regel. Das ist gar nicht der Fall. Am besten geht das hervor aus einer kleinen Statistik, die King (19 12) in einer gründlichen Untersuchung über die magnetische Zerlegung des Eisenspek- trums publiziert hat. Von 662 untersuchten Eisenlinien wurden 393 in Tri- plets, 118 in Sextuplets, 49 in Quadruplets, 9 nicht und die anderen in kompli- zierterer Weise zerlegt. Die Werte von ejm sind für die verschiedenen Eisen- linien mehr oder weniger verschieden und falls man einen einzigen, allgemein gültigen Wert von ejm voraussetzt, werden diese Triplets also nicht durch die elementare Theorie erklärt.

In den Linienspektren vieler Elemente haben Balmer (1885), Rydberg spektraisenen {1889), Kayser und Runge (1890) und später andere sog. Serien entdeckt, "* z°^^^^**' d. h. Reihen von Sp^ktrallinien, deren Schwingungszahlen durch eine mathe- matische Formel dargestellt werden (vgl. Artikel 28).

Der Bau der Bandenspektren ist besonders von Deslandres (von 1885 an) studiert und formuliert worden. Merkwürdigerweise werden die Banden- spektren nicht durch das Magnetfeld zerlegt, wenigstens gilt dies für die Mehr- zahl derselben. Duf our (1908) entdeckte aber, daß die Bandenlinien der Spek- tren, welche die Fluoride und Chloride von Kalzium, Barium, Strontium geben, dennoch einer magnetischen Zerlegung fähig sind.

Es war nun eine interessante Aufgabe, zu untersuchen, wie sich die Serien- linien im Magnetfelde verhalten. Schon frühe Messungen Zeemans zeigten, daß bei verschiedenen Linien eines Elementes die Zerlegung ganz verschieden ist, besonders wenn sie verschiedenen Serien angehörten. Mit einem einzigen Wert von ejm für die Elektronen würde das nach der elementaren Theorie nicht ver- träglich sein.

Th. Pres ton (1899) gab zuerst ein schönes Gesetz über den Zusammen- hang zwischen magnetischer Zerlegung und Serien. Er gibt recht wenig Details und man wußte nicht, bis zu welchem Grade von Genauigkeit und auf wie viele Linien er die Untersuchung ausgedehnt hatte.

Runge und Paschen (1902) haben in eiher schönen Untersuchung die Sache sichergestellt. Und so kann man dann mit Sicherheit Prestons Gesetz anwenden. Es besteht aus zwei Teilen. Der erste sagt aus, daß alle Linien der- selben Serie qualitativ und quantitativ in derselben Weise magnetisch zerlegt werden; z. B. alle Linien in Quadruplets oder in Sextets und in quantitativ gleicher Weise, falls der Betrag der Zerlegung in Schwingungszahlen und natür- lich im gleichen Felde gemessen wird. Der zweite Teil des Gesetzes behauptet: die (nach den Seriengesetzen) einander entsprechenden Linien verschiedener Elemente zeigen denselben magnetischen Typus (siehe über Ausnahmen des Gesetzes S. 643).

Im Spektrum des Natriums hat man Serien von Doppellinien, wovon die D-Linien ein Beispiel sind. Den Typus der Zerlegung zeigt die nebenstehende Figur. Es ist gewiß äußerst merkwürdig, daß Linien der in ihrem chemischen Verhalten so verschiedenen Elemente, wie Natrium, Kupfer, Silber, Magne- sium, Barium in genau derselben Weise zerlegt werden.

640 30. P. Zkeman: Magnetooptik

Bei Zink, Magnesium, Kadmium, Quecksilber hat man Serien von natür- lichen, dreifachen Linien, die im magnetischen Felde jedesmal in der angegebe- nen Folge verschiedentlich zerlegt werden.

Die Tatsache verdient betont zu werden, daß die kompliziertere Zerlegung nur auftritt an Linien, welche mit anderen Linien natürliche Doppel- oder drei- fache Linien bilden.

Paschen hat betont, daß Linien der Serien einfacher Linien, soweit sie im Magnetfeld untersucht sind, Triplets wie die Heliumlinien geben. Recei Durch die komplizierteren Zerlegungen könnte der Zusammenhang mit

Ton Runge. ^^^ Wert vou e/m der Heliumünien fast verloren scheinen. In der Figur ist eine von Runge gegebene, aus genauen Messungen abgeleitete Regel zum Aus- druck gebracht. Die komplizierteren Zerlegungen hängen, wie in der Figur er- sichtlich und auch in anderen Fällen gezeigt werden konnte, mittels einfacher Zahlen mit der Zerlegung der Heliumlinien und deshalb mit dem Wert von e/m für langsame Kathodenstrahlen zusammen. Lorents' Theorie Loreutz (1897) ^^^ ^^^ ^^r die komplizierteren Zerlegungen offenbar un- ren zert^angm! genügende elementare Theorie erweitert, indem er die leuchtenden Teilchen als Systeme von unbekanntem Bau betrachtete, über welche elektrische Ladungen in irgendwelcher Weise verteilt sind. Äußere magnetische Kräfte müssen wegen der Ladungen die Schwingungen dieser Systeme beeinflussen. Die Bewegungs- gleichungen eines derartigen Systems werden von Lorentz aufgestellt und sie führen u. a. zu dem Schluß, daß eine Linie nur in n Komponenten zerfällt, wenn sie schon bei Abwesenheit des Feldes eine n-f ache Linie mit zusammenfallenden Komponenten ist.

Das Ergebnis der Beobachtung, daß die Zerlegung in scharfen Kompo- nenten erfolgt, daß also der ganze Effekt nicht eine diffuse Verbreiterung der Linien ist, erklärt Lorentz durch die Hypothese, daß die Moleküle, was die magnetische Einwirkung betrifft, isotrop sind. Voigt» magaeiD- Dicsc Annahme magnetisch isotroper, regellos orientierter Moleküle wird optische Theorie, fallen gclassen in einer Theorie von Voigt (von 1899 an entwickelt). Diese Theorie ist deshalb merkwürdig, weil sie zu einer rationellen und einfachen Be- ziehung zwischen der magnetischen Zerlegung und dem Faradayeffekt geführt hat, das Bestehen einer magnetischen Doppelbrechung voraussagte und weiter eine Reihe feiner und komplizierter Erscheinungen übersehen läßt.

Voigt knüpft an die Formeln der Loren tzschen Theorie an, dieselben wer- den von ihm derartig modifiziert, daß nicht die Emission sondern die Absorption in einem magnetischen Kräften unterworfenen Metalldampf behandelt werden kann. Danach dem Kirchhoff sehen Gesetz einem Absorptionsvorgang immer ein Emissionsvorgang entspricht, so ist es möglich, aus dem inversen Effekt (mag- netische 2^rlegungder Absorptionslinien) auf dieEmissionzuschließen.Dies ist nur scheinbar ein Umweg; es ist natürlich leicht, in dieGleichungen der Lichtfortpflan- zung Glieder, die die Absorption darstellen, aufzunehmen, sehr schwierig scheint es aber, eine Theorie der Emission eines Systems von Molekülen zu entwickeln. Wir werden sogleich ein paar Beispiele von den Leistungen der Voigt sehen

Drehung in Natriumdampf 641

Theorie geben. Ein paar Bemerkungen schicken wir noch voran. Die Größe der Fortpflanzungsgeschwindigkeit einer Welle in einem Medium hängt nach der Theorie der Dispersion mit dem Vorhandensein von Absorptionsstreifen sehr nahe zusammen. Rechts und links zirkulär polarisiertes Licht muß in Natrium- dampf längs der Kraftlinien mit verschiedenen Geschwindigkeiten fortgepflanzt werden, weil die Absorptionsstreifen der genannten Schwingungen verschieden sind, was eben der Fall ist wegen der magnetischen Zerlegung der Absorptions- linien. Verschiedene Fortpflanzungsgeschwindigkeiten der entgegengesetzt polarisierten Schwingungen erklären aber den Faradayeffekt (s. oben S. 627).

Ähnlich wie die Dispersion muß auch die magnetische Drehung in der Nähe MagnetiMhe eines Absorptionsstreifens sehr groß werden. Dieser theoretische Schluß von^^^^J^^^! Voigt wurde gleichzeitig und unabhängig aus Beobachtungen von Macaluso •on>tJoM»trMfeo. und Cor bi no (1898) gezogen. Im einzelnen konnte die Theorie verglichen werden mit den späteren Beobachtungen von Corbino, Hallo und Geiger an Flam- men, und den ausführlichen schönen Untersuchungen von Wood an Natrium- dampf im Vakuum. Durch Woods Arbeiten sind eine Menge neuer Tatsachen auf- gefunden, nicht nur magnetooptische, sondern auch Tatsachen, welche die ano- male Dispersion, Absorption und Fluoreszenz betreffen. Am frappantesten war vielleicht noch die schöne Übereinstimmung mit der Theorie in Versuchen von Zeeman, der, ursprünglich dazu von Voigt angeregt, die Drehung zwischen den Komponenten des magnetischen Doublets untersuchte. In sehr verdünn- tem Natriumdampf wird die Arehung zwischen den Komponenten derjenigen außerhalb derselben dem Sinne nach umgekehrt, und sehr groß. In einer ge- wöhnlichen mit Natrium gefärbten Flamme von wenigen Millimetern Dicke, kann man in leicht herzustellenden Feldern Drehungen von 400® beobachten.

Eine zweite Bestätigung fand die Theorie durch die Entdeckung der vor- i^agnetiache hergesagten magnetischen Doppelbrechung in Natriumdampf durch Voigt ^JäumdiTpl (1898). In der unmittelbaren Nähe der Absorptionslinien verhält sich im ma- gnetischen Felde bei Durchstrahlung senkrecht zu den Kraftlinien dichter Natriumdampf wie ein doppelbrechender Kristall; und zwar auf der einen Seite der Absorptionsstreifen wie ein positiver, auf der anderen wie ein negativer Kristall. Auch in dem Bereich zwischen den magnetischen Komponenten konn- ten später Zeeman und Geest (1904) und Hansen (1912), die dann recht kom- plizierte Erscheinung verfolgen und mit Hilfe der Theorie die Beobachtungen interpretieren. Es ist unbedingt sehr interessant, daß die Theorie imstande ist, all diese komplizierten Erscheinungen der magnetischen zirkulären und linearen Doppelbrechung zu erklären durch die magnetische Zerlegung in Verbindung mit Unterschieden der Geschwindigkeit und Absorption der fortgepflanzten Wellen.

Cotton und Mouton haben 1910 die magnetische Doppelbrechung reiner Magnetische Flüssigkeiten, liei Beobachtung normal zu dem Felde, entdeckt. Es ist dieses ^''Sv^u^^t^i Phänomen das Analogon zu der schon viel früher (1875) von Kerr entdeckten optischen Wirkung eines elektrischen Feldes.

Diese magnetische Doppelbrechung kann nicht in direkter Anlehnung an die Theorie der magnetischen Zerlegung erklärt werden, wie Voigt es ursprüng-

K. d. G. la m, Bd I Phjsikl ^ I

642 30. P. Zbeman: Magnetooptik

lieh ebenso wie für Metalldämpfe versucht hat. Die in Flüssigkeiten beobach- tete magnetische Doppelbrechung übertrifft mehr als tausendmal die nach der genannten Auffassung berechnete« Langevin (191 o) sieht die Ursache der magnetischen und elektrischen Doppelbrechung (wie vor ihm J. Larmor und Cotton undMouton) in einer Orientierung der von Natur äolotropen und in isotropen Körpern uni'egelmäßig gerichteten Moleküle durch das äußere Feld und arbeitet diese Auffassung sehr schön mathematisch aus. Seine Formeln stimmen quantitativ mit den Versuchen. Nur muß man die Langevin sehe Theorie auf die genannten Fälle beschränken. Im Gebiet der magnetischen Zer- legungen kann man die Theorie von Voigt nicht anzweifeln.

Unter dem Einfluß eines magnetischen (bzw. elektrischen) Feldes kann die Flüssigkeit sich sowohl wie ein positiver als wie ein negativer Kristall mit der Achse parallel den Kraftlinien verhalten. Der 2^hlenwert, welcher die Größe der elektrischen Doppelbrechung bestimmt, schwankt außerordentlich stark von Substanz zu Substanz, weniger ist das der Fall bei der für die magnetische Doppelbrechung spezifischen Konstante. Zur Identifizierung der Substanzen und als Hilfsmittel bei der Bestimmung der chemischen Struktur scheinen die genannten Wirkungen viel zu versprechen. Die kompUsier- In der Erklärung der komplizierteren Zerlegungen spielen in der Voigt-

irder^ThSrie scheu Thcorie Koppelungen zwischen den Koordinaten verschiedener Elektro- von Voigt. lißu gjjjg Rolle (vgl. Artikel 19), Die Natur dieser Koppelungen muß unbe- stimmt gelassen werden. Nur kann man beweisen, daß die Gleichungen, in denen sie auftreten, gewissen allgemeinen Gesetzen gehorchen. Übrigens er- klären die Voigtschen Gleichungen bei passender Wahl der in ihnen auf- tretenden Parameter wohl jeden Typus der an den Linienspektren der Gase beobachteten 2^rlegung.

Mapi«tuche Die Voigtschc Theorie kann auch auf anisotrope Körper ausgedehnt wer-

Abl^i^tiondjtien den. Ein Anlaß dazu war durch die merkwürdigen Beobachtungen von Jean

T*Bf^^' Becquerel (1906) über die magnetische Zerlegung der feinen Absorptionslinien gewisser Kristalle gegeben.

HenriBecquerel (1888) hatte die Absorptionsspektren mehrerer Kristalle vonVerbindungen der seltenen Erden (Xenotim, Tysonit, Parisit, Monazit) unter- sucht. Diese Kristalle zeigen ziemlich scharfe Absorptionsbanden. J.Becquerel (1907) entdeckte, daß bei der Siedetemperatur der flüssigen Luft unter Atmo- sphärendruck (— 1 88 ^ C.) die Banden weniger breit werden und sich einigermaßen den Absorptionslinien der Metalldämpfe an Schärfe nähern. Die magnetische Zer- legung der Absorptionsstreifen der Kristalle hat manche Analogie mit der der Ab- sorptionslinien der Gase. Sie unterscheidet sich aber von letzterer besonders durch starke Dissymmetrien und mitunter auffallende Größe der Effekte. Fallen Kraft- linien und Strahlrichtung in die optische Achse der Kristalle, so ist der Effekt wie bei den Metalldämpfen. Sehr merkwürdig ist, daß die zirkuläre Polarisation bei mehreren Streifen einen Sinn hat entgegengesetzt demjenigen, welcher bei den Linienspektren der Dämpfe immer beobachtet ist. Im letzteren Falle kann man den Effekt negativ nennen. Einen positiven Effekt hat Dufour (1908)

\

Effekte in Kristallen 643

beim Bandenspektrum von Kalziumfluorid entdeckt, nachdem man längere Zeit keine Einwirkung des Magnetfeldes auf Bandenspektren hatte finden können.

Die Größe der Zerlegung ist bei verschiedenen Absorptionslinien der Kristalle sehr verschieden, niemals in einfachen Verhältnissen zu der einfachsten bei Gasen beobachteten Zerlegung und zuweilen fast das Neunfache derjenigen der Heliumlinien (Xenotim 6423, 5221). Bei Dämpfen läßt sich damit nur die Zerlegung der Wolframlinie 4270 vergleichen, an welcher die vierfache Zer- legung beobachtet ist.

Mit Kamerlingh Onnes (1908) hat J. Becquerel im Leidener Labo- ratorium seine Versuche wiederholt und sind die Kristalle einer Temperatur bis zu 259^ C. in flüssigem bzw. festem Wasserstoff ausgesetzt worden, wodurch die Resultate noch größere Bedeutung bekommen haben.

H. du Bois (1908 und 191 1) hat in Gemeinschaft mit G. J. Elias eine sehr wichtige und inhaltreiche Reihe von Untersuchungen über den Einfluß von Temperatur und Magnetisierung bei selektiven Absorptions- und Fluoreszenz- spektren angestellt. In der Wahl der Körper wurde du Bois geleitet von dem von ihm (1900) aufgefundenen Zusammenhang zwischen starken selektiven Absorptionslinien und Verbindungen der Reihen paramagnetischer Elemente im natürlichen System. Viele Salze der seltenen Erden liefern sehr interessante Ergebnisse. Sehr schöne Effekte, und einfachere als sonst bei den seltenen Erden, gibt an zwei Linien im Rot der Rubin. Dieser farbige Edelstein, eine feste Lösung von Chromoxyd, zeigt sowohl natürlich als künstlich dieselben Phänomene und verdankt der Fluoreszenz seinen eigentümlichen Glanz und die besondere Fähig- keit zur Entfaltung seines „Feuers". Sehr merkwürdig ist nun, daß auch die roten Fluoreszenzlinien dieselben magnetischen Zerlegungen als die Absorptions- linien zeigen. Es ergibt die wunderschöne Fluoreszenz auch die Möglichkeit, man- che analogeVersuche wie die an leuchtenden Flammen bekannten auszuführen.

In sehr starken Magnetfeldern versagt das P r e s t o n sehe Gesetz vollständig. Beobachtungen PaschenundBack(i9i2) entdeckten, daß die Linien sehr enger Serien triplets ^^^ ßlck*" oder Seriendoublets einander in sehr eigentümlicher Weise beeinflussen. Ein Bei- spiel möge das klar machen. Das Linienpaar 2853 des Natriums mußte nach der Presto nschen Regel den kombinierten Typus von D^ und D^ liefern, statt dessen erhalten wir ein nahezu normales Triplet. Die Hauptsachendes merkwürdigenVer- haltens werden durch die Theorie der gekoppelten Elektronen von Voi g t erklärt.

Nach der Theorie wie nach den Beobachtungen ist die magnetische Zer* Magnetische legung proportional der Stärke des Feldes, in welchem sich die untersuchte „n/p^5^,^e. Lichtquelle befindet. Ist einmal die charakterisierende Konstante einer Spektral- linie bestimmt, dann kann umgekehrt die magnetische Zerlegung zur absoluten Messung der Intensität eines magnetischen Feldes dienen. Eine absolute ma- gnetische Messung fordert spezielle Mittel, und es kann bisweilen bequemer und genauer sein, sich der, einer großen Genauigkeit fähigen, Ausmessung eines leicht zu erhaltenden Spektrogramms zu bedienen. Es hat dann auch Fried- rich Kohlrausch in der letzten von ihm besorgten, elften Ausgabe seines Lehrbuches der praktischen Physik die Methode anerkannt.

41*

644 ^^* ^' ^KiB^^^^l^* Magnetooptik

Die charakteristische Konstante der magnetischen Zerlegung ist von Weiß und Cotton in Zürich, von Gmelin in Tübingen zu 0,94 10—* bestimmt wor- den. Sie führt auf ^/m= 1,77 10', ein Resultat, das wohl auf zwei Promille genau sein dürfte. Mit Hilfe von Runges Regel läßt sich aus dieser Zahl für manche andere Spektrallinien die Zerlegung in einfachster Weise berechnen.

Alle Methoden, die zur Messung magnetischer Feldstärken benutzt werden, geben die Intensität an einem Punkte, oder den Mittelwert über eine kleine Fläche. Die magnetische Zerlegung gestattet gleichzeitig, in allen Punkten einer leuchtenden Spektralröhre die Intensität des Feldes abzulesen. Magnetkche Eine wunderschöue Anwendung hat die Methode, aus der 2^rlegung einer

aaf der Sonne. Linie auf Anwesenheit, ja sogar auf die Stärke eines magnetischen Feldes zu schließen, gefunden in G. E. Haies epochemachender Entdeckung der ma- gnetischen Felder auf der Sonne.

Jede Entdeckung in der Optik kann in uns die Hoffnung erregen, daß sie auch der Astrophysik zugute kommen wird. Die Spektralanalyse hat uns bald nach ihrer Entdeckung die Einheit aller Materie im Himmel und auf der Erde gelehrt. Das Prinzip von Doppler- Fi ze au hat der Astrophysik die größten Dienste erwiesen, seit Huggins und Vogel 1 871 die Verschiebungen von Spek- trallinien der Sonne und der Gestirne beobachteten. Die Erscheinungen der anomalen Dispersion haben sich in J u 1 i u s Untersuchungen mancher kosmischen Anwendung fähig gezeigt. Und so könnte man weitere Beispiele geben.

Ganz anderer Art ist wiederum eine andere Anwendung der Spektroskopie, die Abbildung der Sonnenoberfläche in der Farbe einer Spektrallinie. In den Händen von Deslandres und Haie hat diese Methode unsere Kenntnis von den Wirkungen, die auf der Sonne stattfinden, außerordentlich erweitert. 1908 erhielt Haie, Direktor des mit großartigen Hilfsmitteln ausgerüsteten Mount Wilson Solar Observatory, wunderschöne Photographien der Sonnenoberfläche im Lichte der roten Wasserstofflinie Ha. In der Umgebung der Sonnenflecken zeigte die Struktur der Sonne die deutlichsten Anzeichen von Wirbelbewe- gungen. Haie sprach die Vermutung aus, daß in diesen Wirbeln die zirku- lierenden ionisierten Gase, sei es positive, sei es negative Ionen (oder auch freie Elektronen), im Überschuß enthalten könnten und somit der Fleck ein magneti- sches Feld verursachen mußte. Es wären dann die Kraftlinien des Feldes in dessen intensivsten Teilen der Wirbelachse parallel und es würden im Fleckenspektrum die Eigentümlichkeiten der direkten und inversen Zerlegung der Spektrallinie zu beobachten sein; wenigstens wenn die Intensität des Feldes genügend wäre.

Es waren nun im Fleckenspektrum schon seit längerer Zeit Eigentümlich- keiten aufgefallen. Norman Lockyer beobachtete 1866 zum ersten Male das Fleckenspektrum und fand, daß die Linien im Gebiete der JFlecken verbreitert waren. Seitdem wurden die Flecken systematisch an verschiedenen Obser- vatorien beobachtet. Young in Princeton fand mit größerer Dispersion, daß viele Fleckenlinien doppelt waren. Mitchell gab 1905 eine Zeichnung der ver- schiedenen Typen von Fleckenlinien. Er beschreibt sie als umgekehrte Linien. Man betrachtete sie wohl als eine helle Linie superponiert über eine verbreiterte

Magnetische Felder auf der Sonne 645

dunkle Linie. Man dachte sich die Erklärung der hellen Linie in der Weise, daß sie herrühre von einer helleuchtenden Wolke oberhalb des dunklen Fleckes.

Haie gelang es nun aber im Sommer 1908 nachzuweisen, daß die Absorp- tions-Fleckenlinien die charakteristischen Eigenschaften des inversen Effektes zeigen. Zunächst gelang ihm der Nachweis der Zirkularpolarisation. Der beobachtete Fleck befand sich ungefähr in der Mitte der Sonnenscheibe, den Sonnenradius und die Achse des Fleckenwirbels muß man sich ungefähr parallel denken. Die untersuchten Linien waren Eisenlinien im roten Teile des Spek- trums. Sie zeigten im wesentlichen den Longitudinalef feiet, aber nur in geringer Stärke, etwa so wie in den ersten Beobachtungen Zeemans. Die Deutung konnte nach verschiedenen Richtungen geprüft werden. Wird es möglich sein, den Transversaleffekt zu beobachten, wobei die Linien linear polarisiert sind ? Der Fleck muß sich dann am Rande der Sonne befinden.

Wird in der Tat die Polarität der Zirkularpolarisation umgekehrt, falls die Drehungsrichtung des Wirbels umgekehrt wird?

Die Antwort auf diese Fragen könnte wohl nicht kürzer und schlagender gegeben werden, als in einer Depesche vom 21. September 1908 von Haie an Zeeman, welche der Letztgenannte der gerade in Cöln tagenden Naturforscher- versammlung vorlegte. Die Depesche lautete: Vortices rotating opposite direc- tions show opposite polarities; spot lines near limb plane polarized.

Es war somit in den Sonnenflecken der Transversaleffekt beobachtet wor- den; und bei Umdrehung der Rotationsrichtung des Wirbels wird das magne- tische Feld der Flecke umgekehrt.

Eine weitere Bestätigung lieferte dann noch die Beobachtung Haies, daß die Zerlegung von mehreren Eisenlinien im Laboratorium und im Fleckenlichte einander proportional waren. Die maximale Feldstärke in den Flecken ist un- gefähr 4000 Gauß* Sie ist bei verschiedenen Flecken verschieden.

Wie die Rechnung ergibt, ist die Stärke der Fleckenfelder viel zu gering, um eine direkte Einwirkung auf die Magnetnadel unserer erdmagnetischen Observatorien auszuüben.

Der soeben betrachtete Fall, daß die magnetische Kraft in den Wirbeln der AUg«nieiner Faii Gesichtslinie parallel ist oder dazu normal steht, ist offenbar ein ganz spezieller. *' fi«««»«- Haie fand im allgemeinen die Fleckenlinien elliptisch polarisiert, wie das dann auch der Fall sein muß bei Beobachtung in einer schiefen Richtung, da ja die kreisförmigen Bewegungen der elementaren Theorie sich als Ellipsen projizieren.

Die magnetische Zerlegung des von einer Lichtquelle in einer zu den Kraft- linien geneigten Richtung emittierten Lichtes oder auch die Absorption weißen Lichtes in solcher Richtung, wurde von Righi in einer wichtigen Abhandlung schon 1899 studiert. Righi untersuchte die Erscheinungen bei vollständiger Zerlegung der Linien und fand dieselben in Übereinstimmung mit der elemen- taren Theorie.

Auf der Sonne sind aber nach Haie die Linien nicht vollständig zerlegt. Die Triplets sind nur unvollständig getrennt, indem die Komponenten sich teil- weise überdecken.

646 30. P. Zebman: Magnetooptik

Theorie Es woT iiuii eine interessante Frage, wie die magnetische Zerlegung der Ab-

x^il^r'i^in Sorptionslinien in dem genannten Fall für beliebige Winkel zwischen Gesichts- von Lorentx. jj^j^ jj^^ magnetischcr Kraft von statten geht, Lorentz hat 1909 die Frage vollständig theoretisch behandelt und konnte mehrere neue Eigentümlichkeiten des inversen Effektes vorhersagen. Sie kommen, um es kurz zu sagen, darauf hinaus, daß im Falle unvollständiger Zerlegung das ganze Phänomen einen schiefen Charakter annimmt« So sind die Achsen der Schwingungsellipsen der äußeren Komponenten des Triplets nicht mehr, wie die elementare Theorie es fordert, in bzw. normal zu der Ebene durch magnetische Kraft und Gesichts- linie; und vibriert die Mittellinie des Triplets nicht mehr in dieser Ebene. Nur die beiden Hauptfälle: der Transversal- und der Longitudinaleffekt verhalten sich, was die Schwingungsrichtungen betrifft, wie in der elementaren Theorie. Versuche Es War nuu experimentell zu untersuchen, ob diese Phänomene je ge-

nndT'vn^r^. laugende Größe erreichen, um beobachtbar zu sein. Zeeman und Winawer haben 1910 die magnetische Zerlegung der Absorptionslinien speziell in bezug auf das Spektrum der Sonnenflecken ausführlich untersucht und die von Lo- rentz vorhergesagten Erscheinungen experimentell bestätigen können. Eiektriacb Wir möchteu diese Skizze nicht schließen, ohne noch kurz, speziell mit

gebaafce Atome. R^^j^iQ^t auf die maguctische Zerlegung, gewisser Atommodelle zu erwähnen. Bei diesen Atommodellen ist die Spezialisierung der Vorstellungen viel weiter getrieben, als in den allgemein gehaltenen Theorien von Lorentz (von der ele- mentaren Theorie sehen wir ab) und Voigt. Es hat das naheliegende Vorteile großer Anschaulichkeit, aber auch den Nachteil, daß der ersonnene Mechanismus zu weitgehend spezialisiert sein kann. Elektrisch gebaute Atome haben sich Jeans, Larmor, Stark, Lenard, Nagaoka, Rutherford, Bohr entworfen. Den meisten Erfolg für die Erklärung der magnetischen Zerlegung und der Serien- spektren erzielten die Atome J. J. Thomsons und W. Ritz'. Besonders erste- res zeigte sich weitgehender Verwendung in verschiedenster Richtung fähig. j. j. Thomtona J. J. Thomson denkt sich das Atom bestehend aus einem von positiver AtommodeiL Elektrizität gleichmäßig erfüllten kugelförmigen Raum, in welchem eine Anzahl negativer Elektronen eingebettet ist. Die positive Kugel übt anziehende Kräfte auf die sich gegenseitig abstoßenden negativen Elektronen aus, und bei einer be- stimmten Anordnung kann Gleichgewicht bestehen« Der einfachste Fall ist der von vier Elektronen in den Eckpunkten eines regulären Tetraeders, dessen Mittel- punkt mit dem des kugelförmigen Raumes zusammenfällt. J. J. Thomson hat sich schon 1904 mit der magnetischen Zerlegung der Spektrallinien eines solchen Systems beschäftigt. H.ALorentz hat 1909 dasselbe betrachtet, aber mit der erweiterten Annahme, daß die positive Dichte der Elektrizität nicht konstant, sondern eine Funktion der Entfernung vom Mittelpunkt ist. Zwei Resultate der Untersuchung sind sehr interessant. Erstens sind magnetische Triplets und Doublets mit anderen Werten der 2^rlegung als die von der elementaren Theo- rie geforderten möglich. Und dann zeigt es sich, was die zirkuläre Polarisation betrifft, möglich, mit negativen Elektronen einen Effekt zu bekommen, den die elementare Theorie positiven Teilchen zuschreiben würde. Leider scheint keine

Atommodelle und magnetische Zerlegung 647

Aussicht vorhanden zu sein, mit mehreren Elektronen zu Quadruplets, Quintetts usw. zu kommen.

Die elementare Theorie gibt keine Rechenschaft vom Serienverband. Sie würde aber bei Voraussetzung eines einzigen, allgemein gültigen Wertes von €/fn die Gleichheit der Zerlegung für alle Triplets fordern.

Loren tz hat noch eine Auffassung angegeben, aus welcher die Gleichheit Batwickiungeo aller Triplets folgen würde. Er betrachtet dazu die Kräfte, welche beim Erregen ^^ ^^^^ des magnetischen Feldes auf Systeme negativer Elektronen ausgeübt werden, Kräfte; welche identisch sind mit der in W. Webers Theorie des Diamagnetis- mus betrachteten und welche die Elektronensysteme in Rotation versetzen müßten (vgl. Artikel 13 und 16). Solche Rotationen bedingen Änderungen der Frequenz von gerade dem Wert, der von der elementaren Theorie angegeben wird. Falls das Elektronensystem so beschaffen ist, daß es eine Serie von Spek- trallinien aussendet, so müssen sich diese infolge der Rotation alle in quanti- tativ gleiche Triplets ändern.

Eine günstige Aufnahme hat bei vielen Physikern in der letzten Zeit die An- Theorie voa Kits, sieht gefunden, daß ein Atom betrachtet werden kann als ein unsymmetrischer magnetisierter Kreisel von dem von duBois betrachteten Typus. Walt her Ritz hat (1908) in seinen Untersuchungen über magnetische Atomfelder und Serienspektren mit großem Scharfsinn eine derartige Analogie benutzt. Ray- leigh hat auf die besondere Schwierigkeit für die Erklärung der Seriengesetze anfmerksam gemacht, die darin liegt, daß immer die Schwingungszahlen selbst einfach auftreten, während die Betrachtung schwingender Systeme immer Ausdrücke mit dem Quadrat der Schwingungszahlen liefert. Nach einer Über- legung von Ritz verschwindet indessen diese Schwierigkeit von selbst, falls man die Hypothese einführt, daß die Schwingungen der Serienspektren durch rein magnetische Kräfte erzeugt werden. Er denkt sich, daß die Elektronen ihre Schwingungen in intensiven magnetischen Feldern im Innern der Atome aus- führen. Für die Existenz derartiger Felder von der Ordnung von 10® Gauß hat P. Weiß in seiner Theorie des Ferromagnetismus wichtige Gründe angegeben, und Humphreys war zur Erklärung der Verschiebung der Spektrallinien durch äußeren Druck vor mehreren Jahren zur Annahme von molekularen Feldern von derselben Größenordnung gelangt.

Der Ursprung der Atomfelder wird von Ritz gesucht in Elementarma- gneten. Zur Erklärung der verschiedenen Linien braucht Ritz verschiedene Felder, die dadurch erhalten werden, daß eine Anzahl untereinander identischer Magnete axial, Pol an Pol, aneinander gefügt werden. Das Elektron ist bei seiner Bewegung gebunden an eine zur Achse der Magnete normalen Ebene.

Die Erklärung der magnetischen Zerlegung erhält Ritz nun durch die An- nahme, daß die von ihm konstruierten Systeme in einem äußeren Magnetfelde eine Präzessionsbewegung um die Kraftlinien als Achse ausführen. Die Bewe- gungen können nach Fourier sehen Reihen entwickelt werden und die Rech- nung führt Ritz zu Gesetzen für die magnetischen Zerlegungen, besonders auch die komplizierteren, der Spektrallinien, wie sie in der Tat beobachtet sind.

648 30. P. Zeeman: Magnetooptik

Die Theorie von Ritz hat gewiß einen großen Reiz. Wir dürfen aber nicht verhehlen, daß, während sich namentlich Cotton der Ritz sehen Theorie der Zerlegung besonders annahm, zu gleicher Zeit (1911) Voigt sehr sch^wer- wiegende Einwände gegen dieselbe erhoben hat. Rekapitulation Wir woUcn Schließlich das Ergebnis der Untersuchungen über die ma-

*ZCTifg^K.*^ ** gnetische Zerlegung, wie es aus der experimentellen und theoretischen Arbeit vieler Forscher hervorgeht, in wenigen Zeilen zusammenfassen. Wir können mit Sicherheit behaupten, daß dasjenige, was in jeder leuchtenden Flamme schwingt, elektrisch geladen ist, denn es ist gegen den Magneten empfindlich. Wir können ferner behaupten, daß es negative Elektrizität sei, deren Bewegung der Ur- sprung der Spektrallinien ist, und daß ein bestimmt angebbares Verhältnis zwischen Ladung und Masse des Bewegten besteht. Das Verhältnis ist identisch mit dem Werte, welchen die Physiker aus Beobachtungen an Kathodenstrahlen, ß- Strahlen und an einer Fülle anderer Erscheinungen gewonnen haben (siehe Art. 15, 21, 25). Dann hat die Untersuchung gelehrt, daß die magnetische Zer- legung nicht nur bei Gasen und Dämpfen, sondern in reicherer Form bei festen Körpern und Lösungen sich zeigen kann. Mit Hilfe der Zerlegungen wurde es mög- lich, schon längst bekannte Wirkungen des magnetischen Feldes besser zu ver- stehen, andere vorherzusagen, Aufschlüsse über den ganzen Mechanismus des Leuchtens zu erhalten. Dies betrifft die Physik. Für die Astrophysik erlangte die Zerlegung der Spektrallinien Bedeutung, als mit ihrer Hilfe die magnetischen Felder der Sonnenflecken entdeckt wurden. Wir sind auf dem letztgenannten Gebiet wohl erst am Anfang des Studiums. Wird es einmal gelingen, in den rätselhaften spiraligen Nebelflecken ein magnetisches Feld nachzuweisen?

Auch der Chemiker dürfte nicht gleichgültig bleiben dem Resultate gegen- über, daß die magnetische Zerlegung des Lichtes jeder leuchtenden Flamme, jedes elektrischen Funkens uns lehrt, daß alle Elemente etwas Geineinschaft- liches haben, daß eine innige Verwandtschaft zwischen Linien von Elementen besteht, welche ein so verschiedenes Verhalten wie Natrium und Thallium, Sil- ber und Radium aufweisen.

D. Elektrische Zerlegung der Spektrallinien.

Die Bahnen der Elektronen in den Kathodenstrahlen werden von ma- gnetischen, sowie von elektrischen Kräften beeinflußt. Derselben Kraft, welche die Bahn der Kathodenstrahlen im magnetischen Felde krümmt, verdankt die magnetische 2^rlegung der Spektrallinien ihren Ursprung. Gibt es auch einen Einfluß einer äußeren elektrischen Kraft auf die Bewegung der Elek- tronen im leuchtenden Atom, die sich in einer Zerlegung der Spektrallinien zeigt? Seit der Entdeckung der magnetischen Zerlegung der Spektrallinien (1896) ist diese Frage von vielen Forschem erwogen worden. Welcher Art diese elektrische Einwirkung etwa sein könnte wurde von Voigt (1901) angegeben. J. Stark ist in allemeuester Zeit (19 13) die wicht^e Entdeckung einer elektrischen Zerlegung der Spektrallinien gelungen. Wir möchten der- selben wenigstens kurz hier erwähnen.

30. P. Zeei^ian: Magnetooptik 5^.0

Die Hauptschwierigkeit bei der Aufsuchung eines elektrischen Emissions- effektes liegt in der Herstellung eines starken elektrischen Feldes in einem leuchtenden Gase. Stark hat in geistreicher Weise dieses Problem gelöst, indem er in einer mit einem verdünnten Gase beschickten Röhre Kanal- strahlen zur Anregung der Lichtemission benutzt und das leuchtende Gas der Einwirkung eines elektrischen Feldes unterwirft. Es gelingt nach dieser Methode in einem kleinen leuchtenden Gasraum Felder von 50 OCX) Volt pro cm., ja sogar von 750CX) Volt pro cm. zu erhalten.

Bei der Beobachtung senkrecht zum Feld (Transversaleffekt) mit einem geeigneten Spektralapparat, werden die Spektrallinien in eine Anzahl pola- risierter Komponenten zerlegt. Eün Teil der Komponenten (darunter die äußeren) schwingt parallel der Feldrichtung, der übrige senkrecht dazu. Fällt die Beobachtungsrichtung mit der Richtung des Feldes zusammen, so sind die beobachteten Komponenten unpolarisiert. Die Helium, Lithium, Wasserstofflinien sind von Stark eingehend untersucht. Die diffusen Serien- linien zeigen eine große elektrische Zerl^ung, die scharfen Linien werden kaum beeinflußt. Hierin zeigt sich ein großer Unterschied mit der ma<> gnetischen Zerlegung; dieselbe ist für alle Serienlinien von derselben Größen- ordnung. In allen Einzelheiten sind die elektrische und die magnetische Zerlegung voneinander verschieden; die Analogie besteht nur in dem Um- stand, daß man in beiden Fällen polarisierte Komponenten bekommt. Der Ab- stand der äußeren Komponenten der blauen Wasserstofilinie (4341) beträft in einem Felde von 30 000 Volt pro cm. 13 Angströmseinheiten, die Zerlegung der äußeren Komponenten des magnetischen Triplets ist in den stärksten Magnetfeldern von der Ordnung von i Angströmeinheit. Mit dem elektrischen Effekt der Größenordnung nach vergleichbar ist die magnetische Aufspaltung zweier Absorptionslinien des Rubins, wobei der Abstand der äußeren Kom- ponenten in einem Felde von 50000 Gauß ^ Angströmeinheiten beträgt.

Die elektrische Zerlegung ist ebenso wie die magnetische proportional der Feldstärke. Die verschiedenen Linien einer Serie werden vom elek- trischen Felde nicht in derselben Weise zerlegt, wie es eben bei der ma- netischen Zerlegung der Fall ist. Im allgemeinen ist der elektrische Effekt weniger einfach als der magnetische. Auffallend ist schon die große Zahl der Komponenten beim elektrischen Effekt. Bei der elektrischen Zerlegung der Wasserstofilinie (4102) hat Stark neulich 14 Komponenten, welche parallel, und 14 welche senkrecht zur Feldrichtung schwingen, beobachtet. Dagegen erfolgt in starken magnetischen Feldern die magnetische Zerlegung der Wasserstofflinien in Triplets. Die Erfahrung ist hier der Theorie weit voraus.

gjO 30. P. Zeehan: Magnetooptik

Literatur.

A. COTTOK, Le Phenomine de Zecinan (Sdentia). Paria 1900.

H. A. LORBNTZ, Throne des phteomiDcs magn^to-optiques ricemmenti d^couverts, Rapports präcntfe au Congrts international de physique. Paris 1900. 3 p. i.

C. RVNCB, Schwingungen des Lichte» im magnetischen Felde (W. Kayaer, Handbuch der Spektroskopie, Bd. 1, p, 6ti (1901).

O.J.LODGB, Electroni. G.BeU and Sons 1906.

W. Voigt, M^iicto> und Elektrooptik. Leipzig 1908.

H. A, LORENTZ, The theoiy of Electrona, chapter S. Theory of the Zeemanefiect chapter 4. Propagation of light in a body composed of molecules. Theory of the inveise Zeemaneffect. Leipzig 1909.

H. A. LoRENTZ, Theorie der m^rneto-optischen Phänomene. Encyclopädie der mathe' matischen Wiuenicbaften, V. 3, Heft a. Ldpng, B. G. Teubner 1909-

J. Stark, Prinzipien der Atomdynamik, U. Teil. Die elementare Strahlung. | 27. Zeemaneffekt, Schwingungsientren der Serienlinien. Leipzig, Hinel 191 1,

P. Zeeuan, Researcbes in Magneto-optic», with Special Reference to the Magnetic Re- solution of Spectrum Lines. Macmillan and Co, 1913, Deutsche Obersetiung, J. A. Barth 1914.

J, Stark, Abhandlungen in den Annalen der Physik. 1914.

ALLGEMEINE GESETZE UND GESICHTSPUNKTE

31. VERHÄLTNIS DER PRÄZISIONSMESSUNGEN ZU DEN ALLGEMEINEN ZIELEN DER PHYSIK.

Von

E. Warburg.

Es ist für den Physiker ein Glaubensartikel, daß er sich ein großes Verdienst Einieitong. um seine Wissenschaft erwirbt, wenn es ihm gelingt, sei es durch Erfindung einer neuen Methode, sei es auch nur durch geschickte Handhabung einer bekannten Methode, die bei irgendeiner Messung erreichte Genauigkeit zu steigern. Mit der Verfeinerung der physikalischen Messungen beschäftigen sich besonders die Staatslaboratorien, nämlicji die physikalisch-technische ReichsanstaJt in Char- lottenburg, das national physical laboratory in Teddington (England) und das national bureau of Standards in Washington (Amerika). Es handelt sich hier zuweilen um die Steigerung in der Genauigkeit bei der Messung von Größen, welche bereits auf Viooo» J^ Vioooo i^^^ Wertes genau bekannt sind, was einen großen Aufwand von Zeit und Geld erfordert.

Welchen Nutzen haben nun solche Arbeiten, in welchem Verhältnis stehen sie zu den allgemeinen Zielen der Physik und welcher Art sind die verschiedenen Werte, um deren Bestimmung es sich handelt ? Die Beantwortung dieser Fra- gen ist der Zweck der folgenden Betrachtungen.

Was zunächst den Nutzen der Präzisionsmessungen betrifft, so kommen PriLmums- in der Technik, für deren Zwecke im allgemeinen eine mäßige Genauigkeit hin- «^[dTr^^k. reicht, doch Fälle vor, in welchen man nahe an die Grenze des Ejrreichbaren hinanzugehen genötigt ist. Z. B. müssen in der Gewehrfabrikation, bei der An- fertigung von Maschinenteilen wie von Scheiben und Achsenlagern, die Abmes- sungen zum mindesten bis auf Vioo ^™ genau eingehalten werden, wobei aber die Technik bestrebt ist, noch weiter zu kommen und jedenfalls für die von ihr zu benutzenden Normalien, wie Endmaße und Bolzen die höchste Genauigkeit verlangt, welche erzielt werden kann, und welche auf einige Zehntausendstel des Millimeters zu veranschlagen ist.

Ein anderes Beispiel liefert die Zuckerindustrie. Beim Handel mit Rohr- zucker wird nach der vom Zucker hervorgebrachten Zirkularpolarisation be- zahlt, und es machte im Rechnungsjahr 1906/1907 jedes Zehntel Prozent Ander rung der Polarisation einen Preisunterschied von 2^ Pfennigen für 100 kg. Nun wurden in dem genannten Rechnungsjahr in Deutschland 2,2 Millionen Tonnen an Rohrzucker produziert; daraus ergibt sich für 0,1 Prozent Fehler in der Polarisationsmessung eine Differenz von 550000 Mark im Verkaufswert.

Deshalb ist die Reichsanstalt durch die Bedürfnisse der Zuckerindustrie ver- anlaßt worden, die Genauigkeit der optischen Saccharimetrie auf das höchste erreichbare Maß zu steigern.

Endlich möge in diesem Zusammenhang der Radiumbestimmung gedacht werden, deren möglichst genaue Durchführung bei dem hohen Preise dieses Körpers ein bedeutendes kommerzielles Interesse besitzt. PtinBon.- Indessen kann, wie bemerkt, die Technik in den meisten Fällen mit einer

"^WBokMgea. MeßgBnauigkeit auskommen, welche bedeutend hinter der erreichbaren zurück- bleibt, so daß für diese Fälle die Frage nach dem Nutzen der geschilderten Prä- zisionsarbeiten bestehen bleibt. Der Fernerstehende bringt dieselben in einen Gegensatz zu der Arbeit des Entdeckers, dessen Verdienste, besonders wenn die Entdeckung, wie die der Röntgenstrahlen, wichtige praktische Konsequenzen hat, er ohne weiteres begreift.

Es ist indessen zu beachten, daß ein solcher Gegensatz nicht allgemein statuiert werden darf, indem auch Fräzisionsmessungen zu wichtigen Ent- deckungen geführt haben. Sehr genaue Messungen von Michelson haben unsere Anschauungen über die Lichtfortpflanzung wesentlich beeinflußt und sind die Grundlage für die Lehre geworden, welche man zurzeit als die Relativitäts- theorie zusammenfaßt (vgl. Artikel 34). Präzisionsmessungen von Lord Ray- lei gh über das spezifische Gewicht der Gase führten zu der Entdeckung des Ar- gons und folgeweise der übrigen Edelgase. Boyle und Mari otte entdeckten das nach ihnen benannte Gesetz über die Zusammendrückung der Gase, Messungen von Arago und Dulong schienen es als genau gültig zu erweisen, Präzisioas- messungen von Regnault brachten dagegen Abweichungen von dem Gesetz zutage, welche in den Händen von Clausius und van der Waals zur Ent- deckung neuer Eigenschaften der Gasmolekeln, nämlich der Eigenschaften end- licher Raumerfüllung und molekularer Anziehungskräfte führten (vgl. Artikel 7]. Seit der Entdeckung der Spektralanalyse durch Bunsen und Kircbhoff hat man sich eifrig und erfolgreich bemüht, die Methoden zur Auflösung der Spektrallinien zu verfeinern, durch diese Arbeiten wurde Zeeman in den Stand gesetzt, das nach ihm benannte Phänomen zu entdecken, nach welchem Farad ay mit den älteren unzureichenden Methoden vergeblich gesucht hatte (vgl. Artikel 30}. Piinitpieue Es ist aber wohl zu beachten, daß hierbei weder Lord Rayleigh, noch

„Regnault, noch diejenigen, welche die spektralanalytischen Methoden ver- ' feinert haben, auf Entdeckungen ausgingen, und daß beispielsweise den er- wähnten Messungen von Lord Rayleigh ein sehr hoher Wert auch dann ver- blieben wäre, wenn sie nicht zur Entdeckung des Argon geführt hätten. Es handelt sich also darum, den prinzipiellen Standpunkt klarzulegen, von wel- chem aus derartige Arbeiten zu bewerten sind. Hierzu muß man auf die all- gemeine Aufgabe der Physik zurückgehen, als welche man die Aufstellung der Naturgesetze für ein gewisses Erscheinungsgebiet der leblosen Natur be- zeichnen kann, d. h. die Aufstellung allgemeiner Sätze, welche eine möglichst große Anzahl von Tatsachen durch einen einfachen Ausspruch zusammen-

Nutzen und prinzipielle Bedeutung der Präzisionsmessungen 655

fassen. Dasselbe drückt Gustav Kirchhoff aus, indem er es als die Aufgabe der Physik bezeichnet, die Naturerscheinungen ihres Gebietes möglichst ein- fach und vollständig zu beschreiben. Naturgesetze sind entweder experimentell oder theoretisch gefunden, im ersteren F'alle meist nachträglich theoretisch be- gründet worden, was den unschätzbaren Vorteil mit sich bringt, daß man etwas über die Bedingungen erfährt, unter welchen die Gültigkeit des Gesetzes erwartet werden kann. Empirisch gefunden ist z.B. das Snelliussche Brechungsgesetz (vgl. Artikel 26), durch theoretische Betrachtungen entdeckt sind z. B. die Gali- 1 eischen Gesetze über den freien Fall der Körper (vgl. Artikel i). Stets kann der endgültige Beweis eines Naturgesetzes nur auf experimentellem Wege, aber nie vollständig geliefert werden, da die Genauigkeit der Beobachtungen stets eine be- schränkte bleibt. Wer also die Genauigkeit der Beobachtungen erhöht, tut einen Schritt vorwärts zur vollständigen Beschreibung der Naturerscheinungen. Hier- bei wird entweder das fragliche Gesetz, wie das Boyle- Mariottesche Gesetz durch Regnault, als von nur beschränkter Gültigkeit erwiesen; oder es wird, wie durch die Untersuchungen Landolts über den Fundamentalsatz von der Konstanz der Masse, der Gültigkeitsbereich des Gesetzes erweitert. Eine jede Arbeit dieser Art bedeutet einen wissenschaftlichen Fortschritt, wenn auch einen Fortschritt von sehr verschiedenem Wert, je nach der Bedeutung des Gesetzes, um welches es sich handelt und je nach der Tragweite der Folgerungen, welche sich aus dem Ergebnis ziehen lassen. Es gibt von diesem Standpunkt aus keine Grenze, jenseits deren Steigerung in der Genauigkeit der Messung einer Grröße nicht mehr von Wert wäre. Jede Erhöhung in der Meßgenauigkeit ebenso wie jede Erhöhung in der Leistungsfähigkeit des Mikroskops macht mehr von dem Detail der Naturvorgänge der Beobachtung zugänglich.

Die fortschreitende Steigerung in den Ansprüchen an Meßgenauigkeit Präxisions- zeitigt mit Notwendigkeit einen Fortschritt in der Kunst des Präzisionsmecha- "M^froM*^*^ nikers. Sobald man z. B. die für die Beglaubigung eines Meßinstruments, z. B. "»«chaaik- eines Thermometers, zulässige Fehlergrenze herabsetzt, wird der Fabrikant genötigt, bei der Anfertigung des Instruments erhöhte Genauigkeit anzu- streben. Seitdem die Interferenzspektroskopie an die Planparallelität von Glasplatten die höchsten Anforderungen stellen mußte, hat die große Kunst, hier die Fehler auf das äußerste herabzudrücken, außerordentliche Fortschritte gemacht (vgl. Artikel 29).

Die Fortschritte, welche man bei der Messung irgendeiner Größe erzielt, FeUerqueUen. beruhen indessen keineswegs allein in der Verfeinerung der Meßinstrumente, sondern zum großen Teil auf der relativen Unschädlichmachung von Fehler- quellen, mit welchen jede Messung behaftet ist. Bei ihren Versuchen über das Boyle-Mariottesche Gesetz maßen Arago und Dulong die Volumina, auf welche eine Gasmasse durch steigende Drucke zusammengepreßt wurde, wobei sie, dem erwähnten Gesetz entsprechend, die Volumina dem Drucke um- gekehrt proportional fanden. Dabei wurden aber die Volumina bei den größe- ren Drucken so klein, daß sie nicht mit der erforderlichen Genauigkeit ge- messen werden konnten. Regnault vermied diese Fehlerquelle, indem er

656 31* E. Warburg : Verhältnis der Präzisionsmessuogen zu den allgemeinen Zielen der Physik

dasselbe größere Volumen bei verschiedenen Versuchen mit Gas von steigendem Anfangsdruck füllte und jedesmal den Druck bestimmte, wel- cher das Volumen auf die Hälfte des Anfangswertes bracht^. Dabei fand er die erwähnten Abweichungen von dem Boyle- Mari otteschen Gesetz (vgl. Artikel 6).

Ein Beispiel aus der neueren Zeit liefert die Messung von Spannungen oder elektromotorischen Kräften in internationalen Volt. Hierzu bedarf man eines Normalelements, dessen elektromotorische Kraft in internationalen Volt be- kannt ist. Die Genauigkeit der Bestimmungen wurde lange Zeit hindurch da- durch beeinträchtigt, daß das benutzte Normalelement, das sog. West onscbe, nicht genau genug mit dem gleichen Wert reproduziert werden konnte; so lange aber blieb die genaue Eichung in internationalen Volt wertlos. Der Fehler lag darin, daß ein wesentlicher Bestandteil des Elements, das Merkurosulf at, nicht in hinreichend unveränderlicher Beschaffenheit erhältlich war. Den vereinigten Bemühungen der verschiedenen Staatslaboratorien gelang es nun, Darstellungs- methoden dieses Körpers zu finden, welche diesem Mangel abhalfen, so daß nun- mehr das Element bis auf einige Hunderttausendstel des Wertes mit stets glei- cher elektromotorischer Kraft reproduzierbar ist.

Die zu vermeidenden Fehlerquellen sind nicht immer so leicht zu ent- decken, wie in den erwähnten Beispielen, äußern sich vielmehr zuweilen erst dadurch, daß verschiedene Methoden zu verschiedenen Ergebnissen führen. Bei seinen Bestimmungen des spezifischen Gewichts des Stickstoffs fand Lord Ray- leigh einen größeren Wert, wenn er den Stickstoff aus atmosphärischer Luft durch Sauerstoff- und Kohlensäureentziehung darstellte, als wenn er ihn aus chemischen Substanzen bereitete. Es mußte also in einer dieser Darstellui^- methoden ein Fehler liegen, welcher für die erstgenannte Methode darin ge- funden wurde, daß die von Sauerstoff und Kohlensäure befreite Luft außer dem Stickstoff ein bis dahin unbekanntes spezifisch schwereres Gas, nämlich das Argon enthält. Dies ist ein lehrreiches Beispiel dafür, daß oft kleine Abweichungen von dem Erwarteten zu wichtigen Entdeckungen führen.

In manchen Fällen, in welchen eine Größe nach verschiedenen Methoden bestimmt sich von verschiedenem Werte ergibt, ist die Ursache der Abwei- chungen bis jetzt noch nicht bekannt, so daß in solchen Fällen noch ungelöste Probleme vorliegen. Daß es sich um solche handelt, ist immer dann anzu- nehmen, wenn die Abweichungen der nach verschiedenen Methoden gefundenen Ergebnisse voneinander größer sind als die wahrscheinlichen Fehler, welche sich aus Messungen nach den einzelnen Methoden ergeben. Jedenfalls kann eine Größe erst dann als sicher bestimmt gelten, wenn ihr Wert nach verschiedenen Methoden übereinstimmend gefunden ist. übcrflüiwge Wie vorhin bemerkt, gibt es keine Grenze jenseits deren Steigerung der

Genauigkeit Meßgeuauigkeit nicht mehr von Wert wäre. Anders steht es mit der Genauig- keit bei der Messung der verschiedenen Bestimmungsstücke, aus denen der Wert der gesuchten Größe abgeleitet wird. So hätte es keinen Sinn, bei der Ablesung eines Quecksilberthermometers eine Genauigkeit von ein zehntausendstel Grad

Fehlerquellen, Gegenstände der Präzisionsmessungen 657

#

anzustreben, weil der Nachwirkungsdilatationen halber selbst bei den besten Glassorten die Temperatur durch ein Quecksilberthermometer nur bis auf einige Tausendstel des Grades genau definiert ist (vgl. Artikel 3). Ebenso hätte es keinen Sinn, bei der Messung des spezifischen Gewichts einer Flüssigkeit den Druck, unter welchem sie steht, auf ein hundertel Millimeter Quecksilber genau zu messen, da eine Druckänderung von diesem Betrage das spezifische Gewicht der Substanz nicht merklich beeinflußt.

Unter einer Präzisionsmessung sei allgemein eine Messung verstanden, bei Gegenstände welcher man die größte Genauigkeit anstrebt, die mit den zurzeit verfügbaren "menm^. Mitteln erreicht werden kann, und wir wollen nun die verschiedenen Werte be- trachten, welche den Gegenstand von Präzisionsmessungen bilden. Dabei soll nur die Rede sein von solchen Werten, welche sich angeben lassen unabhängig von der Form und Größe der Körper, mit welchen man experimentiert und un- abhängig von den Vorgängen, welchen man dieselben unterwirft. Bei dieser Beschränkung hat man zu unterscheiden i. materielle Realisationen willkürlich definierter Werte, 2. universelle Konstanten und Funktionen, 3. Materialkon- stanten und Materialfunktionen.

Die materiellen Realisationen von Maßen stellen gewöhnlich ein bekanntes MateneUeRea». Vielfaches des Maßes dar. Wir führen einige Beispiele an. **uSer M^ße.'

Das Kraftmaß, die Dyne, wird realisiert durch Messung der Fallbeschleu- nigung g an dem Ort der Erde, an welchem man Kraftmessungen vornimmt, ein Grammgewicht enthält dort g Dynen.

Das internationale Ohm ist definiert als der elektrische Leitungswiderstand bei einer Quecksilbersäule, „deren Länge bei durchweg gleichem, einem Qua- dratmillimeter gleich zu achtenden Querschnitt 106,3 cm und deren Masse 14,4521 Gramm beträgt** (Reichsgesetz vom i. Juni 1898).^) Es wird realisiert durch einen Quecksilberfaden, dessen Widerstand man der Definition gemäß aus seinen Dimensionen berechnet und an welchen man als Gebrauchswider- stand einen Drahtwiderstand aus dem zeitlich unveränderlichen Manganin an- schließt.

Das internationale Volt ist die elektrische Spannung an den Enden eines Widerstandes von i internationalen Ohm, welcher von einem Strom gleich I internationalen Ampere durchflössen wird. Zur Realisation des internationalen Volt ist also die Messung einer Stromstärke in internationalen Ampere erforder- lich, was durch Messung des in bestimmter Zeit von ihr hervorgebrachten Silber- niederschlages geschieht. Indem man das Ergebnis solcher Messungen auf das vorschriftsmäßig hergestellte Westonsche Normalelement übertrug, hat sich durch gemeinschaftliche Arbeit der verschiedenen Staatslaboratorien die elek- tromotorische Kraft dieses Elements bei 20® C zu 1,0183 internationalen Volt ergeben, wodurch die Spannungseinheit bis auf Vioooo genau realisiert ist.

i) In die Bestimmung des Querschnitts der Säule, welcher durch Auswägen mit Queck- silber bestimmt werden müßte, geht das spezifische Gewicht des Quecksilbers ein. Um die Definition von diesem Werte unabhängig zu machen, ist der Querschnitt durch das Gewicht des Quecksilberfadens festgelegt.

K. d. G. m. m, Bd I Physik 42

658 31* £. Warburg : Verhältnis der Präzisionsmessuogen zu den allgemeinen Zielen der Physik

Das internationale Watt ist die Leistung, welche i internationales Ampere in I internationalen Ohm verrichtet.

Von den internationalen Werten des Ohm, Volt, Watt sind die wahren oder absoluten Werte, bzw. 10^, 10®, 10'' im elektromagnetischen Grammzentimeter- sekunde-System zu unterscheiden, kommen aber jenen ziemlich nahe und man ist zurzeit bestrebt, die Genauigkeit in der Realisation dieser absoluten Werte zu steigern.

Die absolute Einheit der Wärme als einer Form der Energie ist das Erg. Da außerdem Wärme eine an der wägbaren Materie haftende Form der Energie ist, so kann es sich bei der Realisierung des Maßes nur darum handeln, die Zufuhr von Wärme zu einem Körper in dem gewählten Maße auszudrücken. Dies kann entweder geschehen durch Zufuhr einer in Erg gemessenen elektrischen Arbeit, z. B. in einem Metalldraht, in welchem diese Arbeit in Wärme verwandelt wird. Sie kann leicht in internationalen Joule (Wattsekunden) gemessen werden, außer- dem muß aber der Umrechnungsfaktor in wahre oder absolute Wattsekunden bekannt sein, wozu wieder die Verhältnisse der internationalen Werte von Ohm und Volt zu den wahren bekannt sein müssen. Hierin besonders liegt das Inter- esse, welches mit der Realisation des wahren Ohm und des wahren Volt verknüpft ist. Oder man kann die zugeführte Wärme in Grammkalorien (vgl. Artikel 4) ausdrücken, dann muß aber der Arbeitswert dieser sekundären Einheit, das sog. mechanische Wärmeäquivalent bekannt sein, dessen Be- stimmung zu den wichtigsten Präzisionsmessungen gehört, univeneue Zwciteus handelt es sich um die universellen Konstanten und Funktionen,

unf Fu^!!^"n ^^ ^^^^ Werte, welche von der besonderen Beschaffenheit irgendeiner Substanz unabhängig sind. Hierher gehören

1. Die Fortpflanzungsgeschwindigkeit des Lichts im leeren Raum (Olaf Römer, 1673), bekannt bis auf etwa Vsoooo ^^^ Wertes. Hiermit identisch ist nach Maxwells Theorie (1864) die Fortpflanzungsgeschwindigkeit elektro- magnetischer Wellen im leeren Raum, zuerst bestimmt von W. Weber und R. Kohlrausch, bekannt bis auf etwa V2000 ^^^ Wertes und mit der Licht- geschwindigkeit hinreichend übereinstimmend (vgl. Artikel 13 und 15).

2. Die Gravitationskonstante (Newton, 1687), d. h. die Anziehung zwi- schen zwei kugelförmigen Kilogrammassen in i m Entfernung, bekannt auf etwa V200 ^®s Wertes.

3. Die Gaskonstante (Avogadro, 181 1), d. h. das auf den Druck i und die absolute Temperatur i reduzierte Molvolumen (Volumen eines Gramm- mols) der Materie in äußerst verdünntem Gaszustand.

4. Die Valenzladung (Faraday, 1834), d. h. die elektrische Ladung eines einwertigen Gramm -Ions (vgl. Artikel 13).

5. Die Carnotsche Funktion (S. Carnot, 1824), deren Werte für zwei Temperaturen T^ und T/sich verhalten wie die in einer vollkommenen thermo- dynamischen Maschine aus der Quelle entnommene und an den Refrigerator abgegebene Wärme, wenn die Maschine zwischen den Temperaturen Tj und Tj arbeitet. Nach dem Vorschlag von Lord Kelvin definiert man die absolute

Universelle Konstanten, Materialkonstanten 659

thermodynamische Temperaturskala, indem man das Verhältnis der Tempera- turen T2 und Ti dem Verhältnis der auf sie bezogenen Werte der Carnotschen Funktion gleich setzt (vgl. Artikel 5 und 32).

6. Die Funktion, welche die Intensität der Hohlraumtemperaturstrahlung in ihrer Abhängigkeit von Wellenlänge und Temperatur bestimmt (G. Kirch - hoff, 1862). Nach den Theorien von W. Wien und M. Planck enthält diese Funktion zwei zu bestimmende Konstanten, welche nach Plancks Theorie in einer wichtigen Beziehung zur Atomistik stehen. Die eine Konstante der Flanckschen Theorie in die Gaskonstante dividiert gibt nämlich die sog. Avogadrosche Zahl, d. h. die Anzahl der Moleküle im Mol; eine Beziehung, welche von Planck entdeckt, aber von der besonderen Form seiner Theo- rie unabhängig ist und sich durch Messungen auf anderen Gebieten be- stätigt hat. Die zweite Plancksche Konstante ist das von ihm sog. Wir- kungsquantum, welches die Grundlage der Quantentheorie bildet (vgl, Ar- tikel 10 und 36).

7. Die Funktion, welche die spezifische Ladung des Elektrons in ihrer Ab- hängigkeit von der Geschwindigkeit und Beschleunigungsrichtung bestimmt (Wiechert, J. J. Thomson, W. Kaufmann, Abraham um 1900). Ein Elektron, wie es sich in den Kathodenstrahlen bewegt, verhält sich nämlich im elektromagnetischen Felde wie ein materieller Punkt von bestimmter Ladung und einer von der Geschwindigkeit und Beschleunigungsrichtung abhängigen trägen Masse, das Verhältnis von Ladung zu Masse hat man, vielleicht nicht ganz glücklich, die spezifische Ladung des Elektrons genannt (vgl. Artikel 1 5 und 21).

Die universellen Konstanten und Funktionen sind die wichtigsten Werte der Physik, die Entdeckung eines neuen universellen Wertes bedeutet immer einen großen Fortschritt der Wissenschaft.

Endlich handelt es sich drittens um das unübersehbare Heer der Material- Matenaikonstan- konstanten und -funktionen, d. h. derjenigen Werte, welche die verschiedenen ****f^*i^^'^* Substanzen in mechanischer, thermischer, optischer, elektrischer und magne- tischer Beziehung charakterisieren. Es wäre wahrscheinlich eine lohnende Auf- gabe, diejenigen Materialkonstanten zusammenzustellen, welche für die Charak- terisierung einer Substanz notwendig und hinreichend sind. Man würde dabei auf mancherlei Lücken in unseren Kenntnissen aufmerksam werden, z. B. würde man es zurzeit unmöglich finden, diejenigen Werte anzugeben, welche ein Gas in elektrischer Beziehung vollständig charakterisieren. Doch würde eine solche Untersuchung weit über den Rahmen des gegenwärtigen Aufsatzes hinaus- gehen.

Aus dem, was vorhin über das Wesen einer Präzisionsmessung gesagt ist, Aoswau geht hervor, daß bei einer solchen die besten Meßinstrumente benutzt werden ^'r^lSHtoT»-* müssen, über welche die Wissenschaft zurzeit verfügt, und hieraus ist schon er- »•••«»»•»• sichtlich, daß eine solche Messung im allgemeinen mit großen Kosten verknüpft ist. Hinzukommt ein großer Aufwand von Zeit, da es nötig ist, alle Fehler- quellen nach Möglichkeit zu vermeiden. Im Vergleich zu der Zahl der der Mes-

6 6o 3 1 1£> Warburg : Verhältnis der Prazisionsmessungen zu den allgemeinen Zielen der Physik

sung zugänglichen Werte sind nun die für Präzisionsmessungen verfügbaren Mittel an Zeit, Geld und Arbeitskraft nur sehr beschränkte. Daraus ergibt sich die Forderung, den Präzisionsmessungen nur solche Werte zu unterziehen, deren genaue Kenntnis nach dem derzeitigen Stand der Wissenschaft besonders wert- voll erscheint. Andernfalls würde man handeln wie ein Baumeister, der auf reich- liche Ausstattung unbedeutender Räumlichkeiten einen großen Teil der ihm zur Verfügung stehenden Mittel verwendet, während er wichtigere Räumlichkeiten vernachlässigt, ja vielleicht es versäumt, die Grundlagen des Gebäudes hin- reichend fest zu fundieren. Bis ist daher eine Aufgabe von großer Wichtigkeit, hier die richtige Auswahl zu treffen.

32.

DIE ERHALTUNG DER ENERGIE UND DIE VERMEHRUNG DER ENTROPIE.

Von F. Hasenöhrl.

Das Prinzip von der Erhaltung der Energie und das von der Ver- Einimtong. mehrung der Entropie nehmen unter allen Naturgesetzen den obersten Rang ein. Sie beziehen sich nicht nur auf das Gebiet der Wärmelehre; die oft ge- brauchte Bezeichnungsweise erster und zweiter Hauptsatz der Thermodynamik ist eine zu enge. Die beiden Prinzipien haben vielmehr für das Gesamtgebiet der menschlichen Erfahrung Geltung. Alles was wir in der Natur messend ver- folgen können, jeder physikalische oder chemische Prozeß, der Wärmetrans- port von der Sonne zu den Planeten, die Erscheinungen in unserer Atmosphäre, die Arbeit der Dampfmaschine, die tiefgehende Veränderung der Materie in der Retorte des Chemikers, alles fügt sich in den Rahmen dieser beiden Haupt- sätze. Die beiden Prinzipien gehören ferner zu dem am besten gesicherten Be- sitze der Wissenschaft; durch eine Reihe genial durchgeführter Abstraktionen aus der Beobachtung zum Teil alltäglicher Erscheinungen gewonnen, sind sie reine Erfahrungssätze und können nur durch gänzlich neue Erfahrungen um- gestoßen werden.

Man versucht oft, den Energiesatz durch die Annahme zu erklären, daß alle Energie mechanischer Natur sei. Ohne den Wert einer solchen „kinetischen Theorie** im geringsten zu verkennen, müssen wir doch feststellen, daß die bei- den Hauptsätze ganz unabhängig von derartigen metaphänomenalen Vorstel- lungen, denen naturgemäß der Charakter der Hypothese anhaftet, formuliert sind. Sie sind ausschließlich aus der Erfahrung über Wahrnehmbares ge- wonnen.

L

Das Prinzip von der Erhaltung der Energie, mit dem wir uns Pnnnp zuerst beschäftigen wollen, ist die Zusammenfassung und Verallgemeinerung **^Jr^^^^ einer Reihe von Gesetzen, deren Gültigkeit für ein beschränktes Gebiet schon längst erkannt war. So hatte man ein Gesetz von der Erhaltung der lebendigen Kraft und ebenso ein Gesetz von der Erhaltung des Wärmestoffes aufgestellt, welche beide, in gewissen Fällen zutreffend, sehr oft zu unrichtigen Resultaten führten. Für die mechanische Energie als solche gilt im allgemeinen kein Er- haltungsgesetz, ebensowenig für die Wärmeenergie; es gilt nur ein Gesetz von der Erhaltung der gesamten Energie, wie es in voller Allgemeinheit wohl zu- erst von Helmholtz ausgesprochen wurde.

Wanne 65^

Körper zum anderen übergehen kann, dessen Gesamtmenge aber unveränder- lich ist. Jeder Körper enthält eine bestimmte Menge von diesem Wärmestoffe; steigt oder sinkt seine Temperatur um t Grade, so muß ihm die Wärmestoff- menge Ct zugeführt bzw. entzogen worden sein. Die Größe C, welche für jeden Körper charakteristisch ist, heißt ,, Wärmekapazität'^; sie ist seinem Ge- wichte proportional, d. h. es ist C = Gc, in welcher Gleichung G das Gewicht des Körpers, c eine Materialkonstante, die „spezifische Wärme", bedeutet, spezifische Man setzt konventionell die spezifische Wärme des Wassers bei 15® C. gleich i, *'

die des Kupfers z. B. ist dann 0,09. Die Einheit der Wärmemenge ist dement- wänneeiaheit. sprechend die Wärmemenge, welche die Temperatur von i g Wasser von 14,5® C. um einen Grad, also auf 15,5® C. erhöht. Diese Einheit heißt Gramm- kalorie (g-kal). In der Technik wird die tausendmal so große Einheit, die Kilogrammkalorie (kg-kal) verwendet. Sie bewirkt die Erhöhung der Tem- peratur von I kg Wasser um ein Grad C. (vgl. Artikel 4 und 5).

Die fruchtbarste Anwendung dieser Vorstellung von der Unveränderlich- keit der Wärmemenge ist vielleicht die folgende: Seien zwei Körper von der Temperatur /^ bzw. ^ und der Wärmekapazität C^ bzw. C^ gegeben. Man bringe dieselben in Berührung, so daß sich die Temperaturdifferenz ausgleicht; wie groß ist die Ausgleichstemperatur ^ ? Ist /^ größer als t^ so gibt der erste Körper die Wärmemenge Ci(^ ^) ab; der zweite nimmt die Wärmemenge €2(1 ^2) auf. Nach dem Gesetz von der Erhaltung der Wärmemenge müssen diese beiden Wärmemengen einander gleich sein, d. h. es muß

sein, woraus r^ , ir *

folgt. Die letzte Gleichung spricht die sog. Mischungsregel von Rich- mann (1711^1753) aus, die auch jetzt noch beständig Anwendung findet.

In diesem Falle bleibt also die Menge des Wärmestoffes, der Wärmeenergie, wie man heute sagen würde, tatsächlich unverändert.

Wie schon betont, lehrt uns aber die Beobachtung alltäglicher Vorgänge, unhaitbarkeit daß der Satz von der Erhaltung der mechanischen Energie, wie auch der Satz *^?h^riem" von der Erhaltung der Wärmeenergie nur sehr beschränkte Gültigkeit haben kann: Die rollende Kugel kommt auch auf horizontaler Bahn allmählich zur Ruhe; der Hammer des Schmiedes verliert auf dem Amboß plötzlich seine ge- samte lebendige Kraft, die Säge erfordert einen beständigen Aufwand von Ar- beit. In all diesen Fällen geht mechanische Energie als solche verloren, in all diesen Fällen entsteht Wärme.

Eis ist selbstverständlich, daß auch die früheren Forscher sich dieser Tat- Die frühere Br- sache nicht verschließen konnten. Und zwar war die vor Mayer und Joule ^t'^ena^der"* übliche Erklärung des Entstehens von Wärme durch Reibung etwa folgende: R«b«««9wänne. Der Wärmeinhalt eines Körpers ist C * t; also gleich der Wärmekapazität mal der (von einem beliebig zu wählenden Standardpunkt ab gezählten) Tempera- tur. Sinkt die Temperatur, so wird der Wärmeinhalt geringer: der Körper gibt

664 3^- F- Hasenöhrl: Die Erhaltung der Energie und die Vermehrung der Entropie

Wärme ab. Aber es ist auch denkbar, daB die Temperatur ungeändert bleibt, während die Größe C abnimmt; es wird dann der Wärmeinhalt C t gleich- falls kleiner und der Körper muß wieder Wärme abgeben, oder, wie wir auch sagen können, entwickeln. Wäre nun etwa die spezifische Warme der Sägespäne beträchtlich kleiner, als die des massiven Holzes, so wurde nach obigem das Entstehen von Wärme bei der Verwandlung von Holz in Holz- späne verständlich. In gleicher Weise könnte man das Entstehen von Wärme in ähnlichen Fällen, etwa beim Hämmern, durch eine mit der Änderung der Konsistenz Hand in Hand gehende Änderung der spezifischen Wärme zu er- klären versuchen. DieMibe Dicsc Thcorie war gewiß geistvoll erdacht; es ist aber dem jetzigen Phy-

ut nahaitbar. gjjj^^j. g^nz unvcrstäudlich, daß man nicht sofort darangegangen ist, sie durch Messung der spezifischen Wärme des Holzes und jener der Holzspäne zu prüfen. Diese Unterlassung ist nur durch den Einfluß einer, mehrere Jahrhunderte hin- durch fortgesetzten, einseitig philosophisch spekulativen Methode zu erklären. Nur wenigen erwählten Geistern war es klar, daß ein naturwissenschaftliches Problem nicht durch Nachdenken allein zu lösen sei; daß es vielmehr vor allem auf die Beobachtung ankomme; daß die Entscheidung einer Frage ausschließ- lich vom Experimente ausgehen kann. Ein Forscher solcher Art war Graf Rumford (1753— i8i 4). Als Leiter einer Kanonengießerei in München be- obachtete er die gewaltige Wärmeentwicklung beim Bohren der Geschütze, wodurch seine Aufmerksamkeit auf solche Erscheinungen und ihre Erklärung gelenkt wurde. Rumford bestimmte nun wirklich die spezifische Wärme des kompakten Kanonenmaterials und jene der vom Bohrer ausgeschleuderten Metallspäne und konstatierte, daß diese beiden Größen einander vollkommen gleich seien. Dadurch war die Unhaltbarkeit der herrschenden Theorie nach- gewiesen (vgl. Artikel 5).

Noch schlagender war ein Experiment von SirHumphry Davy (1778 bis 1829). Derselbe ließ zwei Eisstücke von i,7®C. aneinander reiben und brachte sie dadurch zum Schmelzen. Nun bedarf es aber bekanntlich einer beträchtlichen Zufuhr von Wärme, um i kg Eis von 0®C. in Wasser von 0®C. zu verwandeln (80 kg-kal. per Kilogramm, die „Schmelzwärme**); überdies ist die spezifische Wärme des Wassers beinahe doppelt so groß als die des Eises. Demnach ist der damals herrschenden Theorie nach auch der Wärmeinhatt eines Kilogramm flüssigen Wassers nahe doppelt so groß als jener eines Kilo- gramm Eises; woher stammt also die zum Schmelzen des Eises nötige Wärme? (Vgl. Artikel 5.) Aqaivaienx Es mangelt hier der Raum, ausführlich sämtUche Arbeiten anderer For-

^wa^l scher zu erwähnen, welche die Lösung all dieser Schwierigkeiten, die Erkennt- nis der Äquivalenz von Wärme und mechanischer Arbeit vorbereitet haben. Der erlösende Gedanke, die Annahme einer Verwandlung von Arbeit in Wärme und umgekehrt lag in der ersten Hälfte des 19. Jahrhunderts sozu- sagen in der Luft. Wir verstehen, daß dieser Gedanke von mehreren Forschern gleichzeitig gefaßt wurde. Die Frage nach der Priorität ist hier, wie überall,

R. Mayer 665

sachlich belanglos; das Verdienst eines Forschers wird dadurch nicht geringer, daß ein anderer vielleicht ein halbes Jahr früher ähnliche Wege einschlug.

Wir besprechen zuerst das Werk von Robert Mayer (1814— 1878), das r. Mayer. 1842 unter dem Titel „Bemerkungen über die Kräfte der unbelebten Natur*' erschien. Dem eigentümlichen Bildungsgange Mayers entsprechend ist diese Schrift in recht ungewöhnlichem Stile verfaßt. Philosophische und metaphysische Gedanken wechseln mit physikalischen Erwägungen, der Zu- sammenhang ist oft schwer zu verfolgen, und es ist nicht zu verwundern, daß der Redakteur der Zeitschrift, welcher Mayer zuerst sein Manuskript ein- sandte, damit nichts anzufangen wußte. Mayers Schreibweise war unklar; daß aber seine Gedanken klar waren, das beweist die von ihm durchgeführte Berechnung des mechanischen Äquivalents der Wärme aus bereits damals be- kannten Daten.

Nach Mayer ist weder die mechanische Energie als solche unzerstörbar, noch der Wärmestoff. Wenn aber mechanische Energie verschwin- det, so entsteht an ihrer Stelle eine bestimmte Menge Wärme und umge- kehrt. Und zwar verwandeln sich 427 kgm Arbeit in i kg-kal. Wärme. Die Zahl 427 kgm/kg-kal. heißt das mechanische Äquivalent der Wärmeeinheit oder kurz das mechanische Wärmeäquivalent.

Die Methode, nach der May er diese Zahl berechnet hat, war etwa folgende: May©» Boroch-

Wir denken uns l kg eines Gases, etwa Luft, von C. in einem Zylin- nUchoxT 'w^ne' der befindlich, der durch einen beweglichen Kolben abgeschlossen ist. Der ^«»"^«»*«- Zylinder habe etwa einen Querschnitt von l m*. Der Kolben werde durch ein Gewicht P = 10330 kg niedergehalten; wir könnten uns ebenso auf jedem cm* des Kolbens ein Gewicht von 1,033 kg lastend denken. 1,033 kg ist gleich dem Gewichte einer Quecksilbersäule von i cm* Querschnitt und 76 cm Höhe. Der Druck (die Kraft per cm*), den eine Quecksilbersäule von 76 cm Höhe auf die Bodenfläche ausübt, heißt eine „Atmosphäre"; es lastet also ein Druck von einer Atmosphäre auf dem Kolben. Er stellt sich so ein, daß der Druck der Luft im Zylinder dem Drucke des Gewichtes P gerade das Gleichgewicht hält, dann übt die Luft eben nach oben gleichfalls den Druck einer Atmosphäre aus, sie „steht unter dem Drucke einer Atmosphäre**. (Von dem Drucke der außer- halb des Zylinders befindlichen Luft sehen wir hier ab; wir denken uns etwa den ganzen Apparat in einem luftleeren Raum aufgestellt.)

Nun ist das spezifische Gewicht der Luft bei o ® C. und einer Atmosphäre Druck 1,293 (kg per m*); das Volumen eines Kilogramm Luft ist also unter den gleichen Bedingungen i : 1,293 = 0,773 ^- ^^ der Querschnitt unseres Zy- linders Im* sein soll, ist die Höhe h gleich 0,773 m.

Nun denken wir uns die Temperatur der betrachteten Luftmenge durch Erwännang entsprechende Wärmezufuhr von C. auf C. erhöht, und zwar soll dabei ** DradT**"* das Gewicht P unverändert auf dem Kolben lasten. Da wir gerade l kg Luft vor uns haben, ist dazu eine Wärmemenge nötig, welche gleich der spezifischen Wärme ist; wir bezeichnen dieselbe mit Cp und nennen sie die „spezifische Wärme bei konstantem Druck**. Es ist ferner bekannt, daß die Luft

666 32. F. Hasenöhrl: Die Erhaltung der Energie und die Vermehrung der Entropie

(und alle anderen sog. permanenten Gase) sich bei der Erwärmung von o^C. auf I ® C. um nahe Vstb ihres Volumen ausdehnt, wenn, wie in unserem Falle, der Druck während der Erwärmung unverändert bleibt. Infolge dieser Aus- dehnung hebt sich der Kolben, und zwar um VaTs ^^^ K das ist um 0,773 * ^73 = o,CX)283 m; um diese Strecke hebt also die Luft das Gewicht P; sie leistet dabei die Arbeit 10330 kg X 0,00283 m = 29,2 kgm. Erwännanff Die iu dcm ZvUuder eingeschlossene Luft kann aber auch auf andere

Yi^Lion. ° Art erwärmt werden : Wir denken uns wieder die Temperatur von o ® C. auf i ® C. erhöht, wobei aber nicht der Druck, sondern das Volumen der Luft unverändert erhalten werden soll. Es soll also der Kolben in seiner ursprünglichen Lage bleiben; der Druck wird jetzt natürlich zunehmen. Die Wärmemenge, welche nötig ist, um i kg Luft bei konstantem Volumen um i ® C. zu erwärmen, heißt „spezifische Wärme bei konstantem Volum**; wir bezeichnen sie mitc^ Schon zur Zeit Mayers war es bekannt, daß c^ und c„ verschieden groß seien, und zwar ist für Luft Cp c^^ 0,068. Man braucht also zur Erwärmung derselben Luftmenge im ersten Falle um 0,068 kg-kal. mehr als im zweiten. Die Luft wird aber in beiden Fällen in gleichem Maße, um i ® C. erwärmt; woher also dieser Unterschied? Die Antwort ist: Im ersten Falle (konstanter Druck) wurde nicht nur die Luft erwärmt, sondern es wurde auch ein Gewicht ge- hoben und dabei die Arbeit von 29,2 kgm geleistet, während im zweiten Falle (konstantes Volumen) nichts dergleichen geschehen ist. Die Differenz von 0,068 kg-kal. muß daher in dieser geleisteten Arbeit ihr Äquivalent finden. Bezeichnen wir diese Äquivalenz direkt als Gleichheit, so ist:

29,2 kgm = 0,068 kg-kal. 430 kgm = I kg-kal. (Diese Zahl ist nur in den zwei ersten Stellen als sicher anzusehen, da die Bestimmung von Cp c^ sehr schwierig ist. Wir werden weiter unten genauere Methoden zur Bestimmung der Äquivalentzahl kennen lernen.)

Wir bemerken vor allem, daß Mayer nicht die Zahl 430, sondern 367 kgm/ kg-kal. erhalten hat. Es standen ihm nämlich nicht genügend genaue Daten zjur Verfügung, insbesondere waren die spezifischen Wärmen der Luft damals nur approximativ bestimmt. Wir haben hier die May er sehe Methode reproduziert, dabei aber die Zahlen eingesetzt, welche jetzt als richtig gelten. (Auf eine prin- zipielle Ungenauigkeit der May er sehen Methode kommen wir weiter unten zu sprechen.) DieDifferenc Da alle Körper mit steigender Temperatur eine Volumveränderung er-

&ch^*wi™a f ^^cn, müßte bei allen Körpern zwischen der spezifischen Wärme bei kon- ist nur bM Gasen stantem Druck und jener bei konstantem Volumen unterschieden werden. E^

beträchtlich. ^

zeigt sich jedoch, daß bei festen und flüssigen Körpern die Differenz Cp c^ meist sehr klein ist; nur bei gasförmigen Körpern hat sie einen beträcht- lichen Wert. Dies liegt daran, daß die Gase unter allen Körpern weitaus die größte thermische Ausdehnung haben; während sich ein Gas pro Grad etwa um V278 seines Volumens ausdehnt, beträgt dieser Bruchteil z. B. beim Queck- silber nur 0,00018, ist also etwa 20 mal so klein. Daher ist auch die Arbeit, die

Mechanisches Wärmeäquivalent 667

das Quecksilber bei der thermischen Ausdehnung unter Überwindung des äußeren Druckes leistet, caeteris paribus 20 mal so klein als oben berechnet wurde, demzufolge auch der Unterschied der beiden spezifischen Wärmen viel geringer wird als bei den Gasen,

Es war zweifellos ein außerordentlich glücklicher, wirklich genialer Ge- Bedeatung danke, die Differenz der beiden spezifischen Wärmen eines Gases zur Berech- ^^'''^^^^ "^^ nung des mechanischen Wärmeäquivalentes zu benutzen. Zu M ay e r s Zeit waren die experimentellen Daten, welche die Basis einer solchen Berechnung hätten bilden können, sehr spärlich; seine Leistung ist daher um so höher anzuschlagen.

Natürlich ist aber die Frage nach der Äquivalenz von Arbeit und Wärme durch eine einzige solche Berechnung durchaus nicht erledigt. Es wäre ja von vornherein denkbar, daß die Verhältniszahl (430 kgm/kg-kal.) von äußeren Be- dingungen abhängig sei, daß etwa in einem Falle mehr, in einem anderen Falle weniger Kilogrammeter eine Kalorie liefern. Diese Frage wurde weitgehend durch die fundamentalen Versuche, welche der englische Forscher I. P. Joule (1818 jouie. bis 1889) unabhängig von Mayers Schrift in den Jahren 1840— 1849 ausführte, beantwortet.

Es ist kaum ein größerer Gegensatz denkbar, als der zwischen Mayer und Joule. Mayer besitzt die größte spekulative Begabung; Joule ist der ge» borene Experimentator, den vor allem die Tatsachen interessieren. Mayer scheint nie, auch wo es sehr nahegelegen hätte, das Bedürfnis empfunden zu haben, ein Ebcperiment zu machen, während für Joule der Versuch der Aus- gangspunkt der Forschung ist.

Joule untersucht nach einer prinzipiell sehr einfachen Methode die Ver- Experimentelle Wandlung von Arbeit in Wärme: Ein Schaufelrad bewegt sich in einem mit ^^^^^^^ Flüssigkeit gefüllten Gefäße; die Flüssigkeitsreibung erzeugt Wärme, die Tem- ™*^J[?^^*" peratur der Flüssigkeit steigt. Die erzeugte Wärmemenge ist leicht aus der Tem- äqaivaients. peraturerhöhung und der Wärmekapazität zu berechnen. Anderseits ist zur Bewegung des Schaufelrades ein beständiger Aufwand von mechanischer Arbeit erforderlich. Wird das Schaufelrad etwa durch ein sinkendes Gewicht getrieben, so ist diese Arbeit gleich der Größe des Gewichtes mal der Strecke, um die es ge- sunken ist; sie kann daher leicht in Kilogrammeter berechnet werden. Setzt man die erzeugte Wärme der verbrauchten Arbeit äquivalent, so kann die Anzahl Kilo- grammeter berechnet werden, welche einer Kilogrammkalorie gleichwertig ist.

Vom prinzipiellen, theoretischen Standpunkte aus beurteilt liegt die Lei- stung Joules darin, daß er eine Beziehung gerade zwischen Wärmemenge und Arbeit sucht. Daß Bewegungen Wärmeeffekte hervorbringen können, das war natürlich schon lange vor Joule bekannt; hätte er aber etwa einen Zusammen- hang zwischen Temperaturerhöhung und Geschwindigkeit oder dergleichen ge- sucht, so würden seine Versuche zu keinem Ergebnisse geführt haben. Aber auch die experimentelle Arbeit Joules ist ein Meisterwerk ersten Ranges. Wir können hier natürlich nicht auf die Details seiner Versuchsanordnung eingehen ; doch ist es auch ohnedem klar, daß derartige Präzisionsversuche, bei denen jeder nicht in Rechnung gezogene Wärme Verlust ein unrichtiges Resultat be-

668 32. F. Hasenöhrl: Die Erhaltung der Energie und die Vermehrung der Entropie

dingen muß, außerordentlich schwierig sind. Dies fällt um so mehr ins Gewicht, als Joule vor 70 Jahren natürlich nicht über die Hilfsmittel eines modernen Laboratoriums verfügte.

Joule hat seine Versuche in mannigfacher Weise variiert« Er ließ das Schaufelrad in Wasser, in Quecksilber laufen; er konnte den Vorgang kurze oder lange Zeit dauern lassen, also wenig oder viel Arbeit in Wärme verwandeln : das Verhältnis der gewonnenen Wärme zur verlorenen Ai'beit ergab sich inner- halb der Versuchsfehler stets gleich groß.

Foststeuang Dassclbe Rcsultat ergaben ferner sehr zahlreiche Versuche, die von Joule

** von wä^l^ selbst und vielen anderen Forschern nach den mannigfachsten Methoden durch-

und Arbeit geführt wurdcn. Man kann es jetzt wohl als sicherstehend ansehen, daß Wärme und mechanische Arbeit einander äquivalent sind, daß sie sich ineinander verwandeln lassen, und daß diese Verwandlung stets in einem bestimmten Verhältnisse vor sich geht. Dieses Verhält- nis, der Umrechnungsfaktor von Kalorien in Kilogrammeter, heißt das mechanische Äquivalent der Wärmeeinheit oder kurz das mechanische Wärmeäquivalent. Dasmeciuuüsciio Zieht man die zahlreichen Bestimmungen dieser letzten Größe in Rech-

l^S* iS"' ^uJ^g und berücksichtigt die Genauigkeit, welche jeder einzelnen derselben zu-

4«; kgm. kommt, so kann man jetzt 427 kgm/kg-kal. als den wahrscheinlichsten Wert des mechanischen Wärmeäquivalents bezeichnen.

Wir tragen den eben auseinandergesetzten Tatsachen am besten Rech- nung, wenn wir, wie bereits mehrfach angedeutet, Wärme und Arbeit als ver- schiedene Formen eines Dinges, der Energie auffassen. In gewissem Sinne sind Arbeit und Wärme dasselbe. Andere Formen Überblicken wir die anderen physikalisch-chemischen Erscheinungsgebiete, der Energie. ^^ erkennen wir sofort, daß auch andere Formen der Energie angenommen wer- den müssen. Wird z. B. ein Leiter elektrisch geladen, so ist dazu ein bestimm- ter Aufwand mechanischer Arbeit nötig (etwa an der Kurbel der Elektrisier- maschine). Diese Arbeit kann wenigstens prinzipiell -- durch eine geeignete Vorrichtung beim Entladen des Leiters wieder gewonnen werden. Es ist daher EiektrUrhe konsequent, dem elektrisch geladenen Leiter eine bestimmte elektrische Energie. Energie zuzuschrcibcn, deren Betrag eben der Arbeit gleich ist, welche beim Laden des Leiters aufgewendet werden mußte. So bedarf es einer Arbeit von 0,006 kgm, um eine Kugel von locm Radius auf looooo Volt (vgl. Artikel 13) zu laden; 0,006 kgm ist daher die elektrische Energie der geladenen Kugel. Man kann diese Energie sehr leicht in Form von Wärme wiedergewinnen: wir ver- binden die Kugel leitend mit der Erde, die Elektrizität fließt ab und erwärmt da*

bei den Leitungsdraht; die dabei entwickelte Wärme ist -j-r = 0,000014 kg-kaL

Energie Von der größten Bedeutung im Haushalte der Natur ist die Energie der

***' *^^^^*" chemischen Kräfte. Jedermann weiß, daß zahlreiche chemische Reaktionen

unter Abgabe oder auch unter Absorption gewaltiger Energiemengen vor sich

gehen. Die Form der abgegebenen Energie ist verschieden; bei der Verbren-

Energiesatz 55g

nung wird Wärme frei; das im Zylinder des Motors explodierende Gasgemisch leistet Arbeit; bei der Verwandlung von Blei, Bleisuperoxyd und Schwefelsäure in Bleisulfat (Akkumulator) kommt elektrische Energie zutage.

Wo immer bei einem Vorgange Energie in irgendeiner Form abgegeben Der Energie- (aufgenommen) wird, schreiben wir den betreffenden Substanzen vor dem Vor- emerKö!pors gange einen größeren (kleineren) Energieinhalt zu, als nachher. Zu solchen Vor- gängen gehören nach dem früheren: Abgabe von Wärme, von Elektrizität, Leistung von Arbeit; chemische Umwandlungen, Änderung des Aggregatzu- standes u. dgl. m. So muß man z. B. einem Kilogramm flüssigen Wassers von o^C. einen um 8okg-kal. größeren Energieinhalt zuschreiben als einem Kilo- gramm Eis derselben Temperatur, weil die Verwandlung von Eis in Wasser unter Aufnahme von 80 kg-kal. (Schmelzwärme), die Verwandlung von Wasser in Eis unter Abgabe derselben Wärmemenge vor sich geht (vgl. Artikel 7).

(Die Arbeit bei der durch das Schmelzen bedingten Volumänderung ist zu vernachlässigen. Bei der Verdampfung, die stets von beträchtlicher Volum- änderung begleitet ist, wäre diese Vernachlässigung nicht erlaubt.)

Wir können demnach jedem Körper (jedem System von Körpern) einen bestimmten, quantitativ in Kilogrammetern oder auch in Kalorien angebbaren Energieinhalt zuschreiben. Derselbe hängt von der Temperatur des Körpers ab; von dem Druck, unter welchem er steht; von der elektrischen Ladung, vom Aggregatzustande (falls derselbe nicht schon durch Temperatur und Druck ge- geben ist), eventuell noch von anderen Faktoren, welche hier in Betracht kom- men können. Wir sagen, der Energieinhalt, die (innere) Energie des Körpers ist eine „Funktion des Zustandes**, Gibt der Körper nach außen etwa an andere Körper Energie in irgendeiner Form ab, so vermindert sich sein Energieinhalt um den gleichen Betrag.

In diesem Ausspruche ist der Energiesatz in seiner allgemeinsten Form Fonnnuerang enthalten. Wir können denselben etwa noch in folgender Weise präziser formu- Ener^^L^es. lieren: Jedem Körper (jedem System von Körpern) kommt eine bloß vom augenblicklichen Zustande abhängige, zahlenmäßig angeb- bare Qualität zu, welche wir Energie (Energieinhalt, innere Energie) nennen; ihre Änderung ist ein Maß der nach außen abgegebenen Arbeit, Wärme oder dergleichen.

In dieser Formulierung ist die Definition der Energie enthalten; daß eine solche Größe, eine solche Funktion des Zustandes tatsächlich existiert, das ist der Inhalt des Energiesatzes.

Der Begriff spezieller Formen der Energie, wie Arbeit oder Wärme ist uns geläufig, dagegen können wir uns keine Vorstellung von der Energie im allge- meinen bilden. Das liegt aber in der Natur der Sache: Die Energie stellt eine Fähigkeit dar, gewisse Wirkungen hervorzubringen; eine Fähigkeit als solche ist aber niemals direkt wahrnehmbar; nur ihre Wirkungen treten in die Er« scheinung. ^)

i) Nach der früheren Terminologie bezeichnete man das, was wir jetzt Energie nennen, als ,, Kraft 'S während jetzt der Ausdruck Kraft ausschliefilich für das Produkt Masse mal Be-

670 32. F. HasenÖhrl: Die Erhaltung der Energie und die Vermehrung der Entropie

Erhaitans Mail Spricht voii der Erhaltung der Energie. Darunter ist folgendes zu ver-

^^^ ^°*^**** stehen: Wir denken uns ein nach außen abgeschlossenes System, das ist eine Anzahl von Körpern, welche nur untereinander in Wechselwirkung treten können. In einem solchen System können mannigfache Veränderungen vor sich gehen; dabei muß aber der gesamte Energieinhalt erhalten bleiben; er kann seinen Betrag nicht ändern. Verliert nämlich ein Teil des Systems infolge von Arbeitsleistung, Wärmeabgabe oder dergleichen an Energie, so muß die Energie der übrigen Teile des Systems um den gleichen Betrag zunehmen, denn auf einen der letzteren muß, wenn das System nach außen abgeschlossen ist, die abgegebene Wärme, oder die geleistete Arbeit übertragen worden sein. Die Energie kann daher wohl von einem Teil des Systems auf einen anderen über- tragen werden, der gesamte Energieinhalt des abgeschlossenen Systems muß aber ungeändert bleiben.

Wenn die Welt ein endliches, abgeschlossenes System wäre, so wäre der Energieinhalt des Universums konstant. KreiaproieB. Kehrt ciu Körper nach einer Reihe von Zustandsänderungen wieder zum

^'^"ttow*^"* -^^^ingszustande zurück, durchläuft der Körper einen „Kreisprozeß", so hat ^^Smi*°™ ®^ nach Ablauf des letzteren wieder dieselbe Energie wie zu Beginn. Es muß demnach die algebraische Summe der während des Kreisprozesses abgegebenen Energien gleich Null sein; der Körper hat gleich viel Energie abgegeben wie aufgenommen. Dieser Satz spricht die Unmöglichkeit eines Perpetuum mo- bile aus. Ein Perpetuum mobile wäre eine periodisch funktionierende Maschine, die beständig Energie, etwa Arbeit liefern würde. Während einer „Periode" durchlaufen die Körper, aus denen die Maschine besteht, einen Kreisprozeß; die während desselben abgegebene Energie, falls diese nur in Form von mechanischer Arbeit zutage tritt, die geleistete Arbeit kann nach obigem nicht von Null verschieden sein.

Es ist bekannt, daß, namentlich in früherer Zeit, zahllose, zum Teil sehr geistvoll ersonnene Versuche gemacht worden sind, ein solches Perpetuum mo- bile zu erfinden; all diese Bemühungen waren vergeblich. Würde es doch ein- mal gelingen, eine solche Maschine zu konstruieren, so würde der Energiesatz fallen. Ganz ausgeschlossen ist diese letztere Eventualität natürlich nicht, ihre Wahrscheinlichkeit ist aber wohl außerordentlich gering. Wir sehen heute ge-

schleunigung, für die Ursache der Beschleunigung, wenn wir so sagen dürfen, verwendet wird. Diese Änderung der Terminologie scheint jedoch keine glückliche zu sein. Das deutsche Wort Kraft bedeutet im Sprachgebrauche des gewöhnlichen Lebens geradezu die Fähigkeit, Arbeit zu leisten. Der Ausdruck „Kraft** oder vielleicht, um die Verwechslung mit der beschleuni- genden Kraft auszuschließen, „Arbeitskraft" wäre ein sehr passender Terminus für das, was wir jetzt Energie nennen. Das Wort Energie kommt zuerst wohl bei Aristoteles vor. Der- selbe unterscheidet zwischen dem 6uvd^6i Av, das bloß die Fähigkeit hat zu existieren, und dem tvepyeicf, 6v, das wirklich ist. (Die Wurzel des Wortes ^pTcta, fpTov entspricht genau dem Stamm des Wortes Wirklichkeit, Werk.) Energie ist Arbeit 6uvd^€i öv. Wir gebrauchen demnach das Wort Energie in einem seiner ursprünglichen Bedeutung gerade entgegengesetzten Sinn. (Vgl A. Höfler, Studien zur Philosophie der Mechanik, Wiss. Beilage d. Jahresbar. d. Wiener phil. Ges. 1897.)

Energie eines Gases Ö71

rade das Mißlingen aller Versuche, ein Perpetuum mobile zu konstruieren, als den sichersten Beweis des Energiesatzes an. Und so haben die früheren Me- chaniker ebensowenig wie die Alchimisten ihr Ziel erreicht; dennoch war ihre Arbeit nicht vergeblich; sie hat der Wissenschaft genützt, wenn auch in ganz anderem Sinne, als es jene erhofft hatten.

Die allgemeine Formulierung des Energiesatzes verdankt man Hermann h. Heimholte. Helmholtz (1821 1894). In der klassischen Abhandlung „Über die Erhal- tung der Kraft'* ist das Gesetz zum ersten Male umfassend und einwandfrei be- handelt. Helmholtz geht von dem Satze der Unmöglichkeit eines Perpetuum mobile aus und verfolgt seine Konsequenzen auf allen Gebieten der Physik. Joule und namentlich Mayer hatten, wie wir bei aller Bewunderung ihrer Leistungen sagen müssen, das Problem etwas einseitig angefaßt; bei Helm- holtz staunen wir über den weiten Blick, über die den Gegenstand voll be- herrschende Kritik des damals 25 jährigen Mannes, dessen Werk wirklich die Basis unserer jetzigen Naturanschauung geworden ist<

Wir wollen noch einige einfache Anwendungen des Energiesatzes kurz be- Mathematische

sprechen. Beschränken wir uns erst auf den Fall, daß Arbeit und Wärme die dM^wril^

einzig ins Spiel kommenden Energiearten seien, so kann für jeden Körper eine *^^

Gleichung von der Form

U^-U^^Q + A'W (I)

aufgestellt werden. Darin verstehen wir unter U^ und C/j den Betrag der in- neren Energie des betrachteten Körpers in zwei aufeinander folgenden Zustän- den, den Zuständen l und 2, wie wir kurz sagen wollen. Die Zunahme der Energie U2 ü^ ist gleich der während der Zustandsänderung zugeführten Wärmemenge Q mehr der in Form von Arbeit (etwa bei einer Kompression) zugeführten Energie W. Wir messen U und Q in kg-kal., die Arbeit W je- doch in Kilogrammeter; wir mußten daher in Gleichung (l) W mit dem Um- rechnungsfaktor A = V427 multiplizieren*

Wir können diesen Satz leicht auf ein ideales Gas anwenden. Während im innet« sneisie allgemeinen die innere Energie als Funktion des Zustandes von Temperatur **° *^**^** ^"' und Druck abhängt, ist die Energie eines Gases nach einem Versuch von Gay Lussac nur von der Temperatur, nicht aber vom Druck abhängig; und zwar ist die Differenz der Energie einer bestimmten Gasmenge in zwei Zuständen der Temperaturdifferenz direkt proportional.

Eine wichtige Rolle spielen die sog. „adiabatischen'' Zustandsänderungen, Adiabatuch« welche ohne Wärmezufuhr oder Abgabe vor sich gehen. Sie finden statt, wenn 2^^^. das Gas in eine für Wärme undurchlässige Hülle eingeschlossen ist, oder wenn die Zustandsänderung so rasch vor sich geht, daß kein merkbarer Wärmeaus- tausch stattfinden kann.

In diesem Falle ist die Zunahme der Energie und damit auch die Zunahme der Temperatur der (auf Kompression des Gases) verwendeten Arbeit propor- tional. Bei adiabatischer Kompression steigt die Temperatur, bei adiabati- scher Expansion sinkt sie«

Eine bekannte Verwertung dieser Tatsache ist das sog. pneumatische

672 32. F. Hasenöhkl: Die Erhaltung der Energie und die Vermehrung der Entropie

Feuerzeug, in welchem die in einem Messingzylinder befindliche Luft durch rasches Hineindrücken eines Kolbens so stark erwärmt werden kann, daß ein gleichfalls im Zylinder befindlicher Feuerschwamm ins Glühen gerät.

Adiabatischen Kompressionen und Expansionen kommt ferner eine große Bedeutung für die Vorgänge in unserer Atmosphäre zu. Die relativ hohe Tem- peratur des Alpenföhn ist nach der Erklärung von Hann eine Folge der nahe- zu adiabatischen Kompression, welche die Luft erfährt, wenn sie vom Haupt- kamme der Alpen in die Täler hinabstreicht. Der absolute Feuchtigkeitsgrad ändert sich dabei nicht, die relative Feuchtigkeit wird daher geringer, wodurch die Trockenheit des Föhn ihre Erklärung findet.

Wenn eine bestimmte Gasmenge einmal bei konstantem Drucke, ein ander- mal bei konstantem Volumen um C. erwärmt wird, so liegen nach der Er- wärmung in beiden Fällen verschiedene Zustände vor. Nur die Temperatur ist in beiden Fällen dieselbe, der Druck ist verschieden. Die Energie hängt aber nur von der Temperatur ab, sie hat also auch nach der Erwärmung in beiden Fällen denselben Wert. Daß in beiden Fällen verschieden große Wärmemengen zuzuführen sind {c^ und cjj, liegt daher nur daran, daß im ersten Falle Arbeit geleistet wurde, im zweiten nicht. Die Berechnung Mayers, die wir oben mit- geteilt haben, ist demnach richtig; hätte er dieselbe statt an Luft etwa an Queck- silber durchgeführt, so hätte er ein ganz unrichtiges Resultat erhalten. Daß Mayer zu seiner Berechnung gerade ein Gas gewählt hat, war in einem gewis- sen Sinne ein glücklicher Zufall, denn er scheint darüber nicht in Klarheit ge- wesen zu sein, daß die Unabhängigkeit der Energie vom Druck eine notwendige Voraussetzung seiner Methode sei. Anwendung Wir sprachcn weiter oben von der potentiellen Energie im Sinne der Me-

EnorgiTaatses chanik; sie wird durch die Arbeit gemessen, welche geleistet werden mußte, "vonJä^^* um den betrachteten Körper von einem beliebig zu wählenden Standardpunkte aus in seine momentane Lage zu bringen. Unter dem Potential eines bestimm- ten Punktes im Räume versteht man eine Größe, welche der Arbeit gleich ist, welche nötig ist, die Masseneinheit (i g etwa) vom Standardpunkte nach dem gewählten Orte zu bringen.

Ganz analog wird das elektrische Potential F definiert. Als Standardpunkt oder vielmehr als Standardniveau wählt man hier stets die Erde, der man das Potential o zuschreibt. Das Potential eines Leiters (auf dem Leiter hat das Poten- tial einen konstanten Wert, wenn die Elektrizität in Ruhe ist) ist dann gleich der Arbeit, welche nötig ist, die Einheit der positiven Elektrizitätsmenge von einem Punkte, an dem das Potential o herrscht, auf den Leiter zu bringen, (Wenn ein einzelner Leiter eine positive Ladung besitzt^ so ist auch sein Poten- tial positiv; die oben angeführte Arbeit hat die Abstoßung zu überwinden, welche die bereits vorhandene positive Ladung der Annäherung einer weiteren positiven Ladung entgegensetzt.) Um die Elektrizitätsmenge e vom Potential o auf das Potential V zu bringen, ist die Arbeit f V zu leisten. Derselbe Be- trag elektrischer Energie geht verloren, wenn die Elektrizitätsmenge vom Potential V (von einem auf das Potential V geladenen Leiter) zum Potential o

Elektrische Enexgie' 673

(zur Erde etwa) abfließt. Fließt die Elektrizitätsmenge e vom Potential Fi zum Potential V^ ab, so geht die elektrische Energie (F^ V^ als solche ver- loren.

Eine derartige Bewegung von Elektrizität stellt einen elektrischen Strom dar. Die „Stromstärke** wird durch die in der. 2^iteinhdt transportierte Elektrizitätsmenge gemessen; so Wird ein Draht von einem Strom der Stärke/ durchflössen, wenn während einer Sekunde sein Querschnitt von der Elektrizi- stromw&rme. tätsmenge / passiert wird. Sind die beiden Enden des Drahtes auf dem Potential Fl bzw. F2, so geht dabei in. der Sekunde die elektrische Energie /(Fi— V^ als solche verloren. Diese Energie kommt als sog. Stromwärme wieder zum Vorschein; der elektrische Strom produziert demnach in einer Sekunde die Wärmemenge /(Fi Fg).

Nach dem Ohmschen Gesetze ist die Potentialdifferenz (Fi F^, die Spannung, wie man meistens sagt, gleich dem Produkte aus Stromstärke / und Widerstand R; also:

Fl -- Fg = IR.

Demnach ist die Stromwärme:

/(Fl - F^ = /«ie.

also auch gleich dem Quadrate der Stromstärke multipliziert mit dem Wider- stand (Gesetz von Joule) (vgl. Artikel 20).

Wir wollen die Bedeutung dieser Gesetze an dem Beispiele einer normalen Beleuchtungsinstallation erläutern. Die Abnahmestellen der Leitung sollen etwa die Spannung (die Potentialdifferenz) loo Volt haben. Wir denken uns dieselben durch eine Glühlampe, deren Widerstand 200 Ohm beträgt, verbun- den; nach dem Ohmschen Gesetz wird dann die letztere von einem Strom von der Stärke 100/200 = % Amp.ere durchflössen. Die in der Sekunde erzeugte Wärme ist dann nach obigem:

100 Volt Va Ampere = 50 Voltampere,

= 50 Watt = V20 Kilowatt.

Ein Voltampere, gleich einem Watt, ist die Einheit des „Effektes", derBffekt des «lek- per Sekunde verbrauchten Energie; gleichviel ob die Energie, wie in •unserem Falle, in Form von Wärme oder in anderer Form wieder zutage kommt. Ein Watt ist demnach der Effekt eines Stromes von der Stärke eines Ampere und der Spannung eines Volt; das beißt also die von einem derartigen Strom per Sekunde entwickelte Wärme.

Eine andere oft verwendete Einheit des Effektes ist die Pferdestärke (P.S.). Eine Pferdestärke ist die Leistung von 75 kgm per Sekunde. Genaue Messungen haben ergeben, daß eine Pferdestärke gleich 736 Watt ist. Wir kön- nen demnach folgende Beziehungen aufstellen:

I Watt = g P.S. = -^ kgm per Sekunde = ca. 0,1 kgm per Sekunde

= o I kg-kal. per Sekunde = 0,00024 kg-kal. per Sekunde.

Für die Lichtstärke einer Lampe ist nur der Elff ekt, die in der Zeiteinheit erzeugte Wärme maßgebend; so verbraucht eine 50 kerzige Metallfaden- Glüh-

ILd.G.nLiii,Bdt Physik ^3

674 ^^* ^* Hasenöhrl: Die Erhaltung der Energie und die Vermehrung der Entropie

lampe ca. 50 Watt. Wenn dieselbe eine Stunde lang brennt, so hat sich die elektrische Energie 50 Wattstunden gleich Vto Kilowattstunden in Wärme verwandelt.

Nach dem Obigen ist i Kilowattstunde = 3600000 Wattsekunden =s 360000 kgm = 860 kg-kal.

Preis der eiek- Der Stromkonsumcnt hat dem Elektrizitätswerk die verbrauchte Eneme

tnic en ergie. ^^ zahlen; cr zahlt daher weder die Ampere noch die Volt, sondern die Kalorien, oder vielmehr, nach dem in der Elektrotechnik ausschließlich verwendeten Maßsystem, die verbrauchten Kilowattstunden. So beträgt in Deutschland der Preis der Kilowattstunde durchschnittlich 50 Pfennige; da nach dem Früheren eine Kilowattstunde = 860 kg-kal. ist, ist der Preis einer 1^-kal. elektrischer Energie ca. 0,06 Pfennig. Das Erwärmen eines Liters Wasser von o^ auf 100® kostet demnach im elektrischen Kochapparate 6 Pfennig.

Preis der Energie Els ist uicht Uninteressant, diesen Preis mit dem Preise der Energie in ande- der KoUe. ^^^ Formcu ZU Vergleichen. Ein Kilogramm hochwertiger Kohle kostet etwa 4 Pfennig. Da bei der Verbrennung eines Kilogramm Kohle ca. 7000 kg-kaL entwickelt werden, ist hier der Preis einer Kalorie 0,0006 Pfennig, also etwa der hundertste Teil des früheren. (Daß die elektrische Energie aus anderen Gründen wertvoller ist als die der Kohle, wird der zweite Hauptsatz lehren.) Der elektrische Strom wird von der Dynamomaschine geliefert, welche ihrerseits von einer Dampfmaschine getrieben wird. In der Dampfmaschine wird die Verbrennungswärme der Kohle in Arbeit umgesetzt. Es ist also der Energieinhalt der Kohlen, welcher nach den mannigfachsten Umwandlungen in der Glühlampe als Wärme zutage tritt, wasierkrait. Außcr der Kohlc kommt für die Technik noch die lebendige Kraft des flie- ßenden Wassers als Energiequelle in Betracht. So repräsentieren die Wasser- kräfte unserer Alpen einen ungeheuren, nie versiegenden Energievorrat, der heutzutage nicht im entferntesten ausgenützt ist. Wenn einmal, wie schon oft vorausgesagt wurde, die Kohlenlager der Erde erschöpft sein werden, wird es Wohl die Energie der Flüsse sein, welche alle unsere Maschinen in Gang er- halten wird. Energie Wir wolleu zum Beispiele die Energie des Rheinfalls bei Schaffhausen be-

des Rhein&ues. rg^hneu. Es stürzt dort im Mittel eine Wassermasse von 250 m* per Sekunde über eine etwa 20 m hohe Terrasse hinab. Da i m* Wasser 1000 kg wiegt, ist die „Leistung*' des Rheinfalles

250 1000 20 kgm per Sekunde = 5000000 kgm/sek. = 67000 P.S.

== 50000 Kilowatt = 12000 kg-kal./sek. Es ist nicht uninteressant, diese Zahlen ins Praktische zu übersetzen. 50000 Kilowatt reichen gerade aus, eine Million 50 kerziger Metallfaden- Glüh- lampen zum Leuchten zu bringen. In einer Stunde liefert der Rheinfall 50000 Kilowattstunden; für eine so große, in Form von Elektrizität gelieferte Energiemenge müßte man nach den oben angegebenen Daten 25 000 Mark zahlen. 12000 kg-kal. werden von 1,7 kg hochwertiger Kohle bei der Verbrennung abgegeben. Der Rheinfall ist also einem Bergwerk gleichwertig, welches in der

Eaergieverwandlungen 5 ^ ^

Sekunde 1,7 kg, in 24 Stunden 145 Tonnen hochwertiger Kohle zu liefern vermag.

Die hier angegebenen Zahlen sind natürlich nur von theoretischer Bedeu- tung; auch die vollendetste maschinelle Einrichtung könnte nur einen kleinen Bruchteil dieser gewaltigen Energiemengen nutzbar machen. Dasselbe gilt aber auch von der Energie der Kohlen, deren Ausnützbarkeit auch aus anderen Gründen, die wir bei Besprechung des zweiten Hauptsatzes kennen lernen werden, wesentlich beschränkt ist. Es ist sicher, daß die rationelle Ausnützung der Wasserkraft von Jahr zu Jahr fortschreitet, und so ist es nicht unwahr- scheinlich, daß unsere bisher als arm geltenden Alpenländer einmal zu den reich- sten zählen werden.

Wir wollen endlich noch die der Erde von der Sonne zugestrahlte Energie saergieder besprechen. Die Beobachtungen mehrerer Forscher haben ergeben, daß die s<^~**™^~- Sonne einem Quadratmeter der Erdoberfläche in der Minute 21 kg-kal. zusendet. Das wäre in 1 2 Stünden etwa 1 5 000 kg-kal., das ist der Energieinhalt von ca. 2 kg Kohle. Ausgedehnte Strahlungsfelder könnten also beträchtliche Energie- mengen liefern. Man hört manchmal von Projekten, derartige Strahlungsfelder in einem Lande mit starker Insolation, etwa in Tibet zu errichten, doch ist dar- aus niemals Ernst geworden. Das hat auch seine Ursache; die so gewonnene Energie könnte, wie uns der zweite Hauptsatz lehren wird, nur in sehr be- schränktem Maße nutzbar gemacht werden.

IL

Wir wollen nun zur Besprechung des zweiten Hauptsatzes der Wärme- lehre, des Entropiesatzes schreiten. Das Verständnis dieses letzteren Gesetzes ist viel schwieriger, als das des Energiesatzes. Der wesentliche Inhalt des Ener- gieprinzipes ist heute wohl jedem Gebildeten geläufig; ein gründliches Beherr- schen des Entropiesatzes jedoch setzt sehr eingehendes Studium voraus. Wir müssen uns daher hier darauf beschränken, den Inhalt des zweiten Wärme- sätzes nur in großen Zügen zu skizzieren.

Der Energiesatz stellt die Äquivalenz von Arbeit und Wärme fest; wo i^ weichem immer mechanische Energie verschwindet, um als Wärme wieder zum Vor-«^®-«®**®"

^ ' Energioverwand-

schein zu kommen, oder umgekehrt, geschieht dies in einem bestimmten, durchlangen vor sich? das mechanische Wärmeäquivalent gegebenen Verhältnis. Doch sagt der Ener- giesatz gar nichts darüber aus, wann, wodurch veranlaßt und in wel- chem Sinne solche Energieverwandlungen vor sich gehen.

Qualitativ gibt uns hier schon die Beobachtung der Erscheinungen des Die verwand- täglichen Lebens Aufschluß. Die Verwandlung von Arbeit in Wärme geht j^J^^^^J^^^* in der Natur beständig vor sich; sie kann von uns jederzeit ohne besondere J«ner von Vorkehrungen veranlaßt werden. Jegliche Bewegung erfährt ja einen Reibungs- bevomgl ^ widerstand, jegliche Bewegung ist daher von einer „Energieverwandlung'* im genannten Sinne begleitet. Viel schwieriger ist die Veranlassung der um- gekehrten Energieverwandlung, der Verwandlung von Wärme in Arbeit. Die tiefste Kulturstufe kennt eine Vorrichtung, welche beliebig viel Arbeit in

43*

676 32. F. Hasenöhrl: Die Erhaltung der Energie und die Vermehrung der Entropie

Wärme verwandelt, den Feuerbohrer; die Konstruktion einer Maschine da- gegen, in welcher die entgegengesetzte Energieverwandlung unbeschränkt vor sich geht, wie der Dampfmaschine oder des Heißluftmotors, setzt einen hohen Grad von Wissen und Intelligenz voraus. Die Verwandlung von Arbeit in Wärme ist offenbar in der Natur vor der entgegengesetzten Energieverwand- lung, der Verwandlung von Wärme in Arbeit bevorzugt. Tcmporatur Vom Standpunkte des Energiesatzes ist nicht allein Arbeit und Wärme

wamomonge. Völlig gleichwertig, es ist auch ganz irrelevant, ob eine bestimmte Wärmemenge von einem Körper hoher oder tiefer Temperatur stammt. Ob wir eine Wasser- masse von, sagen wir 1000 kg Gewicht und der Temperatur 100® C. durch Ent- ziehung einer kg-kal. um Viooo^ abkühlen, oder ob wir 1000 kg Wasser von 10 ®C. um den gleichen Betrag, um Viooo** abkühlen, die dabei gewonnene Kilo- gramm-Kalorie repräsentiert in beiden Fällen dieselbe Energiemenge, sie liefert in beiden Fällen in Arbeit verwandelt 427 kgm.

Vom Standpunkte des zweiten Hauptsatzes aus müssen wir jedoch unter- scheiden, ob eine bestimmte Wärmemenge einem heißeren oder kälteren Kör- per entnommen wird. Wir hatten bisher nur mit dem Begriff der Temperatur eines Körpers zu tun; im folgenden wollen wir auch von der Temperatur einer Wärmemenge sprechen und dieselbe gleich der Temperatur des Kör- pers setzen, aus dem sie stammt. Soll diese Definition auch für größere Wärme- mengen eindeutig sein, so muß der Körper, aus dem die betrachtete Wärme- menge stammt, eine sehr große Wärmekapazität haben, damit sich seine Tem- peratur während der Wärmeabgabe nur unmerklich ändert. (Entzieht man etwa einem kg Wasser von 100® C. eine kg-kal., so sinkt seine Temperatur auf 99^ C; es ist aber jetzt nicht möglich, der dabei gewonnenen Kalorie eine bestimmte Temperatur zuzuschreiben, da der Körper, aus dem sie stammt, das Wasser, während der Wärmeabgabe alle Temperaturen zwischen 99® und lOO® hatte. Man könnte dieser Kalorie höchstens eine mittlere Temperatur zwischen 99® und 100® C. zuschreiben.)

Wir wollen uns nun einen großen Körper von der Temperatur 100® C, ein „Wärmereservoir** von ICX)® C. denken. Demselben soll eine Kalorie ent- zogen, und diese letztere auf ein Wärmereservoir von etwa 10® C. übertragen werden. Wir sagen dann kurz: Es hat sich eine Wärmemenge von ICX)® in eine Wärmemenge von IQ® verwandelt; und zwar wollen wir auch einen solchen Vorgang eine Energieverwandlung nennen, und zwischen der Verwandlung von Wärme höherer Temperatur in Wärme tieferer Temperatur und der Verwandlung von Wärme tieferer Temperatur in solche höherer Temperatur unterscheiden. DieVerwandiang Mau crkenut ohne weiteres, daß in der Natur die erste dieser beiden Ener- höherer^^pe- gicverwandlungcn bevorzugt ist. Jeder „Temperaturausgleich** durch Wärme- ratur in solche leitung odcr Strahlung ist eine Verwandlung von Wärme höherer Temperatur ratar iat vor der iu solche tieferer Temperatur. Die Wärme geht, stets von selbst vom heiße- ve^MdiMg f^^ Körper auf den kälteren über; der ersterp kühlt sich ab, der letztere er- bevorwgt. wärmt sich.

Irreversibilität 5yy

Man kann auch die umgekehrte Verwandlung, die Verwandlung von Wärme tieferer Temperatur in solche von höherer Temperatur veranlassen. Das geschieht in der Kältemaschine, etwa in der Maschine von Linde. Denken wir uns z.B. eine solche Maschine in einem Räume von 15® C. aufge- stellt, während die Luft in der Maschine bereits auf 50^ abgekühlt sein mag; soll die letztere noch tiefer abgekühlt werden, so wird ihr weiter Wärme ent- zogen, und dieselbe auf die Körper der Umgebung übertragen. Wir haben hier eine Verwandlung von Wärme von 50® in solche von 15 ® vor uns; es bedarf aber dazu einer besonderen Vorrichtung, der Kältemaschine.

Solche Überlegungen bewogen Clausius (1822— 1888), die hier in Betracht zw« KUssea kommenden Energieverwandlungen in zwei Klassen einzuteilen: Verwandlungen.

L Positive Energieverwandlungen:

a) Verwandlung von Arbeit in Wärme.

b) Verwandlung von Wärme höherer Temperatur in Wärme tieferer Tem- peratur.

IL Negative Energieverwandlungen: ^

a) Verwandlung von Wärme in Arbeit.

b) Verwandlung von Wärme tieferer Temperatur in Wärme höherer Tem- peratur.

Nach dem Obigen gehen die positiven Verwandlungen in der Natur beständig von selbst vor sich, während die negativen allem Anscheine nach nur durch be- sondere Vorrichtungen veranlaßt werden können. Da alle physikalischen und chemischen Vorgänge von Energieverwandlungen begleitet sind, scheint bei jedem Vorgange ein bestimmter Sinn, eine bestimmte Richtung vor der ent- gegengesetzten den Vorzug zu haben.

Diese Überlegungen legen uns die Frage nahe, ob es in der Natur Vor- Revenibie gänge gibt, welche, ohne daß die äußeren Umstände verändert würden, sowohl ""Vorgänge"* im einen, als auch im anderen Sinne vor sich gehen können. Einen solchen Vorgang könnte man ,, umkehrbar", „reversibel** nennen. Rein mechani- sche Vorgänge, d. h. Vorgänge, bei denen ausschließlich mechanische Energie ins Spiel kommt, sind reversibel: Wird ein fallender Körper plötzlich aufgehal- ten, und ihm eine Geschwindigkeit erteilt;, welche jener, welche er gerade hatte, gleich, aber entgegengesetzt ist, so erreicht er genau wieder das Niveau, aus dem er fallen gelassen wurde, und zwar in einer Zeit, welche der früheren Fallzeit ebenfalls genau gleich ist. Der Körper macht dabei alle Zustände, in denen er sich früher befunden hatte, in entgegengesetzter Reihenfolge durch. Würden alle Planeten in einem bestimmten Augenblicke gestoppt, und ihnen eine Ge- schwindigkeit erteilt, welche der früheren gleich und entgegengesetzt ist, so würde das Planetensystem alle früheren Konfigurationen in umgekehrter Zeit- folge durchlaufen.

Ein reversibler Prozeß kann auch dadurch charakterisiert werden, daß er vollständig rückgängig gemacht werden kann. Ein Vorgang ist „vollstän- dig rückgängig** gemacht, wenn nicht nur die an demselben unmittelbar be- teiligten Körper, sondern auch alle anderen Körper denselben Zustand haben,

678 32. F. Hasenöhrl: Die Erhaltung der Energie und die Vennehrung der Entropie

wie zuvor. Jeder Vorgang kann schlechtweg rückgängig gemacht werden; wenn aber dabei an anderen Körpern, die am ursprünglichen Prozeß nicht be- teiligt waren, Veränderungen zurückgeblieben sind, kann man nur von einem unvollständigen Rückgängigwerden sprechen. Rein Rein mechanische Vorgänge sind also reversibel; wir müssen uns aber so-

\^rg^^'^i^d ^^^^ klarmachen, daß ein rein mechanischer Vorgang nur als Abstraktion Be-

revanibeL deutung hat. Die Gesetze der Mechanik, auf die wir uns eben gestützt haben, das Fallgesetz, die Keplerschen Gesetze gelten nur, wenn die Bewegung keinen Widerstand erfährt. Reibung, Luftwiderstand sind aber immer vorhanden; stets verwandelt sich ein Teil der mechanischen Energie in Wärme. Eine Ver- wandlung von lebendiger Kraft in Wärme infolge der Reibung ist aber offenbar irreversibel. Es kann nicht geschehen, daß der infolge der Reibung zur Ruhe gekommene Billardball auf Kosten der Wärme des Billardbrettes wieder in Bewegung kommt. AUe Es gibt also keinen wirklich reversiblen mechanischen Vorgang. Doch steht

Vorgänge «^d ^^ in unscrer Macht, die Reibung und die sonstigen Bewegungswiderstände

irretrerribeL imnier mehr zu reduzieren und damit den Vorgang immer mehr dem wider- standslosen, dem reversiblen Vorgang zu nähern. Und zwar hat, wie wir später sehen werden, das reversible Geschehen als idealer Grenzfall, den wir zwar nicht erreichen, dem wir uns aber beliebig nähern können, für den Entropiesatz die größte Bedeutung.

Kevenibie Es ist iu HinbUck auf das Folgende noch von Wichtigkeit, zu untersuchen,

"^^eh^^g**ob die Ausdehnung eines Körpers unter Überwindung des äußeren Druckes reversibel ist oder nicht. Denken wir uns etwa (wie oben S. 665) ein Gas, das sich in einem durch einen beweglichen Kolben verschlossenen Zylinder befin- det. Je nachdem der Gasdruck kleiner oder größer ist, als der von oben auf dem Kolben lastende äußere Druck, bewegt sich der Kolben nach abwärts oder nach aufwärts; die Bewegung kann also nur in einem Sinne geschehen. Es be- darf einer äußeren Einwirkung, einer Verminderung bzw. einer Vermehrung des von außen auf dem Kolben lastenden Druckes, um die Bewegung des Kolbens im entgegengesetzten Sinne vor sich gehen zu lassen. Der von uns betrachtete Vorgang ist also irreversibel; doch können wir uns auch hier beliebig der Re- versibilität nähern, ohne daß es allerdings möglich wäre, sie zu erreichen. Wird nämlich der äußere Druck so reguliert, daß er stets nur ganz wenig vom Gas- druck verschieden ist, so bedarf es nur einer ganz kleinen äußeren Einwirkung, einer ganz kleinen Änderung des äußeren Druckes, um den Vorgang im einen oder im anderen Sinne verlaufen zu lassen. Je geringer die Differenz zwischen dem äußeren Drucke und dem Drucke des Gases ist, desto mehr nähert sich der Prozeß der Reversibilität, desto langsamer geht er allerdings auch vor sich. (Bei vollkommener Gleichheit der beiden Drucke bleibt natürlich der Kolben in Ruhe.) Als Grenzfall hat auch hier der reversible Vorgang, die reversible, unendlich langsame Expansion bzw. Kompression Bedeutung.

Wir wollen noch folgendes konstatieren: Wenn sich ein Körper unter Über- windung eines äußeren Druckes um einen bestimmten Bruchteil seines Volu-

Zweiter Hauptsatz 679

mens ausdehnt, so ist die dabei geleistete Arbeit am größten, wenn die Elxpan* Die einer sion reversibel erfolgt. Denken wir uns wieder den äußeren Druck durch ein g33Itote auf einem Kolben lastendes Gewicht dargestellt. Je größer dieses bei der Ex- j^^ß^*„*^^ pansion gehobene Gewicht, je größer der überwundene äußere Druck ist, desto dieExpunoa größer ist die geleistete Arbeit. Nun muß der äußere Druck natürlich kleiner "''*" sein als der Gasdruck, damit dip Expansion überhaupt eintritt; je geringer aber die Differenz dieser beiden Drucke ist, desto größer ist die geleistete Arbeit. Der Grenzwert, die maximale Arbeit, wird erreicht, wenn der äußere Druck nur unmerklich kleiner ist als der Gasdruck, wenn die Expansion reversibel vor sich geht.

Wir erkennen ferner leicht, daß auch der Vorgang der Wärmeübertragung Revenibier durch Leitung oder Strahlung irreversibel ist; die Wärme geht stets vom heiße- ^^ ^J^]!^^^*'^ ren Körper auf den kühleren, über, das Umgekehrte findet nicht statt. Wenn trwitport. aber die Temperaturdifferenz zwischen djsn beiden in Wärmeaustausch stehen- den Körpern sehr gering ist, bedarf es wieder bloß einer ^ehr geringen äußeren Einwirkung, einer sehr kleinen Temperaturänderung eines der beiden Körper, um den Wärmetransport in entgegengesetztem Sinne zu veranlassen; wir nähern uns damit wieder dem reversiblen, auch hier unendlich langsani verlaufenden Prozesse.

Nach diesen Auseinandersetzungen sind wir imstande, den zweiten Haupt- Der n. Haapt. satz nach der Formulierung von Clausius auszusprechen:. „Wärme kann FonnoUerang nicht von selbst aus einem kälteren in einen wärmeren Körper ""**" ^^*"*'" übergehen.'* Dieser Satz ist so zu verstehen: Wenn Wärme aus einem käl- teren in einen wärmeren Körper übergeht, wenn also eine Verwandlung von Wärme tieferer Temperatur in solche von höherer Temperatur stattfindet, so muß. diese (negative) Verwandlung von entsprechenden positiven Verwand- lungen begleitet, von den letzteren „kompensiert** sein. Ein Vorgang, der nichts anderes bewirken würde, als daß ein kalter Körper noch weiter abgekühlt, ein wärmerer noch weiter erwärmt wird, ist unmöglich. Die andere, gleichfalls von Clausius herrührende Formulierung des Theorems ist deutlicher: „Ein Wärmeübergang aus einem kälteren in einen wärmeren Körper kann nicht ohne Kompensation stattfinden.**

William Thomson, der nachmalige Lord Kelvin (1824— 1907), ist von Formaiierang einem anderen Theorem ausgegangen, das jedoch, wie wir sehen werden, die- Thomwn. 3elbe Bedeutung hat, wie der Satz von Clausius. Thomson postuliert den Satz von der Unmöglichkeit eines „Perpetuum mobile zweiter Art**. Aus dem Energiesatz folgt die Unmöglichkeit eines Perpetuum mobile schlecht- weg, eines „Perpetuum mobile erster Art**, wie wir jetzt sagen wollen, d. i. einer periodisch funktionierenden Maschine, die Energie aus nichts schafft. Unter einem Perpetuum mobile zweiter Art versteht man eine periodisch funktionierende Maschine, die nichts bewirkt, als Abkühlung eines Wärme- reservoirs und Leistung von Arbeit. Die Existenz einer derartigen Maschine wäre mit dem Energiesatz keineswegs in Widerspruch; sie würde ja nur Energie verwandeln;die geleistete Arbeit ginge auf Kosten des Energieinhaltes des

68o 33. F. HasenÖhrl: Die Erhaltung der Energie und die Vermehrung der Entropie

mit der Maschine in Verbindung stehenden Wärmereservoirs. Für die Technik wäre sie ebenso wertvoll, wie ein Perpetuum mobile im engeren Sinne. Eis stehen uns ja Wärmereservoire von praktisch unerschöpflichem Inhalte zur Ver- fügung; eine Maschine, die Arbeit leistete und gleichzeitig etwa das Weltmeer um ein Minimum abkühlen würde, hätte praktisch dieselbe Bedeutung wie ein Perpetuum mobile erster Art. Die sätee Die Sätze von Clausius und Thomson sind in Einklang nüt dem, was,

Th^*8o"n wie früher auseinandergesetzt wurde^ die Beobachtung alltäglicher Erschei-

von

Sron**d«rtä'-'^^^8^^ lehrt: Während die positiven Energieverwandlungen für sich, ohne daß liehen Lebena in sonst ctwas geschicht, unkompcnsicrt, von selbst, vor sich gehen können, sind ^' die negativen Verwandlungen wesentlich beschränkt. Eine negative Ver- wandlung muß also, wenn es sich um einen periodisch wiederholbaren Vorgang handelt, stets von einer positiven begleitet sein. Es hat dies gewiß die Ent- deckung des Energiesatzes erschwert. Wäre die Verwandlung von Wärme in Arbeit ebenso einfach zu veranlassen, wie etwa die Erzeugung von Wärme durch Reibung, so hätte man viel leichter die Äquivalenz dieser beiden Energiearten erkannt. Kombination Dic hier in Betracht kommenden Kombinationen sind die folgenden:

vOTMdkS«!. ^*^® Verwandlung von Wärme in Arbeit, begleitet von einer Verwand- lung von Wärme höherer Temperatur in solche von tieferer Temperatur (Dampfmaschine).

2. Eine Verwandlung von Wärme tieferer Temperatur in solche von höhe- rer Temperatur, begleitet von einer Verwandlung von Arbeit in Wärme (Kälte- maschine).

Soll demnach in einer periodisch funktionierenden Maschine Wärme in Arbeit verwandelt werden, so müssen mindestens zwei Wärmereservoire ver- schiedener Temperatur ins Spiel kommen; die Verwandlung von Wärme in Arbeit ist dann (entsprechend Fall l) von einem Wärmeübergang vom höher temperierten Reservoir zum tiefer temperierten begleitet. Die sitxe von Wir köuncn uns nun leicht davon überzeugen, daß aus dem Satz von

^T^i^rsin'd" Thomson jener von Clausius folgt. Wäre das Theorem von Clausius un- gleichbedeutend, richtig, SO köuutc ciu Teil dcs Wärmcinhalts eines einzigen, ursprünglich vor- gegebenen Reservoirs ohne Kompensation auf höhere Temperatur gebracht werden. Man hätte dann zwei Reservoire verschiedener Temperatur zur Ver- fügung, und zwar hätte das neu hinzugekommene die höhere Temperatur. Wir können nun einen Teil des Wärmeinhaltes des letztgenannten Reservoirs in Arbeit verwandeln, während der Rest auf das tiefer temperierte, ursprüng- lich allein vorhandene Reservoir übergeht, welch letzterer Vorgang den ersteren kompensiert. Das neu hinzugekommene Reservoir ist jetzt erschöpft und braucht daher nicht mehr in Betracht gezogen zu werden. Das Resultat des ganzen Vorganges ist demnach ein Gewinn von Arbeit auf Kosten eines ein- zigen vorgegebenen Reservoirs. Da der betrachtete Prozeß ferner beliebig oft wiederholt werden kann, könnte er zur Darstellung eines Perpetuum mobile zweiter Art verwendet werden. Das letztere ist aber nach dem Satze von Thom«

Wärmekraftmaschine 68 1

son unmöglich; wir müssen daher bei der eben angestellten Überlegung von falschen Prämissen ausgegangen sein; d. h. der Satz von Claus ius kann nicht unrichtig sein. Es folgt also der Satz vonClausius aus jenem von Thomson.

Wir können auch zeigen, daß umgekehrt aus dem Satz von Clausius jener von Thomson folgt. Wäre nämlich das Theorem von Thomson un- richtig, könnte man mit Hilfe eines Perpetuum mobile zweiter Art einem ein- zigen Wärmereservoir beliebig viel Wärme entziehen und dieselbe ohne Kom- pensation in Arbeit verwandeln, so könnte die letztere, da die Verwandlung von Arbeit in Wärme durch nichts beschränkt ist, in Wärme beliebig hoher Temperatur umgesetzt werden. Das Resultat all dieser Prozesse wäre eine un- kompensierte Verwandlung von Wärme tieferer Temperatur in solche höherer Temperatur. Da dies nach dem Theorem von Clausius nicht möglich ist, müssen wir von falschen Prämissen ausgegangen sein, d. h. der Satz von Thomson kann nicht unrichtig sein.

Der Satz von Clausius und der Satz von Thomson sind demnach äqui- valent; jeder der beiden Sätze folgt aus dem anderen.

Wir wollen uns nun die Wirkungsweise einer ..Wärmekraftmaschine**, Schema

^ einer Wärme-

einer Maschine, welche periodisch funktionierend Wärme in Arbeit verwandelt, kraftmaschine. schematisch klarzumachen suchen. Nach dem Obigen muß die Maschine mit zwei Wärmereservoiren verschiedener Temperatur in Verbindung gebracht wer- den können. In der Maschine selbst befindet sich die „arbeitende Substanz** (in der Dampfmaschine das Wasser bzw. der Wasserdampf), welche während einer Periode der Maschine einen Kreisprozeß den sog. Carnot'schen Kreis- prozeß durchläuft. Die arbeitende Substanz kann von den Reservoiren Wärme erhalten, oder an die letzteren abgeben, sie kann ferner durch Volumänderung unter Überwindung eines Druckes Arbeit leisten.

Wir wollen die beiden Wärmereservoire mit R^ und i?2 bezeichnen; die Temperatür derselben sei t^ bzw. t^; und zwar sei ti größer als t^. Während einer Periode der Maschine soll nun R^ an die arbeitende Substanz die Wärme j2i abgeben. Diese Wärme kann nicht gänzlich in Arbeit verwandelt werden; nur ein Teil vonj2i etwaj setzt sich in Arbeit um; der Rest j2i ? = ßa» wie wir setzen wollen, geht die Form von Wärme beibehaltend auf R2 über. Bezeichnet

wieder A die Zahl kg-kal./kgm, so ist die gewonnene Arbeit W mit q durch

die Gleichung A*W = q verknüpft. Da ferner ßi g = ßa ist, können wir

ßi = ßa + ^ W' (2)

setzen, welche Gleichung der Ausdruck des ersten Hauptsatzes ist, nach wel- chem der gesamte Betrag der Energie unverändert bleiben muß.

Da nach Ablauf einer Periode die arbeitende Substanz wieder den Anfangs- zustand erreicht hat, also auch dieselbe Energie besitzt, wie zuvor, läßt sich das Resultat einer Periode im Gang der Maschine wie folgt zusammenfassen:

i?i hat die Wärmemenge ßi abgegeben.

i?2 hat die Wärmemenge ßj aufgenommen.

Die Wärme ß^ ßj hat sich in Arbeit verwandelt.

682 32. F. Hasenöhrl: Die Erhaltung der Energie und die Vermehrung der Entropie

Dampfmaacbine. Ein Bclspiel elncr solchen Wärmekraftmaschine ist, wie bereits erwähnt, die Dampfmaschine. Die Verbrennungsgase der Kohle und das Kühlwasser des Kondensators sind die beiden Wärmereservoire, das Wasser (in flüssigem und gasförmigem Zustand) ist die arbeitende Substanz. Die Verbrennungsgase der Kohle Ri geben an das Wasser im Kessel die Wärme |2i ^b; infolge dieser Wärmezufuhr verwandelt sich das Wasser in Dampf, strömt in den Zylinder und bewegt unter Arbeitsleistung den Kolben, worauf der in den Kondensator gelangte Dampf an das Kühlwasser so viel Wärme {Q^) abgibt, daß er wieder flüssig wird. Ist das nunmehr wieder flüssig gewordene Wasser durch die Speisepumpe in den Kessel zurückgebracht, so ist eine Periode der Maschine zu Ende. Das Wasser hat dabei einen Kreisprozeß durchlaufen; es befindet sich zum Schluß im selben Zustande, wie zu Beginn. Das Resultat einer sol- chen Periode ist also folgendes: Die Verbrennungsgase haben die Wärmemenge Öl abgegeben, welche sich zum Teil in Arbeit (W) verwandelt hat, zum Teil aber (|2t) ^uf das Kühlwasser des Kondensators übergegangen ist. Reversible Wir woUcn uns nun die Frage vorlegen, ob eine Wärmemaschine, wie wir

!^beitowlilirder sie gerade betrachtet haben, reversibel arbeitet oder nicht. Die Temperatur

krafti^chine ^^^ Verbreunungsgasc der Kohle ist etwa 2000®, die des Wassers im Kessel liegt zwischen loo® und 200®; daher ist der Wärmeübergang von der Feuerung zum Kesselwasser, und damit der ganze in der Wärmekraftmaschine stattfindende Prozeß irreversibel. Würde man jedoch statt der Verbrennungsgase der Kohle einen Heizkörper verwenden, dessen Temperatur nur sehr wenig höher ist als die des Wassers, würde ferner der auf den Kolben wirkende äußere Druck so geregelt, daß die Arbeitsweise des Zylinders nahe reversibel ist, so würde auch der ganze Vorgang in unserer Maschine der Reversibilität beliebig nahe ge- bracht werden können, wob^i allerdings der Gang der Maschine immer lang- samer würde. Nateeffekt Es ist nun offenbar von der größten Wichtigkeit zu erfahren, wie sich die

kr^ftmatc™! {^^ B. von den Verbrennungsgasen abgegebene) Wärmemenge Öi in die beiden Teile Q^ und A W entsprechend Gleichung (2) aufteilt. Je größer JF, die ge- wonnene Arbeit ist, je geringer damit Q^, die nutzlos an R^ (z. B. an das Kühl- wasser) abgegebene Wärme ist, desto größer ist der „Nutzeffekt**, desto ökonomischer arbeitet die Maschine. Wir erkennen leicht, daß der kleinst- mögliche Wert von W gleich Null ist; denn dann wäre j2i = Q^t und der ganze Vorgang bestünde in einem Wärmetransport von R^ auf R^, d. i. von höherer Temperatur auf tiefere, einem Prozeß, der ja unkompensiert, von keiner ande- ren Energieverwandlung begleitet, vor sich gehen kann. Anderseits muß aber der größtmögliche Wert von A W kleiner sein als j2i; wäre nämlich A W = j2i) so müßte Q2 = o sein, d. h. das zweite Reservoir R^ käme gar nicht ins Spiel, und unsere Maschine würde ein Perpetuum mobile zweiter Art darstellen, was ja nach Thomson ausgeschlossen ist. Der größtmögliche Wert von A * PF, welcher der am meisten ökonomischen Arbeitsweise der Maschine entspricht, muß also zwischen o und j2i liegen.

Wir können uns nun überzeugen, daß diese letztgenannte günstigste Ar-

Nutzeffekt der Wärmekraftmaschine 683

beitsweise die reversible ist. Wir wissen bereits, daß die vom Kolben gelei* Die revenibei stete Arbeit am größten ist, wenn die Volumänderung des im Zylinder befind- uJ^dhil^Ltden liehen Wasserdampfes reversibel vor sich geht. Ferner kann auch die andere ^^^'^k^"***" mögliche Ursache der Irreversibilität, ein großer Temperaturunterschied zwi- schen den Verbrennungsgasen und dem Kesselwasser nur ungünstig sein. Es ist ja der Temperaturunterschied der beiden Wärmereservoire die notwendige Vorbedingung für die Arbeit der Maschine; diese Temperaturdifferenz muß da- her möglichst ausgenützt werden. Der Temperaturunterschied zwischen Wär- mereservoir und arbeitender Substanz wird aber gar nicht ausgenützt; je klei- ner er ist, desto zweckdienlicher ist die Maschine eingerichtet.

Wir sind leider nicht imstande, die Berechnung des größtmöglichen Wertes Formel für den von W hier genau wiederzugeben. Wir müssen uns damit begnügen, anzufüh- N^effekt ren, daß die zuerst von Clausius durchgeführte Analyse für diesen größten, der reversiblen Arbeitsweise entsprechenden Wert den Ausdruck:

A'W^Q.^-^^P^ (3)

ergeben hat.

Dieser Ausdruck lehrt, daß W nur von der Temperatur der beiden Wärme- reservoire abhängig ist; es kommt gar nicht auf die Beschaffenheit der Maschine an. Ob letztere eine Dampfmaschine, ein Heißluftmotor oder dergleichen ist, wenn sie nur reversibel arbeitet, sie liefert stets dasselbe Quantum Arbeit.

Der Bruch ^_^

^i + »73

ist stets kleiner als i, wenn t^ größer als 273 ® ist. Wenn dagegen ^j = 273 ° ist, so ist der Wert des Bruches i, und es wird -4 W = ßi, d. h. die gesamte von Ri abgegebene Wärme verwandelt sich in Arbeit. Verschiedene Erwägun- gen haben zu der Ansicht geführt, daß 273® die tiefste Temperatur ist, welche überhaupt möglich ist. Man nennt daher —273® den „absoluten Nullpunkt der Temperatur**, und die von 273® gerechnete Tempera- tur in Celsiusgraden die „absolute Temperatur**; d.h. man setzt T^ t + 273. Diese Definition ist ungenau; sie wird weiter unten (S. 688) richtig gestellt werden. Dann nimmt Gleichung (3) die Form

7* 7*

an. Setzt man ferner diesen Wert von A 'W in Gleichung (2) ein, so erhält nian: ^ ^ ^ ^ *

3, -I- 7; o. T, r, (4)

Diese Gleichui^^en gelten, wie gesagt, nur für den Fall, daß die Maschine Nats.ffekt reversibel arbeitet. Wenn das nicht der Fall ist, so ist die gewonnene Arbeit Itfam^wX."' kleiner; es ist dann:

T,

woraus

684 32. F. Hasenöhrl: Die Erhaltung der Energie und die Vermehrung der Entropie

folgt. Wir können allgemein

setzen, in welcher Gleichung das obere Zeichen für reversible, das untere für irreversible Arbeitsweise der Maschine gilt. Nntsbare Wir entnehmen all diesen Erwägungen, daß auch die vollkommenste, Energie, j-gy^j^j^j^j arbeitende Maschine, da kein Wärmereservoir von der Tempe- ratur — 273 ^ zur Verfügung steht, nicht die gesamte einem Reservoir ent- zogene Wärme in Arbeit verwandeln kann. Wir haben weiter oben aus der Be- obachtung alltäglicher Erscheinungen geschlossen, daß die Verwandlung von Wärme in Arbeit schwerer vor sich geht, als die umgekehrte Verwandlung von Arbeit in Wärme. Diese Beschränkung der Verwandelbarkeit der Wärme bleibt also auch bestehen, wenn wir uns nicht mit Vorgängen des gewöhnlichen Lebens begnügen, sondern wenn uns die denkbar beste, die reversibel arbeitende Ma- schine zur Verfügung steht.

Die Arbeit, die mechanische Energie, ist offenbar für uns wertvoller als Wärme; denn die erstere ist unbeschränkt in die Energieform überzuführen, welche gerade gebraucht wird, während dies von der Wärme nicht gilt. Man bezeichnet daher oft die Arbeit geradezu als die nutzbare Energie. Entwertung Vergegenwärtigen wir uns die Definition der positiven und der negativen

^*^' ^"*'^*' Energieverwandlungen, so sehen wir, daß die ersteren mit einer „Ent"wer- tung** der Energie verbunden sind. Daß dies von der (positiven) Verwand- lung von Wärme in Arbeit gilt, ist ohne weiteres klar. Aber auch die Verwand- lung von Wärme höherer Temperatur in Wärme tieferer Temperatur und der damit verbundene Temperaturausgleich hat eine derartige Entwertung der Energie zur Folge. Die Verwandlung von Wärme in nutzbare, mechanische Energie ist ja, wie wir eben ausführlich auseinandergesetzt haben, wesentlich an Temperaturdifferenzen gebunden; einem einzigen Wärmereservoir von gleichförmiger Temperatur kann keine nutzbare Energie entnommen werden. Ein Temperaturausgleich, das Verschwinden von Temperaturdifferenzen ist da- her ungünstig.

Wir haben anderseits erkannt, daß die positiven Verwandlungen in der Natur beständig, unbeschränkt vor sich gehen; die physikalischen und chemi- schen Vorgänge im Universum haben demnach eine ununterbrochene Entwer- tung der Energie zur Folge. Es besteht die Tendenz, alle mechanische Energie in Wärme zu verwandeln und alle Temperaturdifferenzen auszugleichen. Tondens Eiu uach außeu abgeschlossenes, endliches System strebt daher einem be-

In^utand! stimmten Zustande, einem Endzustande zu, der dadurch charakterisiert ist, daß alle Körper des Systems dieselbe Temperatur haben, und daß die ganze Bewegungsenergie in Wärme verwandelt ist, also alle Körper in Ruhe sind. Ist dieser Endzustand erreicht, so kann auch nicht der kleinste Teil der Ener^^ des Systems in Arbeit verwandelt, nutzbar gemacht werden. Obwohl die Ener- gie des Systems ihrem Betrage nach unverändert geblieben ist, ist sie doch ganz-

Entropie 685

lieh entwertet* Ein nach außen abgeschlossenes, relativ kleines System von Körpern, etwa eine in einem wärmeundurchlässigen Gefäße eingeschlossene Flüssigkeit erreicht diesen Endzustand in kurzer Zeit: Wenn auch anfangs die Flüssigkeit in Bewegung und in ihren verschiedenen Teilen auf verschiedener Temperatur war, so kommt sie doch bald zur Ruhe und nimmt eine in allen Teilen gleichförmige Temperatur an. Könnte man das Universum als ein end- liches, abgeschlossenes System ansehen, so müßte man auch der ganzen Welt einen derartigen, allerdings in weiter Ferne liegenden Endzustand prophezeien.

Der mathematische Ausdruck dieser Erkenntnis ist der Entropi es atz. Die Entropie, dessen Bedeutung wir im folgenden noch kurz skizzieren wollen. Die Entro- pie S eines Körpers ist eine Funktion des Zustandes, d. h. eine nur von den momentanen Werten des Druckes, der Temperatur und ev. der anderen Zustandsvariabeln abhängige Größe, deren Änderung bei reversibler Zustandsänderung (aber nur dann) gleich der zugeführten Wärme, dividiert durch die absolute Temperatur, ist. Man vergleiche diese Definition mit jener der Energie: Energie ist eine Funktion des Zustandes, deren Änderung der zugeführten Wärme, Arbeit usw. gleich ist.

Es soll also ^ Entropie-

50 Q /-\ äadcronjf

2 *^1 \5y bei reveraiblea

Prozessen.

sein, wobei S^ und S^ sich auf zwei Zustände l und 2 beziehen, deren letzterer unter Zufuhr der Wärme Q aus dem ersteren reversibel hervorgegangen ist. Die absolute Temperatur hat während des Vorgangs den konstanten Wert T, Falls sich die letztere während der Zustandsänderung verändert hat, was ja im allgemeinen der Fall ist, setzen wir:

wobei die rechte Seite dieser Gleichung die Summe aller zugeführten Wärme- mengen, jede durch den jeweiligen Wert der Temperatur dividiert bedeutet. (Eine andere Definition der Entropie ist in den Artikeln 5 und 12 gegeben.)

Unter der Entropie eines Systems von Körpern versteht man die Summe der Entropien der Bestandteile des Systems. (Die obige Definition setzt vor- aus, daß man von einer bestimmten Temperatur des betrachteten Körpers reden kann, daß also der Körper in allen Teilen dieselbe Temperatur hat. Ist das nicht der Fall, so denken wir uns den Körper in Teile geteilt, welche so klein sind, daß man jedem derselben eine bestimmte Temperatur zuschreiben kann, und setzt wieder die Entropie des ganzen Körpers gleich der Summe der Entropien seiner Teile.)

Die Entropie eines Körpers ist nach ihrer Definition eine Funktion des Zustandes und durch diesen allein gegeben; es ist ganz irrelevant, auf welche Weise, „auf welchem Wege** der betrachtete Körper in den momentanen Zu- stand gelangt ist; ob er den letzteren durch eine Reihe von reversiblen oder irreversibeln Zustandsänderungen erreicht hat, ist für den Wert der Entropie belanglos. Es ist demnach auch für die Differenz der Entropiewerte zweier auf- einander folgenden Zustände irrelevant, ob der betrachtete Körper durch re-

686 32. F. Hasbnöhrl: Die Erhaltung der Energie und die Vennehning der Entropie

versible oder irreversible Prozesse aus dem ersten Zustand in den rweiten ge- langt ist. Die Gleichung: ^iQ

Sz-S^^2jT (6)

gilt aber nur für den reversiblen Übergang aus dem Zustand l in den Zustand 2, d. h. die Entropiedifferenz zweier Zustände kann nur bei einem reversiblen Übergang durch Q/T gemessen werden. Damit also die Entropiedifferenz zweier Zustände gemessen werden kann, muß wenigstens die Möglichkeit eines reversiblen Überganges vom einen Zustande zum anderen vorausgesetzt werden. Entropie- Im Gegcusatz zur Gleichung (6) gilt für irreversible Vorgänge die Bezie-

änderang « bei irreversiblan "Ung : ^ q

Auf den Beweis dieser Relation gehen wir hier nicht näher ein, erwähnen jedoch, daß ihm wieder die Voraussetzung zugrunde liegt, daß außer dem in Betracht gezogenen irreversibeln Übergang von l nach 2 auch ein reversibler Prozeß existiert, der diese beiden Zustände ineinander überführt. Diese Vor- aussetzung läßt sich nicht allgemein beweisen, doch ist es gelungen, den meisten in der Natur stattfindenden Zustandsänderungen einen reversiblen Prozeß zu- zuordnen. Der letztere ist natürlich niemals streng realisierbar, er bleibt stets ein „Gedankenexperiment*'. Eben dieses Gedankenexperiment, der zur Berechnung der Entropie, oder vielmehr der Entropiedifferenz dienende rever- sible Prozeß charakterisiert die Methode der Thermodynamik gegenüber jener der anderen Kapitel der theoretischen Physik. Die Auffindung eines solchen, wenigstens prinzipiell reversiblen Prozesses, bietet freilich oft die größte Schwierigkeit.

Kombinieren wir die Beziehungen (6) und (7), so erhalten wir

5,-Si^2l'

worin das obere Zeichen für reversible, das untere für irreversible Prozesse gilt. Wenden wir diese Gleichung auf ein abgeschlossenes System an, das weder von außen Wärme erhält, noch solche nach außen abgibt, so sind sämtliche Größen Q gleich Null zu setzen, und wir erhalten:

^2 5i ^ o

Der d.h. die Entropie eines nach außen abgeschlossenen Systems kann EntropiosAt«.^^^ zuuehmeu; im Grenzfall der reversiblen Zustandsänderung bleibt die Entropie ungeändert.

Dieses grundlegende Theorem, der Entropiesatz, ist der mathematische Ausdruck der Tatsache, daß in der Natur alle Energieverwandlungen mit Vor- liebe in einem bestimmten Sinne vor sich gehen, daß ein abgeschlossenes Sy- stem die Tendenz hat, sich einem Endzustande zu nähern. Die Annähenmg an diesen Endzustand ist von Entropiezunahme begleitet; ist der Endzustand, das definitive Gleichgewicht erreicht, so hat die Entropie ihren größtmöglichen Wert, den Maximalwert.

Zunahme der Entropie. Freie Energie 687

Umgekehrt kann das Kriterium des definitiven, stabilen Gleichgewichtes darin gesehen werden, daß die Entropie des abgeschlossenen Systems den größ- ten, mit dem als gegeben anzusehenden Betrag der Energie verträglichen Wert besitzt. Die Auffindung des Gleichgewichtes ist daher mit der Auffin- dung des Zustandes größter Entropie identisch. Diese Methode ist hauptsäch- lich von W. Gibbs (1839— 1903) mit dem größten Erfolg zur Bestimmung der Bedingungen des chemischen Gleichgewichtes verwendet worden.

Wir wollen den Satz von der Vermehrung der Entropie noch an einigen Beispielen erläutern:

1. Das betrachtete System bestehe aus zwei Wärmereservoiren, deren ab- Anwendoag des solute Temperatur T^ bzw. T^ sei, und aus einer Wärmekraftmaschine, welche, ^J^ w^e- wie oben auseinandergesetzt wurde, zwischen den beiden Wärmereservoiren k«*«»"^^"«- läuft. Nach außen sei das System ganz abgeschlossen. Wie groß ist die Ände- rung der Gesamtentropie^ wenn die Maschine gerade eine Periode absolviert

hat? Die Entropie der arbeitenden Substanz hat nach Ablauf der Periode wieder denselben Wert wie zu Beginn; die arbeitende Substanz hat ja wieder den Anfangszustand, ihre Entropie wieder den Anfangswert erreicht. Dagegen hat dieEntropievonJ^n um QJT^ zugenommen, die Entropie von /?! uni QJT^ abgenommen, (ßa wurde dem Reservoir R^ zugeführt, ßi d^ni Reservoir Ri entzogen.) Die gesamte Änderung der Entropie des Systems, d. i. aller ins Spiel kommenden Körper ist nach dem früheren größer, oder min- destens gleich:

Dieser Ausdruck ist aber nach dem früheren gleich oder größer als Null, je nachdem der Vorgang reversibel oder irreversibel verlaufen ist; unter keiner Bedingung ist er negativ. Daher kann die Gesamtentropie unseres Systems nur zugenommen haben; bloß im Grenzfall der Reversibilität bleibt sie ungeände^.

2. Das betrachtete System bestehe aus zwei Körpern, die in Wärmeaus- Auf den irreyer- tausch durch Leitung oder Strahlung stehen. Der eine Körper, dessen Tempe- "^^I^JJT* ratur T^^ sein möge, soll etwa die Wärmemenge Q abgeben; der andere, dessen Temperatur 7"^ sei, erhält diese Wärme zugeführt. Die Entropie des ersten Körpers nimmt dann um Q/T^ ab, während jene des zweiten Körpers um Q/T^ zunimmt. Die Änderung der gesamten Entropie ist demnach:

r,+ T^'^^KT^'^Tj

Damit aber die Wärme Q tatsächlich vom erstgenannten Körper auf den zweiten übergehe, muß T^ größer sein als T^; es ist also i/Tj i/r^ > o. Die Änderung der gesamten Entropie ist wieder positiv.

3. Die Erzeugung von Wärme aus Arbeit, etwa durch Reibung hat auch Auf stets eine Zunahme der Entropie zur Folge. In diesem Falle wird ja den ins der Reibaags- Spiel kommenden Körpern Wärme ausschließlich zugeführt, es ist also Q/T ^*™*- positiv, woraus die Richtigkeit unserer Behauptung hervorgeht.

688 32. F. HasenÖHRL: Die Erhaltung der Energie und die Vermehrung der Entropie

Diese Beispiele werden genügen, dem Leser klar zu machen, daß positive Energieverwandlungen die Entropie vermehren, negative sie vermindern. Die ersteren können unkompensiert vor sich gehen; die letzteren müssen von posi- tiven Energieverwandlungen begleitet sein, welche die durch erstere bedingte Zunahme der Entropie zum mindesten wieder wett machen. Freie BnerKie. Eine wichtige Verwertung des Entropiebegriffes ist die folgende: Beziehen wir den allgemeinen Ausdruck des ersten Hauptsatzes, wie er etwa durch Glei- chung (l) Seite 671 gegeben ist, auf einen bei konstanter Temperatur verlaufen- den, „isothermen** Vorgang, so kann nach (5)

Q=T{S,-S,)

gesetzt werden. Daher nimmt Gleichung (i) die Form an:

woraus leicht

AW={U,-TS^-(U^-TS,)

folgt. Die Größe U TS, deren Bedeutung zuerst J.W. Gibbs erkannt hat, nannte H. v. Helmholtz freie Energie. Bezeichnen wir sie mit F, so ist

d. h. bei isothermer Zustandsänderung kann die dem Körper in Form von Arbeit zugeführte Energie durch die Zunahme der freien Energie gemessen werden. (Bei adiabatischer Zustandsänderung ist es die innere Energie U, deren Änderung gleich der Arbeit ist.)

Die vom Körper bei isothermer Zustandsänderung geleistete Arbeit ist gleich der Abnahme der freien Energie.

Diese Sätze gelten natürlich, ebenso wie (5) nur für den Fall der rever- siblen Zustandsänderung; verläuft der Prozeß irreversibel, so ist die geleistete Arbeit kleiner als die Abnahme der freien Energie.

Die freie Energie ist ebenso wie Energie U und Entropie 5 bloß Funktion des augenblicklichen Zustandes des betrachteten Körpers.

Da zahlreiche, namentlich chemische Vorgänge am leichtesten isotherm

beobachtet werden können, spielt die freie Energie in der physikalischen Chemie

eine wichtige Rolle.

Die Bei der Begründung und der mathematischen Formulierung des Entropie-

^emp^^^- Satzes spielt die Temperatur eine fundamentale Rolle. So haben wir uns über-

■kau (vgL zeugt, daß das Verhältnis der zugeführten und abgegebenen Wärmemengen

bei einem Carnotschen Kreisprozeß entsprechend (4) durch die Gleichung:

.gegeben ist. Unter T verstanden wir die absolute, d. h. die von 273 ® ab gezählte Celsiustemperatur. In dieser Definition liegt jedoch eine Ungenauig- keit, welche wir nunmehr richtig stellen wollen.

Wir machen uns vor allem klar, daß die durch die Ausdehnung des Queck- silbers festgelegte Celsiusskala eine vollkommen willkürliche Temperaturskala ist. Ebensogut wie das Quecksilber könnte ein anderer Körper die Rolle der

Absolute Temperaturskala 689

yythermometrischen Substanz'* spielen; er würde eine andere Temperaturskala liefern, die natürlich ebenso willkürlich wäre, wie die von Celsius. Es wäre nun von vornherein sehr unwahrscheinlich, daß eine so allgemeine und so einfache Beziehung wie Gleichung (4) gerade für die nach Celsiusgraden gemessene Temperatur gilt. Es ist 'das auch tatsächlich gar nicht der Fall; versteht man unter T die ab 273 ® gezählte Celsiustemperatur, so gilt Gleichung (4) nur angenähert, durchaus nicht genau. Es macht sich hier der Mangel einer ratio- nellen Temperatur definition geltend, dem durch Thomsons absolute Tem- peraturskala abgeholfen ist. Thomson benützt eben die Gleichung (4) zur Definition der Temperatur. Die linke Seite dieser Gleichung, das Verhält- nis zweier Wärmemengen ist ja durch Messung bestimmbar, prinzipiell ebenso- gut wie das Verhältnis der Volumina einer bestimmten Menge Quecksilber in zwei verschiedenen Zuständen. Es ist dann klar, daß alle die eben aufgestell- ten Beziehungen ganz exakt gelten müssen, wenn man, wie das auch geschieht, unter T die nach der Thomson sehen Skala gemessene Temperatur, die abso- lute Temperatur versteht.

Wir haben bereits festgestellt, daß die Relation (4) angenähert auch dann erfüllt ist, wenn die Temperatur mit dem Quecksilberthermometer gemessen wird. Daraus geht hervor, daß die Skala des letzteren nicht allzu sehr von der absoluten verschieden sein kann. Noch besser stimmt mit derselben die am Gasthermometer abgelesene Temperatur überein. (Bei „unendlicher** Ver- dünnung sind die Angaben des Gasthermometers mit der absoluten Skala identisch, vgl. Artikel 3.)

Die im vorhergehenden besprochenen Konsequenzen der beiden Wärme- Anwendung»- sätze stellen selbstredend nur einen sehr kleinen Bruchteil dessen dar, was uns doft*erdcn diese beiden Theoreme lehren. E^ sind ja alle Vorgänge in der Natur von ther- Hauptsäuo. mischen Erscheinungen begleitet; die thermodynamischen Hauptsätze sind daher für alle Gebiete der anorganischen Naturwissenschaft die obersten Prin- zipien. Vor allem gilt dies von den stets mit „Wärmetönungen** verbundenen chemischen Umwandlungen. Hier sind die beiden Hauptsätze die Basis einer außerordentlich bedeutungsvollen, neuen Wissenschaft, der physikalischen Chemie geworden. Ob auch die Vorgänge im lebenden Organismus den beiden Hauptsätzen gehorchen, ist, namentlich was den Entropiesatz anlangt, eine Frage, von deren Beantwortung wir heute noch sehr weit entfernt sind.

Besonderes Interesse beansprucht die Anwendung der Thermodynamik Anwondong aaf auf das Universum. Wir haben uns bereits weiter oben folgendes klar gemacht : ** "▼«"am. Wenn die Welt ein endliches, abgeschlossenes System ist, so bleibt ihre Energie konstant, während ihre Entropie einem Maximum zustrebt. Ist dasselbe er- reicht, so befindet sich das Universum im Zustande vollkommenen Gleichge- wichtes. Alle Bewegung hat aufgehört, alle Körper haben dieselbe Temperatur. Dieser Endzustand müßte zwar nach sehr langer, aber doch endlicher Zeit ein- treten. Da derselbe offenbar noch nicht erreicht ist, da die Entropie der Welt ihrem Maximalwert noch ferne ist, glaubten einige Forscher annehmen zu müssen, daß die Entropie der Welt vor sehr langer, aber doch vor endlich langer

K. d. G. m. m, Bd I Physik 44

1

6qo 32. F. Hasenöhrl: Die Erhaltung der Energie und die Vermehnmg der Entropie

Zeit durch ein mit den Naturgesetzen nicht in Einklang stehendes Ereignis vermindert worden sei und knüpften daran einen Gottesbeweis, der als eine wesentliche Verbesserung des alten Beweises vom ,, Primus Motor** angesehen wurde.

Derartige Spekulationen sind aber an die Voraussetzung der Endlichkeit des Universums gebunden. Nichts berechtigt uns zu dieser Annahme; weiter als die Leistungsfähigkeit unserer Fernrohre reicht unsere Kenntnis vom Welt- all nicht; ob das Universum endlich oder unendlich ist, ob in allen seinen Teilen die von uns beobachteten Naturgesetze gelten oder nicht, davon wissen wir nichts. Wert der Wir sind ferner jetzt in der Lage, den Wert der uns von der Natur zur Ver-

E^It^eforaen. Fügung gestellten Energiequellen besser einzuschätzen, als dies allein vom Standpunkte des Energiesatzes aus möglich war. Am wertvollsten ist die Ener- gie in Form von Arbeit, wie sie etwa eine Wasserkraft liefert. Der Wert der Wärme ist von der Temperatur abhängig. Nur die Wärme, deren Temperatur wesentlich höher ist als die ihrer Umgebung, kann z. T. nutzbar gemacht wer- den. Der Wärmeinhalt des Weltmeeres ist praktisch wertlos; die Energie der Kohle dagegen, die in Form von Verbrennungswärme hoher Temperatur zu- tage tritt, ist wertvoll.

Die in einem Strahlungsfelde, wie oben (S. 675) besprochen, aufgesammelte Sonnenwärme hätte trotz der hohen Sonnentemperatur bloß die Temperatur der Körper, welche eben die Sonnenstrahlen absorbieren; dieselbe wird nicht wesentlich höher sein als die der umgebenden Körper. Die auf diesem Wege gewonnene Energie wäre abo nur zum geringen Teile nutzbar zu machen; sie wäre relativ von geringem Werte. (Würde die Temperatur des die Sonnen- strahlen absorbierenden Körpers sehr hoch gehalten, so wäre die gewonnene Energie wertvoller.)

Dagegen läßt sich die Energie, welche der elektrische Strom liefert, leicht in allen Formen nutzbar machen. Es ist daher nicht zu verwundern, daß auch der Preis der elektrischen Energie ein relativ sehr hoher ist.

Literatur.

Betreffs der Entwicklung der Ansichten über das Wesen der Wärme vor der Ent- deckung der beiden Hauptsätze sei auf das bekannte Werk von £. Mach „Die Prinzipien der Wärmelehre" verwiesen. Der Leser findet dort eine äußerst anziehend geschriebene Darstellung der Arbeiten der älteren Forscher, welche es betrifft dies allerdings nur diese Kapitel auch dem der Physik ferner stehenden leicht verständlich ist. Auch die vor- liegende Darstellung ist, was das Historische betrifft, durch die Schriften Machs beeinflußt

Die erste Arbeit von Robert Julius Mayer „Bemerkungen über die Kräfte der un- belebten Natur'* ist in LiEBiG's Annalen XII. 1842 erschienen. In Zusanunenhang damit steht die später erschienene Schrift „Die organische Bewegung in ihrem Zusammenhang mit dem Stoffwechsel''. (Heilbronn 1845.)

Die grundlegenden Arbeiten von Joule sind in den Proceeding^ of the Royal Society in London sowie in der Zeitschrift Philosophical Magazine erschienen. Später ist eine Gesamtausgabe seiner Werke herausgegeben worden.

Literatur

691

Die Arbeiten von Mayer und jene von Joule sind auch in dem eben ätierten Werke von Mach ausführlich besprochen.

Clausius hat seine Entdeckungen in verschiedenen Zeitschriften veröffentlicht; er hat sie dann in seinem Werke „Die mechanische Wärmetheorie" zusammengefaßt. Desgleichen sind die Arbeiten von William Thomson in seinen „Mathematical and Physical Papers" ge- sammelt herausgegeben. Als Vorgänger von Clausius und Thomson ist der französische Physiker S. Carnot (1796 1832) anzusehen. Derselbe erkannte, dafi die Arbeitsleistung einer Wärmekraftmaschine an den Obergang von Wärme auf tiefere Temperatur gebunden ist. Da ihm aber der Energiesatz nicht bekannt war, konnte er zu keinem definitiven Re- sultate gelangen.

Außer den bereits zitierten grundlegenden Abhandlungen sollen hier noch folgende Werke angeführt werden, welche geeignet sind, ein tieferes Eindringen in das von uns be- handelte Gebiet zu vermitteln: Das bereits zitierte Buch, E. Mach „Die Prinzipien der Wärme- lehre". 2. Aufl. Leipzig 1900, iemer M. Planck „Das Prinzip der Erhaltung der Energie". 2. Aufl. Leipzig 1908.

Die eben genannten Werke sind wohl in erster Linie für den Fachmann geschrieben; von populären Darstellungen ist besonders zu empfehlen : H. v. Helmholtz „Über die Wechsel- wirkung der Naturkräfte und die darauf bezüglichen neuesten Ermittlungen der Physik". Femer von demselben „Ober die Erhaltung der Kraft". Diese beiden Schriften finden sich in den „Vorträgen und Reden" von Helmholtz, Braunschweig 1884. L. Boltzmann „Der zweite Hauptsatz der mechanischen Wärmetheorie". Populäre Schriften, Leipzig 1905.

44*

33. DAS PRINZIP DER KLEINSTEN WIRKUNG.

Von

Max Planck.

Binieitimg. Solangc es eine physikalische Wissenschaft gibt, hat ihr als höchstes er- strebenswertes Sei die Lösung der Aufgabe vorgeschwebt, alle beobachteten und noch zu beobachtenden Naturerscheinungen in ein einziges einfaches Prin- zip zusammenzufassen, welches gestattet, sowohl die vergangenen als auch be- sonders die zukünftigen Vorgänge aus den gegenwärtigen zu berechnen. Es hegt in der Natur der Sache, daß dieses Ziel weder heute erreicht ist, noch je- mals vollständig erreicht werden wird. Aber wohl ist es möglich, sich ihm im- mer mehr anzunähern, und die Geschichte der theoretischen Physik zeigt, dafi auf diesem Wege schon eine reiche Anzahl wichtiger Erfolge gewonnen werden konnte, welche deutlich dafür sprechen, daß das ideale Problem kein rein uto- pisches, sondern vielmehr ein eminent fruchtbares ist und daher gerade vom praktischen Standpunkt aus stets im Auge behalten zu werden verdient.

Unter den mehr oder weniger allgemeinen Gesetzen, welche die Errungen- schaften der physikalischen Wissenschaft in der Entwicklung der letzten Jahr- hunderte bezeichnen, ist gegenwärtig das Prinzip der kleinsten Wirkung (Ak- tion) wohl dasjenige, welches nach Form und Inhalt den Anspruch erheben darf, jenem idealen Endziel der theoretischen Forschung am nächsten zu kommen. Seine Bedeutung, in gehöriger Allgemeinheit aufgefaßt, erstreckt sich nicht allein auf mechanische, sondern auch auf thermische und elektrodynamische Erscheinungen, und in allen seinen Anwendungsgebieten gibt es nicht nur Auf- schluß über gewisse Eigenschaften der betreffenden physikalischen Vorgänge, sondern es regelt ihren räumlichen und zeitlichen Ablauf vollkommen eindeu- tig, indem es sämtliche darauf bezügliche Fragen beantwortet, sobald nur die nötigen Konstanten sowie die der Willkür unterliegenden äußeren Bedingungen gegeben sind.

Freilich ist diese zentrale Stellung des Prinzips der kleinsten Wirkung auch heute noch nicht ganz unbestritten. Besonders scharfe Konkurrenz machte ihm eine Zeitlang das Prinzip der Erhaltung der Energie, welches ebenfalls die gesamte Physik beherrscht und sicherlich den Vorteil größerer Anschaulich- keit voraus hat. Daher dürfte es sich empfehlen, zunächst die Stellung dieser beiden Prinzipien zueinander hier mit einigen Worten zu beleuchten. Verhältnis Das Priuzip der Erhaltung der Energie läßt sich aus dem Prinzip der

Encr^^^ixuip. klciusteu Wirkung ableiten, es ist also in ihm mitenthalten, während das Um- gekehrte nicht zutrifft. Daher ist das Energieprinzip das speziellere, das Prin-

VariatioDsprinzipien 693

zip der kleinsten Wirkung das umfassendere Gesetz. Nehmen wir, um dies an einem einfachen Beispiel zu erläutern, die Bewegung eines freien, keinerlei Kräf- ten unterworfenen materiellen Punktes. Nach dem Energieprinzip bewegt sich ein solcher Punkt mit konstanter Geschwindigkeit, aber über die Richtung der Geschwindigkeit sagt das Prinzip der Erhaltung der Energie nicht das min- deste aus, weil die kinetische Energie gar nicht von der Richtung abhängt. Die Bahn des Punktes könnte z. B. ebensogut eine geradlinige wie eine kreis- förmige sein. Das Prinzip der kleinsten Wirkung dagegen verlangt weiter, wie wir unten S. 698 ausführlicher besprechen werden, daß die Bahn des Punktes eine geradlinige ist.

Nun könnte man in dem vorliegenden einfachen Fall den Inhalt des Ener- gieprinzips noch durch gewisse einfache Annahmen zu ergänzen suchen, wie z. B. die, daß bei einem frei beweglichen Punkt nicht nur die gesamte kinetische Energie, sondern auch der auf eine bestimmte räumliche Richtung entfal- lende Teilbetrag der kinetischen Energie konstant bleibt; indessen eine solche Ergänzung wäre dem Energieprinzip an sich fremd und läßt sich auch schwer auf allgemeinere Fälle übertragen. So z. B. wird man für ein sphärisches Pen- del (schwerer Massenpunkt auf fester Kugelfläche) aus dem Energieprinzip nur die Folgerung herleiten können, daß die kinetische Energie des Pendeb bei der Aufwärtsbewegung in bestimmter Weise abnimmt, bei der Abwärtsbewegung zunimmt, aber die Bahnkurve läßt sich aus dieser Bedingung noch nicht ein- deutig bestimmen, während dagegen das Prinzip der kleinsten Wirkung eine jede auf die Bewegung bezügliche Frage vollständig beantwortet.

Der Grund für die verschiedene Tragweite der beiden Prinzipien liegt darin, daß das Prinzip der Erhaltung der Energie, auf einen bestimmten Fall angewendet, nur eine einzige Gleichung liefert, während man, um eine Bewegung vollständig zu kennen, ebensoviel Gleichungen braucht, als unabhängige Ko- ordinaten vorhanden sind, also für die Bewegung eines freien Punktes drei, für die Bewegung eines sphärischen Pendels zwei Gleichungen. Das Prinzip der kleinsten Wirkung aber liefert in jedem Falle gerade ebensoviel Gleichungen, als unabhängige Koordinaten vorhanden sind, und zwar vermag es diese Lei- stung, mehrere Gleichungen in einem einzigen Satz zusammenzufassen, des- halb zu vollbringen, weil es, im Gegensatz zum Energieprinzip, ein Variations- vanations. prinzip ist. Denn es greift aus einer unzähligen Schar von virtuellen, im Rah- p^'^p- men der vorgeschriebenen Bedingungen denkbaren Bewegungen durch ein ein- faches Kennzeichen eine ganz bestimmte Bewegung heraus und bezeichnet diese als die in der Natur wirklich stattfindende. Jenes Kennzeichen besteht darin, daß beim Übergang von der wirklichen Bewegung zu einer beliebigen unendlich benachbarten virtuellen Bewegung, d. h. bei einer jeden mit den vor- geschriebenen Bedingungen verträglichen unendlich kleinen Variation der wirk- lichen Bewegung, eine gewisse, für die Variation charakteristische Größe den Wert Null annimmt. Aus dieser Bedingung erhält man, wie bei jedem Maxi- mum- oder Minimumproblem, für jede unabhängige Koordinate eine besondere Gleichung.

5q4 33- Max Planck: Das Prinzip der kleinsten Wirkung

Nun versteht es sich, daß der Inhalt des Prinzips der kleinsten Wirkung erst dann einen bestimmten Sinn erhält, wenn sowohl die vorgeschriebenen Bedingungen, denen die virtuellen Bewegungen unterworfen werden müssen, als auch die charakteristische Größe, welche für jede beliebige Variation der wirklichen Bewegung verschwinden soll, genau angegeben werden, und die Auf- gabe, hier die richtigen Festsetzungen zu treffen, bildete von jeher die eigent- liche Schwierigkeit in der Formulierung des Prinzips der kleinsten Wirkung. Aber nicht minder einleuchtend dürfte es erscheinen, daß schon der Gedanke, die ganze Schar der Gleichungen, welche zur Charakterisierung der Bewegungen beliebig komplizierter mechanischer Systeme erforderlich sind, in ein einziges Variationsprinzip zusammenzufassen, für sich allein genommen von eminenter Bedeutung ist und einen wichtigen Fortschritt in der theoretischen Forschung darstellt.

In diesem Zusammenhange darf gewiß an Leibniz' Theodizee erinnert werden, in welcher der Grundsatz aufgestellt wird, daß die wirkliche Welt unter allen Welten, die hätten geschaffen werden können, diejenige sei, die ne- ben dem unvermeidlichen Übel das Maximum des Guten enthält. Dieser Grund- satz ist nichts anderes als ein Variationsprinzip, und zwar schon ganz von der Form des nachmaligen Prinzips der kleinsten Wirkung. Die unvermeidliche Verkettung des Guten und Üblen spielt dabei die Rolle der vorgeschriebenen Bedingungen, und es ist klar, daß sich aus diesem Grundsatz in der Tat sämt- liche Eigentümlichkeiten der wirklichen Welt bis ins einzelne ableiten ließen, sobald es gelänge, einerseits den Maßstab für die Quantität des Guten, ander- seits die vorgeschriebenen Bedingungen mathematisch scharf zu formulieren. Das zweite ist genau so wichtig wie das erste.

Aber ehe sich die leere Form unseres Prinzips mit fruchtbarem Inhalt fül- len konnte, war noch ein weiter Weg zurückzulegen. Vor allem kam es darauf an, die charakteristische Größe kennen zu lernen, deren Wert für die wirkliche Bewegung gleich Null werden soll. Man kann hier gleich zu Anfang von zwei verschiedenartigen Auffassungen ausgehen. Nach der einen bezieht man die charakteristische Größe auf einen einzelnen Zeitpunkt oder auf ein unendlich kleines Zeitelement, nach der anderen dagegen auf ein endliches Zeitintervall der Bewegung. Je nachdem man sich für die erste oder die zweite Auffassung ent- scheidet, gelangt man zu zwei verschiedenen Klassen von Variationsprinzipien.

Zu der ersten Klasse gehört das Bernoullische Prinzip der virtuellen Verschiebungen, das d' Alembertsche Prinzip des Trägheitswiderstandes, das Gaußsche Prinzip des kleinsten Zwanges, das Hertzsche Prinzip der gerade- sten Bahn. Alle diese Variationsprinzipien kann man als Diff erentialprinzipien bezeichnen, insofern sie das charakteristische Kennzeichen der wirklichen Be- wegung in eine Eigenschaft der Bewegung verlegen, die für einen einzelnen Zeitpunkt oder ein Zeitelement Bedeutung hat. Für mechanische Systeme ist ein jedes von ihnen vollkommen äquivalent mit jedem anderen und mit den Newtonschen Bewegungsgesetzen. Aber sie leiden alle an dem Nachteil, daß sie nur für mechanische Vorgänge einen Sinn haben, und daß ihre Formulie-

Differential- und Integralprinzipien 695

rung ein Eingehen auf die speziellen Punktkoordinaten des betrachteten Mas- sensystems notwendig macht. Je nach der Wahl der Punktkoordinaten fällt ihre Fassung ganz verschieden und meistenteils verhältnismäßig kompliziert und unübersichtlich aus.

Von diesem Übelstand, der Unentbehrlichkeit spezieller mechanischer Punktkoordinaten, kann man sich frei machen, wenn man das Variationsprin- zip als Integralprinzip auffaßt, dadurch, daß man es von vornherein auf ein integraipniuip. endliches Zeitintervall bezieht. Dann ist unter allen virtuellen Bewegungen die wirkliche Bewegung durch die Eigenschaft ausgezeichnet, daß für irgendeine zulässige Variation von ihr ein gewisses Zeitintegral verschwindet. In den wichtigsten Fällen läßt sich diese Bedingung auch so aussprechen, daß für die wirkliche Bewegung ein gewisses Zeitintegral, welches als die Wirkungs große oder die Aktion der Bewegung bezeichnet wird, kleiner ist, als für jede belie- bige andere mit den vorgeschriebenen Bedingungen verträgliche Bewegung. Dabei ist für einen einzelnen materiellen Punkt die Aktion, nach Leibniz, gleich dem Zeitintegral der kinetischen Energie, oder, was auf dasselbe hinaus- kommt, gleich dem Wegintegral der Geschwindigkeit.

In dieser Fassung läßt sich das Prinzip der kleinsten Wirkung aussprechen, ohne auf irgendwelche speziellen Punktkoordinaten Bezug zu nehmen, ja ohne überhaupt einen mechanischen Vorgang vorauszusetzen; denn in seiner Formu- lierung spielt nur die Energie und die Zeit eine Rolle. Freilich kommt durch die Einführung des Zeitintegrals ein besonderer Umstand ins Spiel, der von jeher und auch wohl noch heutzutage bei manchen Physikern und Erkenntnistheo- retikern gegen das Prinzip der kleinsten Wirkung, wie überhaupt gegen jedes Integralprinzip, gewisse Bedenken zu erregen geeignet scheint. E^ wird näm- lich dabei die wirkliche Bewegung zu einer bestimmten Zeit berechnet mit Hilfe der Betrachtung einer späteren Bewegung, es wird also der gegenwärtige Zustand gewissermaßen abhängig gemacht von späteren Zuständen, und da- durch bekommt das Prinzip einen gewissen teleologischen Beigeschmack. Wer sich nun allein an das Kausalitätsprinzip hält, der wird verlangen, daß, wie die Ursachen, so auch alle Eigenschaften einer Bewegung allein aus früheren Zu- ständen verständlich und ableitbar hingestellt werden, ohne alle Rücksicht auf das, was später einmal passieren wird. Das erscheint nicht nur ausführbar, sondern auch als eine direkte Forderung der Denkökonomie. Wer dagegen in dem System der Naturgesetze nach höheren, möglichst übersichtlichen Ver- knüpfungen sucht, der wird, im Interesse der erstrebten Harmonie, von vorn- herein auch solche Hilfsmittel für zulässig halten, wie die Bezugnahme auf Er- eignisse späterer Zeiten, welche für die vollständige Beschreibung der Natur- vorgänge zwar nicht gerade notwendig, aber doch vielleicht bequem zu hand- haben und anschaulich zu deuten sind. Ich erinnere daran, daß man in der mathematischen Physik, nur um die Symmetrie der Gleichungen aufrechtzu- erhalten, oft darauf verzichtet, die zu berechnenden Größen auf die unabhängi- gen Variablen selber zu reduzieren, und lieber eine oder mehrere überflüssige Variable in den Rechnungen mitführt, lediglich um den rein formalen, aber

ÖQÖ 33- Max Planck: Das Prinzip der kleinsten Wirkung

höchst praktischen Vorteil auszunutzen, den die Erhaltung der Symmetrie ge- währt.

Die moderne Physik hat seit Galilei ihre größten Erfolge in der bewußten Abkehr von jeglicher teleologischen Betrachtungsweise errungen, sie verhält sich daher auch heute mit Recht ausgesprochen ablehnend gegen alle Versuche, das Kausalitätsgesetz mit teleologischen Gesichtspunkten zu verquicken. Aber wenn für die Formulierung der Gesetze der Mechanik die Einführung endlicher Zeitintervalle unnötig ist, so wird man dennoch die Integralprinzipien deshalb nicht gleich von vornherein verwerfen dürfen. Die Frage nach ihrer Berechti- gung hat mit Teleologie gar nichts zu tun, sie ist vielmehr eine rein praktische und läuft darauf hinaus, ob die Formulierung der Naturgesetze, wie sie die In- tegralprinzipien gewähren, für die Zwecke der theoretischen Physik mehr leistet als andere Formulierungen, und diese Frage muß von dem heutigen Standpunkt der Forschung aus bejaht werden, schon wegen der bereits erwähnten Unab- hängigkeit von der speziellen Wahl der Punktkoordinaten. Das volle Verständ- nis nicht nur für die praktische Bedeutung, sondern sogar für die Notwendigkeit der Einführung endlicher Zeitintervalle in die Grundprinzipien der Mechanik wird freilich erst, wie wir später sehen werden, durch das moderne Prinzip der Relativität vermittelt.

In der bisher besprochenen Formulierung des Prinzips der kleinsten Wir- kung war noch keine Rücksicht genommen auf die den virtuellen Bewegungen vorzuschreibenden Bedingungen, und doch sind diese von genau derselben Wich- tigkeit wie die Aktionsgröße selbst, da je nach der Art der vorgeschriebenen Bedingungen der Inhalt des Prinzips einen ganz verschiedenen Sinn annimmt. Es kommt eben nicht allein auf das Merkmal an, nach welchem die Auswahl getroffen wird, sondern auch auf die Natur der Bewegungen, welche zur Aus- wahl gestellt werden. Freilich hat es lange gedauert, bis dieser Umstand, dessen Außerachtlassung zu manchen verhängnisvollen Fehlern geführt hat, zur klaren Erkenntnis gelangte und damit das Prinzip der kleinsten Wirkung die erste Geichichto korrektc Fassung erhielt. Wenn man die Entdeckung des Prinzips auf diesen ** ***' Zeitpunkt ansetzt, so wird man erst Lagrange das Verdienst derselben zu- schreiben dürfen. Indessen mit einer solchen Bewertung würde man den Män- nern unrecht tun, welche den Boden vorbereitet und das Werk begonnen haben, das Lagrange später zum glücklichen Abschluß bringen konnte. Zu ihnen ge- hört zunächst Leibniz, und zwar hauptsächlich nach einem im Original ver- loren gegangenen Briefe vom Jahre 1707, dann Maupertuis und Euler.

Vor allem war es Moreau de Maupertuis, der von Friedrich dem Großen ernannte Präsident der Preußischen Akademie der Wissenschaften (1746—1759), welcher die Existenz und die Bedeutung des Wirkungsprinzips nicht nur erkannte, sondern auch mit Einsetzung seiner ganzen Persönlichkeit innerhalb und außerhalb der Wissenschaft zur Geltung zu bringen suchte. Freilich steht der bis zur Reizbarkeit sich steigernde Elifer, mit welchem Mau- pertuis sein Prinzip der Mitwelt unter immer neuen Formen verkündete und nach allen Richtungen gegen oft berechtigte Ausstellungen verteidigte, in eini-

Moreau de Maupertuis 5g ^

gern Kontrast zu dem wissenschaftlichen Wert der Formulierung, die er als die passendste erkannt zu haben glaubte, und man wird den Gedanken nicht ab- weisen können, daß die eigentliche Triebfeder seines energischen Festhaltens an sachlich unzureichenden Thesen nicht allein der wissenschaftlichen Über- zeugung, sondern mindestens im gleichen Grade der festen Absicht entsprang, sich die Priorität einer Entdeckung, die er als sein wichtigstes Lebenswerk be- trachtete, unter allen Umständen zu sichern. Dafür spricht besonders die sonst schier unbegreifliche leidenschaftliche Verblendung, mit welcher er, die ihm übertragene hohe Stellung bis an die Grenze des Mißbrauches ausnutzend, die Echtheit des oben erwähnten von dem Professor Samuel König (1751) pro- duzierten Briefes von Leibniz bestreiten zu müssen glaubte. Allerdings hat sich menschliche Schwäche und Eitelkeit wohl in keinem Falle bitterer gerächt als bei dem Präsidenten der Berliner Akademie. Die erschütternden Wechsel- fälle, welche sogar den großen königlichen Philosophen wiederholt zum Ein- schreiten veranlaßten, haben die Historiographen wiederholt zu eingehender Darstellung gereizt und sind auch mehrfach in akademischen Reden, von A.Mayer (1877), H. v. Helmholtz (1887), E. du Bois-Reymond (1892), H. Diels (1898), zu lebendigem Ausdruck gelangt. Ihr Zusammenhang mit der allgemeinen Entwicklung der mathematischen Wissenschaft ist in Can- tors Geschichte der Mathematik^), ihre Bedeutung für die Berliner Akademie in Harnacks Geschichte dieser Körperschaft*) beleuchtet worden.

Die Maupertuissche Formulierung des Prinzips der kleinsten Wirkung besagt nichts weiter, als daß ,,die zu den in der Natur geschehenen Veränderun- gen verwendete Menge von Aktion stets ein Minimum ist**, sie läßt also streng genommen überhaupt keinen Schluß auf die Gesetze der Veränderungen zu. Denn solange eine Festsetzung der von den virtuellen Veränderungen zu erfül- lenden Bedingungen fehlt, ist noch gar nichts darüber gesagt, welche Verände- rungen miteinander verglichen werden sollen. Um diese Lücke klar zu sehen, fehlte Maupertuis die analytische Kritik; indessen wird man den Mangel um so begreiflicher finden, wenn man erwägt, daß selbst L. Euler, der seinem Kol- legen und Freunde in der Verteidigung seines Prinzips beiseite stand, und der ihn als Mathematiker jedenfalls weit überragte, nicht bis zu einer korrekten For- mulierung durchzudringen vermochte.

Das eigentliche Verdienst von Maupertuis bestand vielmehr darin, daß er überhaupt nach einem Minimumprinzip suchte. Dies war der eigentliche Leitstern seiner Spekulation. Daher zog er auch das Fer matsche Prinzip, das sog. Prinzip der schnellsten Ankunft, mit herein, obwohl dasselbe mit dem Prin- zip der kleinsten Wirkung nur in einem sehr indirekten, für die damalige Physik jedenfalls unerkennbaren Zusammenhang steht. Und diesem Interesse für das Minimumprinzip lag in letzter Linie der metaphysische Gedanke zugrunde, daß sich in der Natur das Walten der Gottheit offenbare, daß daher jedem Natur- vorgang eine Absicht zugrunde liege, die auf ein bestimmtes Ziel gerichtet ist, und die dieses Ziel auf dem direktesten Wege, mit den tauglichsten Mitteln, zu erreichen weiß.

698 33« Max Planck: Das Prinzip der kleinsten Wirknng

Wie unzulänglich, ja irreführend derartige teleologische Betrachtungen sein können, erkennt man am besten, wenn man bedenkt, daß in Wirklichkeit das Prinzip der kleinsten Wirkung, ganz allgemein gefaßt, gar kein Minimum- prinzip ist. So z. B. gilt der Satz, daß die Bahn eines auf einer Kugel frei be- weglichen, keiner treibenden Kraft ausgesetzten Massenpunktes die kürzeste Verbindungslinie seiner Anfangs- und Endlage darstellt, nicht mehr, wenn die Bahn länger ist als die halbe Peripherie eines größten Kreises auf der Kugel. Über die halbe Peripherie hinaus dürfte also die göttliche Voraussicht nicht mehr zu wirken imstande sein. Noch schlagender ist die Berücksichtigung des Umstandes, daß bei „nichtholonomen** Systemen (vgl. Artikel l S. 71} die virtuellen Bewegungen gar nicht einmal zu den möglichen Bewegungen gehören, wodurch die Minimumbedingung ganz ihren Sinn verliert.

Aber trotz alledem verdient doch wohl die unumstößliche historische Tat- sache im Auge behalten zu werden, daß die feste Überzeugung von einem innigen Zusammenhang der Naturgesetze mit dem Walten einer höchsten In- telligenz den eigentlichen Ausganppunkt der Entdeckung des Prinzips der klein- sten Wirkung gebildet hat, und weiter, daß ein solcher Glaube, falls er nicht von vornherein in zu enge Schranken gepreßt wird, sich zwar gewiß nicht be- weisen, aber auch ebenso gewiß niemals widerlegen läßt. Denn man wird schließlich jeglichen etwa auftauchenden Widerspruch immer wieder auf eine unzureichende Formulierung schieben können.

J. L. Lagrange war der erste, der dem Prinzip der kleinsten Wirkung eine korrekte Fassung gab (1760). Unter allen Bewegungen, die ein System von materiellen Punkten bei konstanter Gesamtenergie aus einer bestimmten Anfangslage in eine bestimmte Endlage bringen, macht die wirkliche Bewegung die Aktion zu einem Minimum. Die virtuellen Bewegungen müssen also dem Energieprinzip genügen, sie dürfen dagegen beliebige Zeit in Anspruch nehmen. Nach dieser Fassung ist die Bahn eines einzelnen Massenpunktes, ohne treibende Kraft, diejenige, auf der er mit konstanter Geschwindigkeit in der kürzesten Zeit sein Ziel erreicht. Dies ergibt als Bahnkurve eine Linie von kürzester Länge, d. h. für einen freien Punkt eine Gerade.

Später zeigten C. G. J. Jacobi und W. R. Hamilton, daß das Prinzip noch ganz andere Fassungen zuläßt. Besonders wichtig für die Zukunft wurde die Hamiltonsche Formulierung, bei der die verglichenen virtuellen Bewegun- gen nicht konstante Gesamtenergie zu besitzen brauchen, aber statt dessen alle in der nämlichen Zeit erfolgen müssen. Dann muß man aber die Aktion, die für die wirkliche Bewegung einen Minimalwert annimmt, nicht mehr aus- drücken durch das Maupertuissche Zeitintegral über die kinetische Energie, sondern durch das Zeitintegral über die Differenz von kinetischer und poten- tieller Energie. In der Anwendung auf das obige Beispiel eines sich ohne trei- bende Kräfte bewegenden Massenpunktes ergibt dann das Prinzip als Bahn- kurve unter allen möglichen Kurven diejenige, auf welcher der Punkt in einer bestimmten 2^it mit der kleinsten Geschwindigkeit sein Ziel erreicht, also wiederum eine Linie von kürzester Länge.

Verschiedene Fassungen des Prinzips 699

Bezeichnenderweise übte das Prinzip der kleinsten Wirkung, auch nach- dem es durch Lagrange in der Mechanik vollständig legitimiert worden war, anfangs keinen bedeutenden praktischen Einfluß auf den Fortschritt der Wis- senschaft aus. Man betrachtete es mehr als eine mathematische Kuriosität, als ein interessantes, aber doch entbehrliches Anhängsel der Newtonschen Be- *

wegungsgesetze. Noch im Jahre 1837 konnte es Poisson „nur eine unnütze Regel" nennen. Erst als in den Untersuchungen von Thomson und Tait, G. Kirchhoff, C. Neumann, L. Boltzmann u. a. das Prinzip sich als ein für die Lösung hydrodynamischer und elastischer Probleme vortrefflich brauch- bares Werkzeug erwies, während die anderen Methoden der Mechanik z. T. schwerfälliger arbeiteten, z. T. ganz versagten, bereitete sich ein Umschwung vor: man begann seinen heuristischen Wert zu schätzen. Thomson und Tait sagen darüber (1867): „Maupertuis* berühmtes Prinzip der kleinsten Wir- kung ist bis jetzt mehr als eine sonderbare und etwas verwirrende Eigenschaft der Bewegung, denn als ein nützlicher Führer in kinetischen Forschungen an- gesehen worden. Wir haben aber die feste Überzeugung, daß man demselben eine viel tiefere Bedeutung beilegen wird, nicht nur in der abstrakten Dynamik, sondern auch in der Theorie mehrerer Zweige der Physik, die jetzt anfangen, dynamische Erklärungen zu erhalten.*'

Allerdings zeigte es sich auch, daß man in der Anwendung des Prinzips, namentlich bei der Formulierung der den virtuellen Verschiebungen vorzu- schreibenden Bedingungen, die größte Vorsicht üben muß, um nicht in Fehler zu verfallen. So genügt es z. B. bei der Anwendung auf die Bewegung fester Körper in einer reibungs- und rotationslosen Flüssigkeit im allgemeinen nicht, daß man Anfangslage und Endlage der festen Körper unvariiert läßt; man muß auch Anfangslage und Endlage aller Flüssigkeitsteilcben unvariiert lassen. Ein Versehen anderer Art machte H. Hertz, als er, in der Einleitung zu seiner Me- chanik, das Prinzip der kleinsten Wirkung auf die Bewegung einer auf einer horizontalen Ebene rollenden Kugel anwandte und dabei für die virtuellen Ver- schiebungen eine bei nichtholonomen Systemen unzulässige Bedingung auf- stellte. Um die Aufklärung dieses Umstandes haben sich besonders O. Holder und A. Voß verdient gemacht (vgl. Artikel i S. 72).

Die eigentliche fundamentale Bedeutung des Prinzips der kleinsten Wir- Unabwiagigkeit kung gelangte aber erst zu allgemeinerer Erkenntnis, als sich seine Anwend- M^ha^ barkeit auch auf solche Systeme zeigte, deren Mechanismus entweder überhaupt unbekannt, oder doch so kompliziert ist, daß man an eine Zurückführung auf gewöhnliche Koordinaten nicht denken kann. Nachdem schon L. Boltzmann und später R. Clausius den nahen Zusammenhang des Prinzips mit dem zweiten Hauptsatz der Thermodynamik erkannt hatten, gab H. v. Helmholtz (1886) zum ersten Male von einem möglichst umfassenden Standpunkt aus eine systematische Zusammenstellung aller zurzeit möglichen Anwendungen des Prinzips auf die drei großen Gebiete der Physik: Mechanik, Elektrodyna- mik, Thermodynamik, die durch ihre Vielseitigkeit und Fülle überraschen mußte.»)

yoo 33* Max Planck: Das Prinzip der kleinsten Wirkung

Helmholtz wählte für seine Rechnungen die Hamiltonsche Form des Wirkungsprinzips als die bequemste und versah sie noch mit einigen Erweite- rungen mehr formaler Natur. Die Größe, deren Zeitintegral die Hamiltonsche Aktion darstellt, bezeichnet er als ,, kinetisches Potential**. Dabei behielt er freilich noch die Voraussetzung bei, daß das Wirkungsprinzip im Grunde ein mechanisches sei; aber diese Beschränkung tritt jetzt schon etwas zurück, denn tatsächlich brauchte er bei vielen betrachteten Systemen, wie z. B. galvani- schen Strömen, Magneten, auf deren spezielle mechanische Konstitution gar nicht einzugehen. Dagegen vollzog Helmholtz schon damals den entscheiden- den Schritt, der darin besteht, daß er das kinetische Potential nicht, wie bisher immer geschehen, aus der Energie ableitete, als Differenz von kinetischer und potentieller Energie, sondern daß er umgekehrt das kinetische Potential als die primäre Größe voranstellte, und daraus, wie alle übrigen Gesetze der Bewegung, so auch die Größe der Energie bestimmte.

Der Erfolg dieser neuen Betrachtungsweise zeigte sich hauptsächlich in einer sofort in die Augen springenden wichtigen Verallgemeinerung. Das kine- tische Potential ist nämlich, im Gegensatz zur Energie, nicht nur seiner ana- lytischen Form, sondern auch seiner Größe nach verschieden je nach der Wahl der unabhängigen Variablen; hierfür ein Beispiel. Man kann einige der Be- wegungsgleichungen benutzen, um mit ihrer Hilfe die Zahl der unabhängigen Variablen entsprechend zu reduzieren. Die eliminierten Variablen sind dann aus dem Wirkungsprinzip ganz verschwunden, sie entsprechen sog. verborge- nen Bewegungen. In jedem solchen Falle nimmt nun das kinetische Potential eine andere Größe an, und daraus erklären sich z. B. die verschiedenartigen Potentialausdrücke, auf die man in der Thermodynamik stößt, je nach der Wahl der unabhängigen Variablen. Helmholtz zeigte, wie diese verschiedenen Aus- drücke miteinander zusammenhängen und auseinander hervorgehen, er zeigte auch, daß das kinetische Potential eine Form annehmen kann, in der es gar nicht mehr als Differenz von kinetischer und potentieller Energie erscheint. Gerade dieser Umstand läßt die Universalität des Wirkungsprinzips besonders deutlich erkennen; denn außerhalb der Mechanik ist eine Unterscheidung zwi- schen kinetischer und potentieller Energie gar nicht mehr möglich, es fällt also dort auch die Möglichkeit fort, das kinetische Potential eindeutig aus der Ener- gie abzuleiten, während das Umgekehrte in jedem Falle leicht und einfach ist.

Konnte Helmholtz, wenigstens im Prinzip, noch an der Voraussetzung festhalten, daß alle physikalischen Vorgänge sich in letzter Linie auf Bewegun- gen einfacher Massenpunkte zurückführen lassen, so ist die Durchführbarkeit dieser Annahme, wenigstens was die elektrodynamischen Vorgänge betrifft, seitdem zum mindesten recht zweifelhaft geworden. Nicht zweifelhaft aber ist nach allen bisherigen Ergebnissen, daß das Prinzip der kleinsten Wirkung seine Anwendbarkeit und Fruchtbarkeit gerade auch auf diesem Gebiet der außer- mechanischen Physik, namentlich der Elektrodynamik des reinen Vakuums, voll bewährt. Ohne irgendwelcher mechanischen Hypothese zu benötigen, ha- ben J. Larmor (1900), H. Schwarzschild (1903) u. a. die Grundgleichungen

Unabhängigkeit von der Mechanik yoi

der Elektrodynamik und Elektronen theorie aus dem Hamiltonschen Prinzip abgeleitet.

Somit hat sich beim Prinzip der kleinsten Wirkung ganz dieselbe Ent- wicklung vollzogen, wie etwas früher beim Prinzip der Erhaltung der Energie, Auch dieses galt anfangs allgemein als ein mechanisches Prinzip, ja seine All- gemeingültigkeit wurde eine Zeitlang direkt als Beweis zugunsten der mechani- schen Naturanschauung ins Feld geführt. Heute ist die mechanische Natur- anschauung stark ins Wanken geraten, während an der Universalität des Prin- zips der Energie niemand ernsthaft zu zweifeln Veranlassung hat. Wollte man heute das Wirkungsprinzip noch als ein speziell mechanisches Prinzip ansehen, so würde man sich einer ähnlichen Einseitigkeit schuldig machen.

Den glänzendsten Erfolg aber hat das Prinzip der kleinsten Wirkung er- Relativitäts- rungen, als es sich zeigte, daß es sogar in der modernen Einst einschen Theorie ^"^^' der Relativität (vgl. Artikel 34), welche so zahlreiche physikalische Theoreme ihrer Universalität beraubt hat, nicht nur Gültigkeit behält, sondern unter allen physikalischen Gesetzen die höchste Stelle einzunehmen geeignet ist. Dies hat im wesentlichen darin seinen Grund, daß die Hamiltonsche (nicht dieMauper- t u i s sehe) Wirkungsgröße invariant ist in bezug auf jede L o r e n t z transf ormation, d. h. daß sie unabhängig ist von dem speziellen Bezugssystem des messenden Be- obachters. In dieser fundamentalen Eigenschaft steckt auch eine tiefere Erklä- rung für den oben (S. 694) ausführlich besprochenen, auf den ersten Anblick nachteilig auffallenden Umstand, daß die Wirkungsgröße sich auf einen Zeit- raum und nicht auf einen Zeitpunkt bezieht. In der Theorie der Relativität spielt nämlich die Zeit eine durchaus analoge Rolle wie der Raum. Die Auf- gabe, aus dem für einen bestimmten Zeitpunkt gegebenen Zustand eines Kör- persystems die Vorgänge der Zukunft und der Vergangenheit zu berechnen, ist nach dem Relativitätsprinzip von genau derselben Art, wie die andere Aufgabe, aus den Vorgängen, die sich zu verschiedenen Zeiten in einer bestimm- ten Ebene abspielen, die Vorgänge vor und hinter der Ebene zu berechnen. Wenn die erstere Aufgabe gewöhnlich als das eigentliche Problem der Physik bezeichnet wird, so liegt darin streng genommen eine willkürliche und unsach- liche Beschränkung, die nur dadurch ihre historische Erklärung findet, daß ihre Lösung für die Menschheit in den weitaus meisten, nicht in allen, Fällen prak- tisch nützlicher ist als die zweite. So gut nun die Berechnung der Wirkungs- größe eines Körpersystems eine Integration über den von den Körpern eingenom- menen Raum erfordert, ebenso muß, damit der Raum nicht vor der Zeit bevor- zugt wird, die Wirkungsgröße auch ein Zeitintegral enthalten. Denn erst Raum und Zeit zusammengenommen bilden die „Welt", auf die sich die Wirkungs- größe bezieht.

Wie das Prinzip der kleinsten Wirkung, so erhält auch das Prinzip der Er- haltung der Energie in der Relativitätstheorie seine bestimmte Stelle angewie- sen. Die Energie ist aber nicht invariant gegen Loren tz transf ormationen, wie sie es früher auch gegen Galilei transf ormationen*) nicht war (vgl. Artikel i S. 45, wo statt Galileitransformation der Ausdruck Newtontransformation

J02 33* Max Planck: Das Prinzip der kleinsten Wirkung

gebraucht ist). Denn in ihr spielt die 2^it eine bevorzugte Rolle. Das ent- sprechende Korrelat für den Raum ist das Prinzip der Erhaltung der Bewegungs- große. Über beiden Prinzipien aber thront, sie gemeinsam umfassend, das Prin- zip der kleinsten Wirkung, welches somit alle reversiblen Vorgänge der Physik zu beherrschen scheint. Für die Irreversibilität liefert es freilich keine Er- klärung; denn nach ihm kann ein jeder Vorgang, ebenso wie im Räume, so auch in der Zeit nach jeder beliebigen Richtung, vorwärts und rückwärts, verlaufen. Das Problem der Irreversibilität entzieht sich daher der Besprechung an dieser Stelle.

Lietratur.

£. MACH: Mechanik, Drittes Kapitel.

^) M. Cantor: Vorlesungen über die Geschichte der Mathematik 3, S. 579.

*) A. HarnacK: Geschichte der KönigL preußischen Akademie der Wissenschaften zu

1, erste Hälfte, S. 317. *) H. V. Helmholtz: Wissenschaftliche Abhandlungen 3, S. 103. ^) M. LAUE: Das Relativitätsprinzip, S. 3.

34. DIE RELATIVITÄTSTHEORIE.')

Von

Albert Einstein.

Es ist kaum möglich, sich ein selbständiges Urteil über die Berechtigung der Relativitätstheorie zu bilden, wenn man nicht einigermaßen die Erfah- rungen und Gedankengänge kennengelernt hat, welche dieser Theorie voran- gingen. Diese müssen daher zuerst besprochen werden.

Die Erscheinungen der Interferenz und Beugung des Lichtes zwangen die ucht-Ather. Physiker dazu, das Licht als einen wellenartigen Vorgang anzusehen. Bis gegen das Ende des vorigen Jahrhunderts dachte man sich, daß das Licht in mechani- schen Schwingungen eines hypothetischen Mediums, des Äthers, bestehe. Da sich das Licht auch im leeren Räume fortpflanzt, ging es nämlich nicht an, jene Wel* lenvorgänge, die das Licht ausmachen, als Bewegungsvorgänge der ponderabeln Materie anzusehen. Als gegen das Ende des vorigen Jahrhunderts die elektro- magnetische Theorie des Lichtes die Oberhand bekam, änderte sich diese Auf- fassung nur unwesentlich, indem das Licht nicht mehr als eine Bewegung des Äthers, sondern als elektromagnetischer Prozeß im Äther aufgefaßt wurde. Immer hielt man daran fest, daß es neben der ponderabeln Materie noch eine zweite, den Äther, geben müsse, der als Träger des Lichtes aufzu- fassen sei (vgl. Artikel 26).

Diese Auffassung führte zu der Frage, wie sich dieser Äther in mechanischer Betaiugtaich der Beziehung zur Materie verhalte. Insbesondere erhebt sich die Frage : Beteiligt dei^^Bewe^^" sich der Äther an den Bewegungen der ponderabeln Materie? Diese Frage ^•'?**^'*|;/'^*'*^" führte den genialen Physiker Fi ze au zu einem Experiment von fundamentaler Wichtigkeit, das im folgenden kurz schematisch zu besprechen ist.

Ein Lichtstrahl L falle auf einen halb durchlässigen Spiegel S^ und werde hier in zwei Teilstrahlen zerlegt. Der erste Teilstrahl gelange über a und h nach Reflexion an dem Spiegel s^ und an dem halb durchlässigen Spiegel 52 nach JS. Der -^^t ^

zweite Teilstrahl gelange nach Reflexion an 5x und s^ über c und d durch S^ nach E. Bei E gelangen beide Teilstrahlen zur "^ ^

Interferenz; es entstehen Interferenzfran- ^' '•

sen, deren Abstände von der Justierung des Apparates abhängen. Die Lage dieser Interferenzfransen hängt ab von der Differenz der Zeiten, welche beide Teilstrahlen zum Durchlaufen ihres Weges brauchen. Ändert sich diese

i) Eine von dem Nachstehenden abweichende Auffassung wird im Artikel i dieses Bandes vertreten.

yo4 34- Albert Einstein: Die Relativitätstheorie

Zeitdifferenz auch nur um den Bruchteil I0~*, d. h. um ein Hundertmillionstel der ganzen Wegzeit, so ist dies schon an einer Verschiebung der Interferenz- fransen wahrzunehmen.

In die Strecken a und d schaltete Fizeau je eine mit Wasser gefüllte Röhre ein, welche von den Teilstrahlen ihrer Lfänge nach durchsetzt wurde. Jede dieser Röhren war an ihren Enden mit Ansatzstutzen versehen, so daß es mög- lich war, Wasser axial durch die Röhren zu leiten. Zweck des Experimentes war, zu erkennen, was für einen Einfluß die Geschwindigkeit der Wasserströ- mung auf die Lage der Interferenzfransen habe. Aus diesem Einfluß konnte berechnet werden, wie rasch sich relativ zur ruhenden Röhre dais Licht durch das bewegte Wasser fortpflanzt.

Angenommen, der Lichtäther beteilige sich an den Bewegungen der Ma- terie, also hier an der Bewegung des Wassers, so war folgendes zu erwarten für den Fall, daß das Wasser auf der Strecke a im Sinne der Lichtfortpflanzung mit der Geschwindigkeit v strömt. Die Geschwindigkeit der Lichtfortpflanzung relativ zu dem Wasser wäre immer gleich derselben Größe Vq, ob das Wasser strömt oder nicht. Die Lichtgeschwindigkeit V relativ zur Röhre müßte aber um die Strömungsgeschwindigkeit v des Wassers größer sein als Fq. Es wäre also zu erwarten jr rr

Da F Fq aus der Verschiebung der Interferenzfransen bestimmbar, die Was- sergeschwindigkeit V aber unmittelbar bekannt war, so erlaubte das Fizeau - sehe Experiment eine Prüfung dieser Formel. Letztere wurde aber vom Experi- ment nicht bestätigt. E^ ergab sich, daß die Differenz V Vq kleiner ist als v. Versuche mit verschiedenen Flüssigkeiten zeigten, daß diese Differenz nicht nur von v, sondern auch vom Brechungsindex n der Flüssigkeit^) abhänge ge- mäß der Formel , , v

Aus diesem Resultat geht hervor, daß die Hypothese unhaltbar ist, nach wel- cher der Lichtäther die Bewegungen der Materie einfach mitmacht. Man ent- nimmt der angegebenen Formel die interessante Folgerung, daß eine Flüssig- keit, welche das Licht ungebrochen ließe (n = l), die Ausbreitung des sie durch- setzenden Lichtes auch dann nicht beeinflussen würde, wenn sie bewegt ist. «Ruhender Die nächst einfache Hypothese ist die, daß sich der Lichtäther an den Be-

Th^rif von wegungen der Materie überhaupt nicht beteilige (Hypothese des „ruhenden*' iLA.Lorent«. Äthers). Auf diese Hypothese hat H. A. Lorentz eine Theorie der elektro- magnetischen und optischen Erscheinungen gegründet, welche nicht nur das angegebene Resultat des Fizeau sehen Versuches ganz ungezwungen ergab, sondern auch allen anderen Erfahrungsresultaten der Elektromagnetik und Optik bewegter Körper gerecht wurde. Nach dieser Theorie sind die elektro- ms^netischen Gesetze des Äthers vom Bewegungszustande der Materie unab- hängig. Die Materie steht nur dadurch in Wechselwirkung mit dem Äther, daß

(Lichtgeschwindigkeit im Vakuam)

l) « =

(Lichtgeschwindigkeit im Mediam)

Lorentzsche Theorie und Relativitätsprinzip ^05

sie als Träger elektrischer Massen aufzufassen ist, deren Bewegungen die elektro- magnetischen Vorgänge im Äther erzeugen und beeinflussen, (vgl. Artikel 15).

Daß der Lorentzschen Theorie (Theorie des ruhenden Lichtäthers) ein bedeutender Wahrheitsgehalt zukommen müsse, darüber bestand bei den Phy- sikern kein Zweifel. Aber eine Seite hatte diese Theorie, die nicht verfehlen konnte, die Physiker mißtrauisch zu machen. Dies soll im folgenden dar- gelegt werden.

Es ist eine alte Erfahrung, die bisher ausnahmslos sich bewahrheitet hat, ReUdviaiti. daß die physikalischen Erscheinungen nur von den Bewegungen der Körper ^""'^p- relativ zueinander abhängen, daß es vom physikalischen Standpunkte aus keine absolute Bewegung gibt. Wir wollen diesen Charakter der physikali- sehen Erfahrung noch etwas schärfer präzisieren. Wo in der Physik räumliche Angaben eine Rolle spielen, bedeuten diese stets eine Angabe über die relative Lage irgendeines Gegenstandes oder Merkmales relativ zu einem festen Körper. Wir beschreiben die Lage eines Dinges relativ zu einer Glasröhre, einem Holz- gestell, der Wandung eines Zimmers, der Erdoberfläche usw. In der Theorie ist das Koordinatensystem der Repräsentant jenes festen Körpers. Es ist dies ein gedachtes starres Gerüst, welches stets durch ^inen wirklichen festen Körper zu ersetzen ist, wenn es gilt, die Richtigkeit eines theoretischen Resultates zu prüfen, in welchem räumliche Angaben vorkommen. Das Koordinatensystem des Physikers bedeutet also einen wirklichen starren Körper, auf welchen die zu studierenden Erscheinungen zu beziehen sind.

Wir nehmen nun irgendein einfaches Naturgesetz vor, in dem räumliche Angaben vorkommen, z. B. das bekannte Trägheitsgesetz Galileis: Ein materi- eller Punkt, auf den äußere Kräfte nicht wirken, bewegt sich gleichförmig in gerader Linie. Es ist klar, daß dies Gesetz nicht gelten kann, wenn man die Bewegung auf ein beliebig bewegtes (z. B. in beliebiger Drehbewegung be- griffenes) Koordinatensystem bezieht. Wir müssen das Galileische Gi'und- gesetz daher so aussprechen: Es ist möglich, ein Koordinatensystem K von solchem Bewegungszustande zu wählen, daß sich relativ zu ihm jeder kräftefrei bewegte materielle Punkt geradlinig und gleichförmig bewegt. Natürlich gilt der Satz dann auch für alle anderen, relativ zu K ruhenden Koordinatensysteme.

Gälte das Galileische Grundgesetz für kein Koordinatensystem, das sich relativ zu K in Bewegung befindet, so wäre der Bewegungszustand von K gegen- über allen anderen Bewegungszuständen ausgezeichnet. Wir könnten diesen Be- wegungszustand zweckmäßig als den der absoluten Ruhe bezeichnen. Eine ein- fache Überlegung lehrt aber, daß jeder kräftefrei bewegte materielle Punkt nicht nur in bezug auf ÜT das Galileische Grundgesetz erfüllt, sondern relativ zu jedem Koordinatensystem K\ das sich relativ zu K in gleichförmiger Trans- lationsbewegung befindet. Die Gesetze der Mechanik gelten gegenüber solchen Systemen K genau ebenso wie relativ zu K, Es gibt eine Gesamtheit relativ zueinander gleichförmig bewegter Koordinatensysteme, welche für die Formu- lierung der Gesetze der Mechanik genau gleichberechtigt sind. Diese Gleich- berechtigung der relativ zueinander gleichförmig bewegten Systeme K und K'

K.d. G. ULiu, Bd x Physik 45

yo6 34« Albert Einstein: Die Relativitätstheorie

ist aber nicht auf die Mechanik beschränkt. Sie gilt, soweit unsere Erfahrung

reicht, allgemein. Die Voraussetzung von der Gleichberechtigung

aller derartigen Systeme K, K\ durch welche die Bevorzugung

eines Bewegungszustandes gegenüber allen anderen ausgeschlos-

sen wird, wollen wir als das „Relativitätsprinzip** bezeichnen.

Theorie von Die Lorcntzsche Theorie erweckt nun unser Mißtrauen dadurch, daß sie

*^RouSrttite°°^ ^^°^ Relativitätsprinzip zu widersprechen scheint. Dies zeigt folgende Über-

prinrip. Primip legung. Nach der Loren tzschen Theorie hat die Bewegung der Materie keine

▼onderKoMtan* o o o »

der Licht- Beweguug dcs Lichtäthers zur Folge. Dessen Teile befinden sich vielmehr in geschwindig "* ^ gig^i-jy^^ Ruhe Zueinander. Wählen wir ein Koordinatensystem K^ welches relativ zu dem Äther ruht, so ist dies Koordinatensystem K gegenüber allen relativ zu K bewegten Koordinatensystemen K bevorzugt. Die Theorie ent- spricht also dem Relativitätsprinzip nicht. Wir können diese Betrachtung auch anstellen, ohne von dem Begriff des Lichtäthers Gebrauch zu machen. Nach der Loren tzschen Theorie gibt es ein Koordinatensystem K^ relativ zu wel- chem sich jeder Lichtstrahl im Vakuum mit der bestimmten konstanten Ge- schwindigkeit c fortpflanzt. Beziehen wir einen solchen Lichtstrahl auf ein relativ zu K bewegtes etwa in der Fortpflanzungsrichtung des Lichtes be- wegtes — Koordinatensystem Ül', so fühlen wir uns anschaulich dazu gezwun- gen, anzunehmen, daß derselbe Lichtstrahl relativ zu K! eine andere Fort- pflanzungsgeschwindigkeit besitze. Es würde also im Widerspruch mit dem Relativitätsprinzip zu folgern sein, daß das Koordinatensystem K gegenüber allen relativ zu ihm bewegten Koordinatensystemen K bevorzugt sei.

Wir wollen jene fundamentale Aussage der Lorentzschen Theorie, daß jeder Vakuumlichtstrahl sich (wenigstens in bezug auf ein bestimmtes Koordi- natensystem K) stets mit der bestimmten konstanten Geschwindigkeit c aus- breite, als das Prinzip von der Konstanz der Lichtgeschwindigkeit bezeichnen. Die vorhin angegebene Schwierigkeit der Lorentzschen Theorie besteht darin, daß das Prinzip von der Konstanz der Lichtgeschwindigkeit mit dem Relativitätsprinzip unvereinbar zu sein scheint.

Die Erfolge der Lorentzschen Theorie waren so bedeutende, daß die Physiker unbedenklich das Relativitätsprinzip fallen gelassen hätten, wenn nicht ein wichtiges experimentelles Resultat vorgelegen wäre, von dem wir nun sprechen müssen, nämlich das Experiment von Mich eis on. Erdbewegung Hält man, dcr Lorentzschen Theorie entsprechend, daran fest, daß es ein

"^om^rah^ATn bcvorzugtes Koordinatensystem K gebe, in welchem die Vakuumlichtgeschwin- Lichtäther. jigkeit glcich c sei, so kann man nicht annehmen, daß die Erde relativ zu diesem Koordinatensystem in Ruhe sei. Denn man kann dann nicht annehmen, daß der (ruhende) Äther an der Bewegung der Erde um die Sonne teilnehme. Mindestens während eines Teiles des Jahres müssen wir also gegenüber dem System K eine Geschwindigkeit von der Größenordnung 30 km pro Sekunde besitzen. Es ergibt sich hieraus die Aufgabe, diese Relativbewegung unserer Laboratorien und Apparate gegenüber K bzw. gegenüber dem Äther nachzu- weisen. Eine große Anzahl von Versuchen wurde ausgeführt, um diese Relativ-

Michelsons Versuch

707

bewegung nachzuweisen. Man ging dabei von der Überlegung aus, daß die Orientierung empfindlicher optischer Apparate gegenüber der Richtung jener Relativbewegung auf den optischen Vorgang von Einfluß sein müsse. Es wollte aber durchaus nicht gelingen, eine derartige bevorzugte Richtung experimentell nachzuweisen.

Die meisten dieser negativen Befunde bewiesen aber nichts gegen die Theorie. H. A. Lorentz zeigte durch eine überaus geistvolle theoretische Untersuchung, daß die Relativbewegung in erster Annäherung ohne Einfluß sei auf den Strahlengang bei beliebigen optischen Versuchen. Nur ein optischer Versuch blieb übrig, bei dem die Methode so überaus empfindlich war, daß auch nach H.A. Lorentz* theoretischer Analyse der negative Ausgang des Ex- perimentes unbegreiflich blieb. Es war dies der schon erwähnte Versuch Michelsons, dessen Anordnung im wesentlichen die folgende war.

Der Lichtstrahl L einer Lichtquelle G gelangt zunächst auf einen halb Ezpfinment durchlässigen Spiegel S, wo er in zwei Teilstrahlen zerlegt wird. Der erste der- ^**° Micheison.

selben geht nach dem Spiegel ^i, wird an diesem ^

reflektiert, gelangt wieder nach S zurück und wird hierauf (z. T.) nach E reflektiert; der zweite Teilstrahl geht nach 5 2, wird dort re- i

flektiert, gelangt wieder nach S zurück und ^ i s\

|:t

kommt nach Passieren von S ebenfalls nach E.

)f

•!'•

Bei E kommen beide Teilstrahlen zur Inter- J Fig. s.

ferenz. Die ganze beschriebene Anordnung ^

war auf einer Steinplatte montiert, die auf Quecksilber schwamm, so daß die Anordnung als Ganzes relativ zur Richtung der hypothetischen Bewegung der Erde gegen den Lichtäther in verschiedene Lagen gebracht werden konnte. Nach der Theorie hätte die Änderung der Orientierung der Steinplatte einen Einfluß auf die Lage der Interferenzfransen bei E ausüben sollen, der groß genug war, um konstatiert zu werden. Der Versuch verlief aber negativ.

Um das negative Resultat dieses Versuches mit der Theorie in Einklang zubringen, schlugen H.A. Lorentz und FitzGerald die Hypothese vor, daß die Steinplatte mit allen darauf montierten Gegenständen in der Richtung der Erdbewegung eine winzige Verkürzung erfahre, und zwar von solcher Größe, daß der zu erwartende Effekt durch einen entgegengesetzten Effekt infolge jener Verkürzung kompensiert wird.

Diese Art und Weise, Versuchen mit negativem Ausgange durch ad hoc Gmndgodankc ersonnene Hypothesen theoretisch gerecht zu werden, ist sehr unbefriedigend. *^Ststbe^I! Es drängt sich die Auffassung auf, daß jener Relativbewegung der Erde gegen das System K keinerlei Realität zukomme, d. h. daß es prinzipiell unmöglich sei, eine derartige Relativbewegung nachzuweisen. Anders ausgedrückt: wir kommen zu der Überzeugung, daß das Relativitätsprinzip allgemein und streng gelte. Anderseits scheint wie bereits bemerkt das Fundament der Lo- rentzschen Theorie und damit auch das Prinzip der Konstanz der Licht- geschwindigkeit mit dem Relativitätsprinzip unvereinbar zu sein. Wer sich

45^

joS 34- Albert Einstein: Die Relativitätstheorie

aber eingehend mit Versuchen geplagt hat, die Lorentzsche Theorie durch eine andere zu ersetzen, die den experimentellen Tatsachen gerecht wird, der wird zugeben, daß dies Beginnen bei dem heutigen Stande unseres Wissens geradezu aussichtslos erscheint.

Bei dieser Sachlage muß man sich nochmals die Frage vorlegen, ob die Lorentzsche Theorie bzw. das Prinzip von der Konstanz der Lichtgeschwindig- keit mit dem Relativitätsprinzip wirklich unvereinbar sei. Eine genaue Prüfung ergibt, daß beide Prinzipe miteinander vereinbar sind, daß die Lorentzsche Theorie dem Relativitätsprinzip nicht widerstreitet. Aber es muß dafür unsere

unzuiastigkeit Auf f assung von Zeit und Raum einer tiefgreifenden Änderung unterzogen wer-

HypothöM. den. Daß wir ferner auf die Einführung eines Lichtäthers in die Theorie zu ver- zichten haben, ist leicht einzusehen. Denn wenn jeder Vakuumlichtstrahl sich in bezug auf K mit der Geschwindigkeit c fortpflanzen soll, so müssen wir jenen Lichtäther als in bezug auf K überall ruhend denken. Wenn aber die Gesetze der Lichtfortpflanzung in bezug auf das (relativ zu K bewegte) System K' die- selben sind, wie in bezug auf ÜT, so müßten wir mit demselben Rechte die Exi- stenz eines in bezug auf K' ruhenden Lichtäthers annehmen. Da es absurd ist, anzunehmen, der Lichtäther ruhe gleichzeitig in bezug auf beide Systeme, und da es kaum minder absurd wäre, in der Theorie eines der beiden (bzw. unend* lieh vielen) physikalisch gleichwertigen Systeme vor dem anderen auszuzeich- nen, so muß man auf die Einführung jenes Begriffes verzichten, der ohnehin nur nutzloses Beiwerk der Theorie war, seitdem man auf eine mechanische Deu- tung des Lichtes verzichtet hatte.

Es wurde schon gezeigt, daß das Koordinatensystem, was seine Interpre- tation in der theoretischen Physik anlangt, nichts anderes ist, als ein starres Meßgerüst, an welchem mit Hilfe von starren Stäben die Werte der Raumkoor- dinaten abzutragen sind. Wir müssen uns jetzt noch die Frage vorlegen, wel- ches die physikalische Bedeutung zeitlicher Angaben ist, die in der Physik in Verbindung mit räumlichen Angaben allgemein aufzutreten pflegen. Diese Frage soll nun untersucht werden.

Physikaiitche Die Zeit pflegen wir mit einer Uhr zu messen. Eine Uhr nennen wir dabei e ^^s gjj^ System, welches genau denselben Vorgang automatisch wiederholt. Die An-

Zeitaagaben. ^^hl der bcrcits abgelaufenen Vorgänge dieser Art, von einem beliebigen an ge- rechnet, ist die Zeitangabe der Uhr. Diejenige Zeitangabe der Uhr, welche mit einem Ereignis gleichzeitig ist, nennen wir die mit der Uhr gemessene Zeit des Ereignisses.

Es sei nun am Anfangspunkte unseres Koordinatensystems [x = y= z^o) eine Uhr Uq aufgestellt, und es finde an einer diesem Anfangspunkt ganz be- nachbarten Stelle irgendein Ereignis statt. Dann sind wir wie jeder zu- geben wird erfahrungsgemäß in der Lage, die mit dem Ereignis gleichzeitige Uhrzeit, d. h. die Zeit des Ereignisses (bezogen auf unsere Uhr) anzugeben. Ist aber der Ort des Ereignisses von dem Orte, an dem die Uhr aufgestellt ist, weit entfernt, so sind wir nicht unmittelbar imstande, die mit dem Elreignis gleich- zeitige Uhrangabe zu ermitteln. Denn ein bei der Uhr stehender Beobachter

Physikalische Bedeutung von Zeitangaben ^Oq

kann das Ereignis nicht unmittelbar, sondern nur durch Vermittlung irgend- eines Zwischenprozesses (Signal) wahrnehmen, der durch das Ereignis veranlaßt wird und sich bis zu dem Beobachter hin fortpflanzt (z. B. durch Lichtstrahlen). Der Beobachter bestimmt nur die Zeit der Ankunft des Signals, aber nicht die Zeit des Ereignisses. Die letztere könnte er nur dann ermitteln, wenn er die Zeitdauer kennen würde, welche das Signal unterwegs war. Diese Zeitdauer mittels der im Anfangspunkte von K aufgestellten Uhr V^ zu ermitteln, ist aber prinzipiell unmöglich. Wir können mit einer Uhr nur solche Ereignisse unmittelbar zeitlich werten, die unmittelbar neben der Uhr stattfinden.

Befindet sich an dem Orte, an dem das Ereignis stattfand, auch eine Uhr (f/i) wir wollen gleich annehmen, eine Uhr von genau gleicher Beschaffenheit wie die andere , und stand ein Beobachter daneben, der die Zeit des Ereig- nisses an jener Uhr bestimmte, so nützt uns dies zunächst ebenfalls noch nichts. Denn wir sind zunächst außerstande, die zu der abgelesenen. Angabe der Uhr U^ gleichzeitige Angabe der Uhr V^ zu ermitteln. Man ersieht hieraus, daß es für eine Definition der Zeit noch eine physikalische Definition der Gleichzeitigkeit bedarf. Ist diese gegeben, so ist die gesuchte physikalische Definition der Zeit vollständig.

E^ bedarf mit anderen Worten noch einer Vorschrift, gemäß welcher die Uhr t/i nach der Uhr U^ zu richten ist. Diese geben wir in folgender Weise, Es sei irgendein Mittel gegeben, um vom Anfangspunkte 0 des Systems K nach dem Orte E von U^ und umgekehrt von E nach 0 Signale zu senden, von der Art, daß das Signal 0-— £ und das Signal E—0 ganz gleichwertige physikalische Vorgänge seien. Dann können und wollen wir fordern, daß die Uhren U^ und f/i so zu richten seien, daß beide Signale mit diesen Uhren gemessen die- selbe Zeit brauchen. Es sei

t^ die [7o Zeit der Aussendung des Signals 0—E h n C^i— n n Ankunft 0—E

^1 n ^1 "" n »» Aussendung ,, E—0

io u Uo— Ankunft E—0,

so soll die Uhr U-^ so gerichtet werden, daß die Bedingung

erfüllt ist. ^1 - ^0 = ^0 - i

Wir können nun in beliebigen Funkten des Koordinatensystems K solche Uhren aufstellen und sie alle nach der Uhr Uq gemäß der angegebenen Vor- schrift richten. Dann können bei allen jenen Punkten Ereignisse zeitlich ge- wertet werden.

Bei der angegebenen Definition ist auf eines besonders zu achten. Wir be- Keiadvitiu nutzten zur Definition der Zeit ein System von relativ zum System K ^"^•**' ruhenden Uhren. Diese Definition hat also nur Bedeutung mit Bezug auf ein Koordinatensystem K von bestimmtem Bewegungszustande. Führt man außer dem Koordinatensystem K ein zweites Koordinatensystem K' ein, wel- ches relativ zu K in gleichförmiger Translationsbewegung ist, so können wir mit Bezug auf K' ebensogut eine Zeit definieren wie vorher mit Bezug auf K.

^lo 34. Albert Einstein: Die Relativitätstheorie

Aber es ist nicht a priori evident, daß zwischen den Angaben dieser beidea Uhrensysteme sich Übereinstimmung herstellen lasse. Es spricht a priori nichts dafür, daß zwei in bezug auf K gleichzeitige Ereignisse auch in bezug auf K' gleichzeitig sein müssen. Dies ist es, was man unter „Relativität der Zeit'' versteht, iuamsett- Es Zeigt sich nun, daß das Prinzip von der Konstanz der Lichtgesch windig-

r»n orm <»«»• j^^j^. ^^^ j^ Relativitätsprinzip nur so lange miteinander unvereinbar sind, als man an dem Postulat der absoluten Zeit, d. h. an der absoluten Bedeutung der Gleichzeitigkeit festhält. Läßt man aber die Relativität der Zeit zu, so zeigt sich, daß beide Prinzipe miteinander vereinbar sind; man gelangt daxm, von diesen beiden Prinzipen ausgehend, zu derjenigen Theorie, die als „Relativitäts- theorie'* bezeichnet wird.

Die Grundaufgabe, die sich an diese Auffassungsweise knüpft, ist folgende:

Es seien zwei Koordinatensysteme K und K' gegeben. K' befinde sich im Zu-

'jp' ^ Stande gleichförmiger Translation in bezug auf ÜT, v sei

die Geschwindigkeit dieser Bewegung. Es seien Ort und Zeit eines beliebigen Ereignisses (d. h. die Koordinaten Xy y, z und die Zeit t) in bezug auf K gegeben. Man suche Ort und Zeit (a;', /, ä', t') in bezug auf K\ Dabei seien die -' ^ Lagen der Koordinatenachsen beider Systeme der Ein-

fachheit wegen so gewählt, wie die nebenstehende Figur

vt\

t.

Fig. 3. ^ erkennen läßt.

Die bisherige Kinematik löst diese Aufgabe durch folgende Gleichungen:

Die letzte dieser Gleichungen spricht die Voraussetzung aus, daß die Zeit- angaben eine vom Bewegungszustand unabhängige Bedeutung haben (Vor- aussetzung der „absoluten Zeit"). Es steckt aber noch eine implizite Voraus- setzung in diesen Gleichungen, die wir kennen lernen müssen. Die Figur stellt Lage und Bewegungszustand beider Systeme K und K' dar, wie diese von K aus betrachtet erscheinen. Man fasse nun einen Punkt F auf der jc' -Achse ins Auge, dessen Entfernung von (/ gleich f sei. Das heißt: Ein mit IC bewegter Beobachter muß seinen Meterstab längs der x^-Achse P mal auftragen, um von (/ nach P' zu gelangen. Beobachter, die sich im System K in Ruhe befinden, werden aber anders verfahren müssen, um die Entfernung (/ F %\x beurteilen. Sie bestimmen diejenigen Raumpunkte im System ÜT, in welchen sich (/ und P' zu einer bestimmten Zeit (des Systems K) befinden. Die nachträglich durch Abtragen des Meterstabes längs der %- Achse von K ermittelte Distanz l dieser beiden Punkte ist die gesuchte Länge. Man sieht, daß beide Verfahren grund- sätzlich verschieden sind, so daß es a priori möglich ist, daß deren Zahlenergeb- nisse / und V voneinander verschieden sind. Man sieht hieraus, daß es a priori nicht abgewiesen werden kann, daß auch dem Begriffe der räumlichen Distanz

Lorentz- Transformation. Physikalische Bedeutung derselben 711

nur eine relative Bedeutung zukomme. Wir sind also genötigt, neben der „Re- lativität der Zeit** auch eine „Relativität der Längen** zuzulassen.

Damit ist die Grundlage, auf welcher die angegebenen Transformations- gleichungen für Raumkoordinaten und Zeitwerte ruhen, erschüttert. An Stelle dieser Gleichungen treten in der Relativitätstheorie solche, die dem Prinzip der Relativität und dem Prinzip der Konstanz der Lichtgeschwindigkeit gleichzeitig gerecht werden. Man findet die neuen Gleichungen, indem man die Bedingung mathematisch formuliert, daß jeder Lichtstrahl in beiden Systemen K und K' sich mit derselben Geschwindigkeit c ausbreitet. Man gelangt so zu den Trans- formationsgleichungen X—Vt

7i =

y-s

i =

t ^x

>/,-

Aus der letzten der Gleichungen erkennt man, daß die Gleichheit der Zeitwerte Routivität (Gleichzeitigkeit) zweier Ereignisse in bezug auf K die Gleichheit der Zeitwerte ^•'^^** (Gleichzeitigkeit) der nämlichen Ereignisse in bezug auf K' im allgemeinen nicht zur Folge hat. Die absolute Bedeutung der Gleichzeitigkeit geht also verloren.

Wir fragen ferner : Wie groß ist die Länge l eines Stabes vom System K vcrkar«ung bo- aus betrachtet der in bezug auf K ruht, der ^ -Achse parallel orientiert ist ^***fn do^*^' und in bezug auf K! die Länge /' besitzt ? Die erste der Gleichungen ergibt die ^^J^' Antwort*)

i=v.y^;.

Dies bedeutet folgendes. Ein Stab besitze, ruhend gemessen, die Länge T, dann besitzt er, falls er mit der Geschwindigkeit v längs seiner Achse bewegt ist,

für einen nicht mitbewegten Beobachter die kleinere Länge i = /'-T/i j,

wogegen er für einen mitbewegten Beobachter nach wie vor die Länge X be- sitzt. Die Länge / ist desto kleiner, je größer die Geschwindigkeit v des be- wegten Stabes gewählt wird. Nähert sich v der Lichtgeschwindigkeit c, so nähert sich die Länge des Stabes dem Werte Null. Für Werte von ü, die die Lichtgeschwindigkeit übertreffen, wird unser Resultat sinnlos; solche Bewe- gungsgeschwindigkeiten sind nach der Relativitätstheorie unmöglich. Man

i) Für die beiden Stabenden gelten nämlich für die t Koordinaten der Stabenden die

X "— V t X If t

Gleichungen r/ -\ , ^1' "■ » woraus durch Subtraktion folgt;

V-V-^^ oder l~tyZ-%.

ji2 34. Albert Einstein: Die Relativitätstheorie

sieht, daß die oben erwähnte Hypothese von H. A. Lorentz und Fitz Gerald zur Erklärung des Michelsonschen Versuches als Konsequenz der Relativi- tätstheorie resultiert. Nach letzterer würden anderseits relativ zu K ruhende Körper von K' aus beurteilt genau dieselbe Verkürzung aufweisen wie in K' ruhende Körper, wenn dieselben von K aus beurteilt werden.

Gang bewegter Eine wichtige Kousequeuz aus unseren Gleichungen erhält man ferner wie

^'•°' folgt. Inoi Anfangspunkte von ÜC' befinde sich eine Sekundenuhr. Für diese ist

dauernd at' = o, und es finden ihre Sekundenschläge zu den Zeiten ^^=0,1,

2, 3 usw. statt. Die erste und vierte unserer Gleichungen liefern für die Zeiten t

dieser Sekundenschläge die Werte t = 7^== » 7= » : usw. Von

1/-S V^ >/-s

K aus beurteilt ist also die Zeit zwischen zwei Schlägen der Uhr gleich ^ *

also länger als eine Sekunde. Eine mit der Geschwindigkeit v wandernde Uhr geht von einem nicht mitbewegten System aus beurteilt - langsamer, als die- selbe Uhr, falls sie nicht wandert.

Verallgemeinernd kann man schließen: Jegliches Geschehen in einem physikalischen System wird verlangsamt, wenn diesem System eine Trans- lationsbewegung erteilt wird. Diese Verlangsamung findet aber nur statt vom Standpunkte eines nicht mitbewegten Koordinatensystems (Beobachters). Heumtischor Ist die Relativitätstheorie für die Weiterentwicklung der Physik von Be-

der Rdltirttäti- ^®^^"^S> abgesehen davon, daß sie das oben auseinandergesetzte Dilemma löst?

theorie. Dicsc Frage ist aus folgendem Grunde zu bejahen. Nach der Relativitätstheorie sind die Systeme K und K' gleichberechtigt, und es sind Koordinaten und Zeit- werte beider Systeme durch die angegebenen Gleichungen verknüpft. Ist eine allgemeine physikalische Theorie mit Bezug auf K formuliert, so kann man mit Hilfe der Transformationsgleichungen statt der Größen x, y, z, t die Größen ^, /, /, ^' in die Gleichungen einführen. Es resultiert dann ein auf K' bezogenes Formelsystem. Letzteres muß nach dem Relativitätsprinzip genau überein- stimmen mit dem mit Bezug auf K formulierten Formelsystem, mit dem ein- zigen Unterschiede, daß x, y, z, t durch at', /, 0', f ersetzt sind. Die Relativi- tätstheorie liefert also ein allgemeines Kriterium für die Zulässigkeit einer physi- kalischen Theorie.

Einige Wir wollen kurz aufzählen, was der Relativitätstheorie bisher an Enzel-

de^ReSivSts- ^^^^'^^^^'^ ^^ vcrdaukcn ist. Sie liefert eine einfache Theorie des Doppler

theorie. scheu Prinzipcs, der Aberration, des Versuches von Fizeau. Sie ergibt die Zulässigkeit der Maxwell- Lorentzschen Feldgleichungen auch in der Elektro- dynamik bewegter Körper. Die Gesetze der Ablenkbarkeit rascher Kathoden- strahlen und der ihnen wesensgleichen ß- Strahlen der radioaktiven Substanzen, überhaupt die Bewegungsgesetze rasch bewegter materieller Punkte lassen sich mit Hilfe der Relativitätstheorie ohne Herbeiziehung besonderer Hypothesen aufstellen.

Trigheit Das wichtigste Ergebnis, welches die Relativitätstheorie bisher ergeben

der Bnergie.

Hauptresultat Gültigkeitsgrenze der Theorie 713

hat, ist aber eine Beziehung zwischen der trägen Masse physikalischer Sy- steme und deren Energieinhalt. Ein Körper besitze in einem gewissen Zu- stande die träge Masse M. Führt man ihm die Energiemenge E auf irgendeine

Weise zu, so steigt dadurch seine träge Masse nach der Relativitätstheorie auf

E M -\ j> wobei c die Lichtgeschwindigkeit bedeutet. Das bisher festgehaltene

Gesetz von der Erhaltung der Masse wird dadurch modifiziert und mit dem Energieprinzip zu einem Gesetz verschmolzen. Es wird durch das Ergebnis nahegelegt, die träge Masse M eines Körpers als einen Energieinhalt von der Größe Mc^ aufzufassen. Eine direkte experimentelle Bestätigung dieses wich- tigen Ergebnisses besitzen wir bis jetzt nicht; wohl aber kennen wir Spezial- fälle, für welche die Gültigkeit des „Satzes von der Trägheit der Energie** auch ohne Relativitätstheorie gefolgert werden kann.

Die Entwicklung der Relativitätstheorie wurde sehr gefördert durch Minkowsk» H. Minkowskis mathematische Formulierung der Grundlagen. Minkowski "Behandlung*' ging davon aus, daß in die Grundgleichungen der Relativitätstheorie die „Zeit- ^"J,^^^*" koordinate** in genau der gleichen Form eingeht wie die Raumkoordinaten,

wenn man an Stelle von / die proportionale imaginäre Größe */— ict ein- führt. Es werden dadurch die Gleichungen der Relativitätstheorie Gleichungen in einem vierdimensionalen Räume; und zwar unterscheiden sich die formalen Eigenschaften dieses vierdimensionalen Raumes lediglich durch die Dimensions- zahl von den formalen Eigenschaften des Raumes der Euklidischen Geometrie.

Endlich noch eine wichtige Frage: Besitzt die Relativitätstheorie unbe-Bemerkonguber schränkte Gültigkeit ? Hierüber sind die Ansichten auch der Anhänger der G^^Ee a^ * Relativitätstheorie noch geteilt. Die Mehrzahl derselben ist der Meinung, daß ^^^^^Jj||^" die Sätze der Relativitätstheorie insbesondere deren Auffassung von Zeit der Theorie, und Raum unbeschränkte Gültigkeit beanspruchen dürfen.

Der Verfasser dieser Zeilen ist aber der Ansicht, daß die Relativitätstheorie noch einer Verallgemeinerung bedarf, in dem Sinne, daß das Prinzip von der Konstanz der Lichtgeschwindigkeit fallen zu lassen ist. Nach dieser Meinung ist jenes Prinzip nur für Gebiete von praktisch konstantem Gravitationspoten- tial aufrecht zu erhalten. Die Zukunft muß lehren, ob diese in der Hauptsache auf erkenntnistheoretische Gründe sich stützende Ansicht sich bewähren wird.

Literatur.

Eine vorzügliche Darstellung des Gegenstandes enthält: Physikalisches über Raum und Zeit von E. Cohn, 2. Aufl. B. G.Tcubncr. 1913.

35.

PHÄNOMENOLOGISCHE UND ATOMISTISCHE

BETRACHTUNGSWEISE.

Von

W, Voigt.

Einieitang. I. Einlci tuDg. Allgemeine Fuüktion der Theorie in der Physik.

^Wot"* ^"^ Erreichung des Zieles aller physikalischen Forschung, der Aufklärung der der Theorie Gesetzmäßigkeit in dem physikalischen Geschehen, wirken Beobachtung und theoretische Überlegung in wechselnden Rollen zusammen. Bef Eröffnung eines neuen Erscheinungsgebietes pflegt die Beobachtung allein die erste Pio- nierarbeit zu tun. Es handelt sich dabei meist um die Verfolgung einer einzelnen Entdeckung, um die Herausschälung des Neuen, Wesentlichen aus einem Er- scheinungskomplex, um die Feststellung der Bedingungen, an die das Auftreten des neuen Vorganges geknüpft ist, und um die Erkenntnis der ganzen Mannig- faltigkeit, in der letzterer auftreten kann.

Um nicht ganz abstrakt zu sprechen, möge an ein einfaches und bekanntes Beispiel angeknüpft werden. Die sog. Kapillarerscheinungen haben ihren Na- men von der zuerst beobachteten und frappantesten unter ihnen erhalten, dem Aufsteigen einer Flüssigkeit in einem von ihr benetzten engen (Haar-) Röhrchen, wenn dasselbe mit einem Ende in die Flüssigkeit eingetaucht ist (vgl. Artikel 6). Die systematische Forschung hat ergeben, daß verschiedene Flüssigkeiten bei derselben Rohrweite und dieselbe Flüssigkeit bei verschiedenen Rohrweiten ver- schiedene Steighöhen liefern, und daß bei nicht benetzenden statt einer Elevation eine Depression eintritt; ferner, daß ein analoger Vorgang auch in dem Raum zwischen zwei einander nahen Platten, ja in jedem beliebig gestalteten Kanal eintritt und sich bereits an jedem in die Flüssigkeit getauchten Körper durch eine Aufwärts- oder Abwärtskrümmung der Flüssigkeitsoberfläche andeutet. Weiter hat sich ergeben, daß mit den geschilderten Erscheinungen auch der Vorgang der Bildung von Flüssigkeitstropfen (mögen diese nun hängen, liegen oder schwe- ben) in engem Zusammenhang steht, insofern auch hier durch besondere Um- stände die unter der Wirkung der Schwere allein ebene Begrenzung einer Flüssig- keit in eine gekrümmte verwandelt wird.

Die Grunderscheinung bei den kapillaren Röhren bot dann auch die Mög- lichkeit zu messenden Versuchen über den Zusammenhang der Rohrweite mit der Steighöhe bei einer und derselben Flüssigkeit, Versuche, welche zwischen beiden in Annäherung die indirekte Proportionalität lieferten. Bezeichnet man den Rohrdurchmesser mit d, die Steighöhe mit ä, so kann man als Resultat der Beobachtung das angenäherte Gesetz

h = a/d

Allgemeine Funktion der Theorie in der Physik jie^

schreiben, wo nun a eine der benutzten Flüssigkeit individuelle Größe, die Kon- stante des Gesetzes, darstellt.

Der vorstehend an einem Beispiel geschilderte Zustand der Kenntnisse ist der Regel nach derjenige, in dem nun die Theorie zum ersten Male eingreift. Die Bedingungen des Zustandekommens und der Umfang der Erscheinung sind durch das Experiment festgestellt, die ersten (angenäherten) Gesetzmäßigkeiten sind durch Messungen gewonnen. Der Theorie erwächst die Aufgabe, einen be- herrschenden Gesichtspunkt zu finden, mit Hilfe dessen Gesetze für alle die verschiedenartigen Erscheinungen des Gebietes gewonnen und auf dieselben, jeder Flüssigkeit individuellen Konstanten zurückgeführt werden können.

Ist solches gelungen, so pflegt die Tätigkeit des Experimentes erneut ein- zusetzen. Messungen in vergrößerter Präzision bezwecken die Prüfung der theoretisch gewonnenen Gesetze, besonders auch unter Umständen, wo die Kom- plikation der Verhältnisse die Gewinnung von Gesetzen durch die Beobachtung allein nicht erwarten ließ. Ferner wird die Bestimmung der Konstanten jener Gesetze für die verschiedenen Körper (in unserm Falle speziell verschiedene Flüssigkeiten) systematisch in Angriff genommen, und es werden die Umstände (chemische Zusammensetzung, Temperatur usf.) erforscht, welche auf die Werte dieser Konstanten einwirken. Die Gesetze der letzteren Einflüsse stellen der Theorie neue Aufgaben, bei deren Bewältigung die oben geschilderte Wechsel- wirkung der Theorie mit dem Experiment sich wiederholen kann.

Auf eine höhere Stufe wird die Fragestellung gehoben, wenn es dabei ge- lingt, Wechselbeziehungen zwischen verschiedenen Erscheinungsgebieten auf- zudecken, wie solche z. B. im Gebiete der Kapillarerscheinungen zu der allge- meinen Thermodynamik nachgewiesen worden sind. Hier hat sich gezeigt, daß das Gleichgewicht zwischen einer Flüssigkeit und ihrem Dampf von der kapil- laren Krümmung der Trennungsfläche zwischen beiden beeinflußt wird. In sol- chen Fällen handelt es sich um Auffindung und Anwendung von Prinzipien, die verschiedene Erscheinungsgebiete gleichzeitig beherrschen, und welche, wenn sie gewonnen sind, unsere Auffassung der physikalischen Vorgänge zu verein- heitlichen und vereinfachen imstande sind.

2. Allgemeine Charakterisierung der phänomenologischen Be- Allgemeine trachtungsweise. In den berühmten Einleitungsworten zu seinen Vorlesun- ritiani^ gen über Mechanik hat Kirchhoff die Aufgabe der Theorie (zunächst in dem *\'^^^^^*^"**' dort behandelten Gebiet) dahin umgrenzt, daß sie die in der Natur vor trachtungsweise. sich gehenden Bewegungen vollständig und auf die einfachste Weise beschreiben solle. Überträgt man wie dies unzweifelhaft der An- sicht Kirchhof fs entspricht diese Formulierung auf alle Gebiete der Physik, so resultiert als allgemeine Aufgabe der Theorie die Gewinnung der Gesetze alles physikalischen Geschehens durch strenge Schlüsse auf Grund eines Mini- mums von Voraussetzungen. Dabei können gelegentlich verschiedene Voraus- setzungen zu denselben Resultaten führen, und es kann zweifelhaft sein, wel- cher Weg der Anforderung an größte Einfachheit am vollständigsten entspricht.

Ein großer Teil der gegenwärtig geltenden Theorien besitzt den Charakter,

7IÖ 35* ^- Voigt: Phänomenologische und atomistische Betrachtungsweise

den die Kirchhoffsche Formulierung bezeichnet. In diesen wird in der Tat auf einer kleinen Zahl von Prinzipien, d. h. von Regeln, die aus der Erfahrung ab- geleitet sind, und denen hypothetisch allgemeinere Gültigkeit beigelegt wird, ein Gebäude mathematischer Folgerungen errichtet, welches die Gesetze der Erscheinungen in dem bezüglichen Gebiet liefert. Eine solche Betrachtungs- weise wird als phänomenologisch bezeichnet. Es soll damit angedeutet werden, daß die Grundlagen der theoretischen Entwicklung ausschließlich der direkten Wahrnehmung entnommen sind und daß die Entwicklung selbst sich darauf beschränkt, kompliziertere Erscheinungsformen auf die einfachsten von gleicher Art zurückzuführen, deren Beobachtung die Formulierung der be- treffenden Prinzipien gestattet hat.

Um hier wieder das Beispiel heranzuziehen, an dem oben die Wechsel- wirkung von Theorie und Beobachtung erläutert ist, so geht eine phänomeno- logische Theorie der Kapillarerscheinungen darauf aus, den Oberflächen der Flüssigkeiten je nach dem Medium, gegen welches sie die Abgrenzung bilden, eine Tendenz der Zusammenziehung oder der Ausdehnung beizulegen. Diese ,, Ober- flächenspannung** tritt am direktesten bei Flüssigkeitsmengen in Erscheinung, die allen anderen Einwirkungen, insbesondere derjenigen der Schwere merklich entzogen sind bei dünnen Lamellen, z. B. Seifenblasen. Sinn und Größe dieser Oberflächenspannung erweist sich von der Gestalt und Krümmung der Ober- fläche unabhängig, nur bedingt durch die Natur der Flüssigkeit und des Kör- pers, gegen welchen sie abgegrenzt wird. Aus diesem Prinzip kann man streng und vollständig die Gesetze der Kapillarerscheinungen ableiten. Die Grund- erscheinung, das Ansteigen einer Flüssigkeit in einem von ihr benetzten Rohr, erklärt sich z. B. aus dem Zusammenwirken der Tendenz der Zusammenziehung in der freien Flüssigkeitsfläche, der Tendenz der Ausbreitung in der Grenze gegen das Rohr und der auf alle Flüssigkeitsteile wirkenden Schwerkraft.

Daß hierbei die Oberflächenspannung selbst auf Grund des durch die Er- fahrung Gegebenem schlicht hingenommen und ein Versuch ihrer Zurückf ührung auf andere, allgemeiner nachweisbare Wirkungen nicht versucht wird, ist für die phänomenologische Betrachtungsweise charakteristisch, unterscheidnng 3. Unterscheidung von atomistischer und differentieller Be-

3[*diS^titu '^^^dlung. Ein anderer Teil physikalischer Theorie baut auf Grundlagen, die icr Behandlang, abweichenden Charakter besitzen, nämlich nicht Regeln darstellen, die mehr oder weniger direkt aus der Beobachtung abgeleitet sind, sondern Annahmen bilden, die, über die direkte Wahrnehmung hinausgehend, Behauptungen über unsichtbare Vorgänge enthalten, auf denen die bez. sichtbaren Vorgänge be- ruhen sollen. Derartige Theorien beanspruchen also, über die Kirchhoffsche ,, Beschreibung** der Erscheinungen hinausgehend, innerhalb gewisser Grenzen eine „Erklärung** derselben zu liefern innerhalb gewisser Grenzen, insofern die zu Hilfe genommenen unsichtbaren Vorgänge selbst jederzeit „Unerklärtes** enthalten.

Es ist von vornherein klar, daß eine solche Betrachtungsweise wirklich fördernd nur dann sein wird, wenn die herangezogenen unsichtbaren Vorgänge

Unterscheidung von atomistiscber und differentieller Behandlung 717

einfacher, d. h. nach Analogie bestimmter sichtbaren Vorgänge in ihren Gesetz- mäßigkeiten leichter zu übersehen sind, als die zu erklärenden insbesondere auch dann, wenn ein einziger unsichtbarer Vorgang die Ableitung der Gesetze verschiedener Erscheinungen gestattet.

Erweisen sich die auf solchem Wege für die sichtbaren Vorgänge gewon- nenen Gesetze als im Einklang mit der Erfahrung, so ist dadurch die Zulässig- keit der Grundvorstellung erwiesen. Lassen sich die Gesetze für verschiedene Erscheinungsgebiete aus derselben Vorstellung ableiten, so wird man derselben sogar Wahrscheinlichkeit beilegen dürfen. Derartige Theorien eröffnen also die Möglichkeit, unsere Kenntnis des physikalischen Geschehens über die Grenzen der direkten Wahrnehmung hinaus zu erweitern, einen Einblick in eine unseren Sinnen nicht direkt zugängliche Welt zu eröffnen, und diese Seite der bez. Betrachtungsweise hat zu allen Zeiten eine starke Anziehungskraft ausgeübt.

Da die zur Erklärung angenommenen Vorgänge der Regel nach deshalb unsichtbar sind, weil sie sich in Bezirken von äußerster Kleinheit abspielen, welche denjenigen der letzten Massenelemente, mit denen die Chemie operiert, nahe Hegen, so nennt man gelegentlich alle Theorien, die mit dergleichen operieren, molekulare. Besser beschränkt man die Anwendung dieses Namens auf solche Theorien, die wirklich mit den eigentlichen (chemischen) Bausteinen der Materie, mit Molekülen und Atomen, operieren.

Wenn Laplace die Gesetze der Kapillarerscheinungen aus der Annahme attraktiver Kräfte zwischen den einzelnen Flüssigkeitsteilchen, sowie zwischen diesen und den Teilchen der mit der Flüssigkeit in Berührung stehenden festen Körper ableitet, so ist diese Theorie im strengen Sinne nicht als eine molekulare zu bezeichnen, wenn sie auch oft mit diesem Namen belegt wird. Zwar steht es auf den ersten Blick frei, als jene Flüssigkeitsteilchen die bez. Moleküle zu wählen. Aber es kommt ein entscheidender Umstand in Betracht, der die letztere Auf- fassung ausschließt. Laplace setzt nämlich zwischen den Massenteilchen nur Anziehungskräfte voraus. Ein System von diskreten, etwa gar punktförmigen Molekülen kann aber eine Gleichgewichtskonfiguration in endlichen, gegen- seitigen Abständen nur dann einnehmen, wenn zwischen den Molekülen Kräfte wirken, die bei gewissen Abständen aus Anziehungen in Abstoßungen übergehen. Laplace kommt mit bloßen Anziehungskräften aus, weil er mit ihnen die An- nahme der Inkompressibilität verbindet, d. h. einer Eigenschaft der Flüssigkeit, die mit der molekularen Vorstellung im Grunde unvereinbar ist.

Diese quasi-molekulare oder besser differentielle Betrachtungsweise, die den Zustand eines Ganzen aus Wechselwirkungen zwischen elementaren Volumen- teilen aufbaut, ist vielmehr doch als eine spezielle Art phänomenologischer Behandlung anzusehen, bei der aus Erfahrungen ein Schluß auf die Vorgänge in unsichtbar kleinen Bereichen gezogen und der Inhalt dieses Schlusses als Prinzip der mathematischen Behandlung endlicher Vorgänge zugrunde gelegt wird. Dabei mag erwähnt werden, daß in dem Falle der Kapillarität die bloße Annahme einer gegenseitigen Attraktion zwischen zwei Flüssigkeitsteilchen oder

7i8 35- W. Voigt: Phänomenologische und atomistische Betrachtungsweise

einem Teilchen einer Flüssigkeit und eines festen Körpers, die in die Richtung der Verbindungslinie fällt und in allen merklichen Entfernungen unmerklich ist (neben der Annahme der Inkompressibilität der Flüssigkeit), ausreicht, um die Gesetze der Kapillarwirkungen streng daraus zu gewinnen; eine spezielle An- nahme über die Abhängigkeit jener Kräfte von der Entfernung wird dazu nicht erfordert. Es mag ferner erwähnt werden, daß Gauß der bez. Theorie die klassische Form gegeben hat, in welcher auch die Äquivalenz der Laplac eschen Elementarkräfte mit der früher erwähnten Oberflächenspannung klar zutage tritt.

Das Verhältnis der beiden phänomenologischen Theorien ist trotzdem das einer prinzipiellen Überlegenheit der Theorie der Massenkräfte über diejenige der Oberflächenspannungen, besonders deshalb, weil Massenkräfte uns seit Newtons Entdeckung der Gravitation geläufig sind, und ihre Annahme in anderen Gebieten durch die Erscheinungen gefordert zu werden scheint. Ihre Einführung subsumiert deshalb die Kapillarerscheinungen mit andersartigen unter einen gemeinsamen Gesichtspunkt, während die Oberflächenspannung sie für sich stellt.

Eine wirklich molekulare Theorie der Kapillarerscheinungen ist in neuerer Zeit von mehreren Seiten gleichfalls gegeben worden; zu einer solchen drängten besonders auch die Beziehungen der Kapillarität zur allgemeinen Thermo- dynamik und die Erfolge, welche die molekulare Auffassung in gewissen Be- reichen dieses großen Gebietes gewonnen hat. Bei diesen Theorien werden aller- dings die fern wirkenden Kräfte zwischen den Molekülen (ähnlich wie von La- place) als rein attraktiv angenommen, aber durch die Wärmebewegung und die daraus resultierenden Zusammenstöße der Moleküle ein Äquivalent für eine ab- stoßende Kraft eingeführt, die den Anziehungen entgegenwirkt und ein Zusam- menfallen der Moleküle verhindert. Phy«ikaiiichc 4. Phy sikalische Begründung der Atomhypothese. Die Hypothese

A^omhypothese^ einer atomistischen Konstitution der Materie hat sich bekanntlich schon einigen Philosophen des Altertums durch Überlegung einer Anzahl von Naturerschei- nungen aufgedrängt, die bei Annahme kontinuierlicher Raumerfüllung durch die Materie unverständlich bleiben müßten. Es gehören hierher die Volumen- änderungen der Körper bei Einwirkung äußerer Kräfte und bei Änderung des Aggregatzustandes, die Vorgänge der Mischungen mehrerer Substanzen durch Auflösung und Legierung u. a. m. Im Beginn der modernen Entwicklung hat zuerst R. B o y 1 e mit besonderem Nachdruck sich zu der atomistischen Hypothese bekannt. Ihre mächtigste Stütze fand sie auf dem Gebiete der Chemie, wo die Entdeckung der fundamentalen Tatsache, daß die chemischen Elemente sich nur in Massen, welche ganzzahlige Vielfache individueller unveränderlicher Normalmassen sind, miteinander verbinden, die atomistische Vorstellung ge- bieterisch forderte.

War es schon wahrscheinlich, daß die chemischen Atome und Moleküle sich auch bei physikalischen Vorgängen geltend machen, so hat die kinetische Theo- rie der Materie, insbesondere der Gase, über die in den Artikeln li und 12 berichtet ist, durch ihre Erfolge hierfür zahlreiche Beweise geliefert Immerhin

Physikalische Beg^ndung der Atomhypothese ^ig

sind dieselben keine ganz direkten, insofern schließlich die Beobachtungen im- mer an kontinuierlich erscheinenden Körpern und Vorgängen angestellt wurden, und nur die Bestätigung, die ihre Deutung mit Hilfe einer molekularen Theorie durch die Erfahrung erhielt, die Bekräftigung der gemachten Voraussetzung lieferte.

Da ist es von großem Interesse, daß (besonders in neuerer Zeit) eine Reihe von Erscheinungen wahrgenommen worden sind, die in noch direkterer Weise zu der molekularen Auffassung drängen, Erscheinungen, bei denen die der direkten Wahrnehmung kontinuierlich scheinende Materie sich ausnahms- weise diskontinuierlich betätigt.

Die erste und einfachste hierher gehörige Beobachtung ist die bereits 1827 von Brown gemachte Wahrnehmung, daß mikroskopisch kleine, in einer Flüs- sigkeit suspendierte Körperchen sich in dauernder Zickzackbewegung befinden, die sich indessen innerhalb sehr kleiner Bereiche abspielt, derart, daß das Kör- perchen sich der Regel nach nicht beträchtlich von dem zu irgendeiner Zeit ein- genommenen Orte entfernt. Die Geschwindigkeit dieser Bewegungen nimmt mit abnehmender Größe der Körperchen und mit steigender Temperatur zu, sie ist abhängig von der Substanz der Flüssigkeit, aber merklich unabhängig von derjenigen des Körperchen. Die Geschwindigkeiten liegen bei Wasser von 23® C für Körperchen von etwa Viooo ^°^ Durchmesser im Bereich von einigen Tau- sendsteln eines Millimeters pro Sekunde.

Hier manifestiert sich also ein Vorgang innerhalb der Flüssigkeit, der mit einer kontinuierlichen Konstitution derselben unvereinbar ist; denn als Konti- nuum betrachtet ruht die Flüssigkeit. Es müssen also innerhalb derselben Teilchen in merklich voneinander unabhängigem Bewegungszustand vorhanden sein, die zusammen der direkten Wahrnehmung das Bild des ruhenden Konti- nuums bieten, die aber auf hinreichend kleine suspendierte Körperchen ihre Wirkungen einzeln oder wenigstens in relativ kleiner Zahl üben, nämlich diesen durch ihren Anprall Bewegungsantriebe geben.

Wären diese Anpralle derartig regelmäßig verteilt, daß einem jeden un- mittelbar ein entgegengesetzter von gleicher Stärke folgte, so könnte eine merk- liche Bewegung der Körperchen nicht resultieren. Da aber nach Wahrschein- lichkeit die Anpralle regellos aufeinander folgen und nur innerhalb größerer Zei- ten alle Richtungen gleichmäßig bedacht werden, so werden sie innerhalb kurzer Zeitintervalle je eine kleine Resultante in einer bestimmten Richtung liefern, die bei hinreichend kleinen Körperchen eine merkliche Bewegung hervorruft. In der Tat hat man in neuester Zeit jene sog. Brownschen Bewegungen auf Grund der geschilderten Vorstellung der Rechnung unterwerfen können und eine angenäherte Übereinstimmung zwischen Theorie und Beobachtung erhalten (vgl, Artikel II und 12). Die Grundlage der kinetischen Theorie der Flüssig- keiten, die Annahme von diskreten und in ihren Bewegungen weitgehend von- einander unabhängigen Elementarmassen (Molekülen) in ihnen ist durch diese Betrachtungen in hohem Grade sichergestellt.

Für feste Körper kann der Nachweis des molekularen oder atomistischen

720 35* W. Voigt: Phänomenologische und atomistische Betrachtungsweise

Aufbaues nicht wohl in ähnlicher Weise erbracht werden, da in diesen die Mole- kularbewegung unzweifelhaft anderen Charakter besitzt, nämlich die bezüglichen Massen nur wenig von festen Gleichgewichtslagen entfernt, um die sie schwingen. Bei festen Körpern kann man also im HinbUck auf diese Gleichgewichtslagen von einer Struktur des Körpers sprechen was bei Flüssigkeiten und Grasen keinen rechten Sinn hat, insofern dort die Moleküle sukzessive alle möglichen relativ weit voneinander entfernten Plätze einnehmen können. Das Gesetz die- ser Struktur nimmt das höchste Interesse in Anspruch bei Kristallen, wo die Anordnung der Moleküle oder ihrer Gleichgewichtslagen jene Regelmäßigkeit und Gesetzmäßigkeit besitzen muß, die in den Kristallformen Ausdruck gewinnt.

Bis vor kurzer Zeit fehlte es durchaus an Mitteln, die atomistische Struktur der Kristalle in meßbaren Erscheinungen zu direkter Wirksamkeit zu bringen und demgemäß durch Beobachtungen über sie Schlüsse zu ziehen. Rein geo- metrische Überlegungen lieferten auf Grund der Annahme von molekularer Konstitution für jede Kristallgruppe von bestimmten Formtypen eine be- grenzte Zahl von Möglichkeiten, aber die Zahl dieser Möglichkeiten war sehr groß, und eine Entscheidung über die in jedem einzelnen Falle bei einem be- stimmten Kristall vorliegende ließ sich nicht treffen.

Hier hat die allerneueste Zeit Fortschritte und Aufklärungen gebracht, die zu dem Merkwürdigsten gehören, was die Physik in den letzten Dezennien ge- leistet hat.

Bekannt sind die farbigen Höfe, welche nicht zu ausgedehnte Lichtquellen, z. B. auch Sonne und Mond, umgeben, wenn man sie durch neblige Luft hin- durch betrachtet. Die Lichtringe entstehen durch die Zusammenwirkung aller der Strahlen, die von der Lichtquelle in allen möglichen Richtungen ausgehen und von den Nebelbläschen von der geradlinigen Fortpflanzung abgelenkt, wie man sagt, gebeugt werden. Aus irgendeiner Richtung kommen von allen in dieser Richtung liegenden Bläschen derartige Strahlen in unser Auge und be- dingen durch ihre Zusammenwirkung (Interferenz) jene Lichterscheinung, wo- bei Lichtanteile von verschiedener Farbe (Wellenlänge) sich verschieden ver- halten.

Die so entstehenden Ringe sind außerordentlich verwaschen, weil die Ne- belbläschen völlig unregelmäßig verteilt sind. Wären sie gesetzmäßig in einem sog. Raumgitter angeordnet, z. B. so, daß je acht benachbarte sich in den Ecken eines Würfels befinden, dann würde die durch eine hinreichend kleine Lichtquelle hervorgebrachte Interferenzerscheinung klar und regelmäßig sein und dies spezielle Verteilungsgesetz der Bläschen zur Geltung und zum Ausdruck kommen lassen. Die Erscheinung würde sich noch vereinfachen, wenn die Lichtquelle nicht wie die Himmelskörper oder die technisch gebräuch- lichen Beleuchtungskörper weißes d. h. aus allen Farben gemischtes Licht aussendete, sondern einfarbiges, wie etwa eine mit einem Natriumsalz gelb- gefärbte Heizgasflamme. In diesem Falle würde um das direkte Bild der Licht- quelle nur eine Schar einzelner Lichtflecke in regelmäßiger etwa sternförmiger Anordnung erscheinen.

Physikalische Begründung der Atomhypothese ^2t

Eine notwendige Voraussetzung für das Zustandekommen der Erschei- nung muß dabei hervorgehoben werden, die bei dem Vorgang, von dem oben ausgegangen ist, von selbst erfüllt ist: die Wellenlänge des Lichtes muß kleiner sein, als der Abstand benachbarter das Licht beugender Körperchen. Im ent- gegengesetzten Falle kommt die Erscheinung nicht zustande. Dies sei ein- leitend vorausgeschickt.

Die Elementarmassen oder Moleküle eines Kristalls sind nach unserer Vor- stellung in derartigen regelmäßigen Raumgittern angeordnet, wie oben voraus- gesetzt. Man sollte sonach zunächst erwarten, beim Blicken durch eine Platte aus einem Kristall nach einer punktförmigen Lichtquelle hin eine solche Inter- ferenzerscheinung wahrzunehmen. Faktisch ist dies nicht der Fall. Damit die Erscheinung eintritt, müssen, wie eben gesagt, die Abstände der beugenden Körperchen größer sein als die Wellenlänge des benutzten Lichtes; die Abstände der Kristallmoleküle voneinander sind aber sehr viel kleiner als die Länge der Lichtwellen, die auf unser Auge wirken.

Nun enthalten nach neueren Untersuchungen die Röntgenstrahlen Schwin- gungen von einer unvergleichlich kleineren Wellenlänge, die auch kleiner ist, als die zu erwartenden Abstände zwischen den Molekülen eines Kristalles, und wenn diese Strahlen auch nicht direkt auf das Auge wirken, so können sie doch auf verschiedene Weise, insbesondere durch Photographie, sichtbar gemacht werden. Es war somit ein einfacher, aber darum nicht weniger genialer Gedanke eines deutschen theoretischen Physikers, Laue, zu versuchen, ob bei der Durchstrahlung von Kristallen mit Röntgenstrahlen die nach unserer Vorstel- lung über Kristallstruktur zu erwartenden (sternförmigen) Interferenzerschei- nungen zustandekämen.

Laue und seine Mitarbeiter sandten somit ein feines engbegrenztes Bün- del Röntgenstrahlen durch eine Kristallplatte in angemessen gewählter Orien- tierung und fingen die austretende Strahlung auf einer photographischen Platte auf. Der Versuch glückte in glänzender Weise: es zeigte sich auf der Platte jene Schar geschwärzter Punkte in sternförmiger Verteilung, die nach der theoretischen Überlegung zu erwarten war; es gelang auch aus ihrem Verteilungsgesetz auf die Anordnung der Moleküle im Kristall Schlüsse zu ziehen.

Hiermit war der Nachweis für den Aufbau der Kristalle aus diskreten ge- setzmäßig angeordneten Massenelementen überzeugend geliefert und zugleich ein Weg für die Erforschung der intimsten Struktur dieser Körper eröffnet. Es sei bemerkt, daß anknüpfend an die geschilderten bahnbrechenden Unter- suchungen Prof. Br agg in Leeds durch eine wesentliche Änderung der Beobach- tungsmethode einen großen Fortschritt bezüglich der Klarheit und Deutlich- keit der Resultate erzielt hat. Bei einigen Kristallen von besonders einfacher chemischer Zusammensetzung (Diamant, Steinsalz, Flußspat usf.) ist es an- scheinend gelungen, ein völlig genaues Schema für die Anordnung nicht nur der Moleküle, sondern sogar der einzelnen chemischen Atome im Kristall ab- zuleiten.

K.d.G.ni.iix,Bdx Physik 46

72 2 35- ^- Voigt: Phänomenologische und atomistische Betrachtungsweise

Direkter Nach- 5. Dir ckter Nach wcis der atomistischen Konstitution der Elek-

der atol^cfaen t T i z i t ä t. Daß auch die Elektrizität in atomistischen Elementarmassen existiert,

Kwwtitnticm jg^ jj^ ^^^ Aufsatz übcr Elektronentheorie (Artikel i8) ausführlich entwickelt

der Elektnatftt. ^ '

worden. Hier mag nur eine einzige bez. Beobachtung erwähnt werden, die in mancher Hinsicht ein Analogon zu der Brownschen Bewegung darstellt.

Es gelingt, dünne Nebel von öltröpfchen solcher Kleinheit herzustellen, daß die Tröpfchen unter der gemeinsamen Wirkung von Schwerkraft und Luft- widerstand eine gleichförmige vertikale Fallbewegung von derartiger Langsam- keit ausführen, daß dieselbe mit Hilfe des Mikroskopes der messenden Beobach- tung unterworfen werden kann. Erzeugt man einen solchen Nebel zwischen zwei horizontalen Metallplatten, die entgegengesetzte elektrische Ladungen tragen, d. h. innerhalb eines sog. Kondensators, setzt man ihn also einem elek- trischen Feld aus, so hängt die Geschwindigkeit der vertikalen Bewegung außer von der Größe der öltröpfchen auch von deren elektrischer Ladung ab. Sie kann, je nach deren Größe und Vorzeichen, größer oder kleiner, ja auch von ent- gegengesetzter Richtung sein, wie außerhalb des elektrischen Feldes.

Nun zeigt die Beobachtung, daß bei der beschriebenen Anordnung (na- mentlich wenn radioaktive Substanzen gegenwärtig sind) die Teilchen plötz- liche Geschwindigkeitsänderungen erfahren, die außerhalb des Feldes nicht in ähnlichen Beträgen stattfinden und die demnach auf plötzliche Änderungen ihrer elektrischen Ladungen gedeutet werden müssen. Die Messung dieser Ge- schwindigkeitsänderungen von einem und demselben Tröpfchen und die Be- rechnung der ihnen entsprechenden Ladungsänderungen, die besonders von Mi 11 ik an ausgeführt worden ist, hat nun das Resultat ergeben, daß die La- dungsaufnahmen jederzeit relativ kleine, ganzzahlige Vielfache eines und des- selben Fundamentalbetrages sind. Die Aufnahme der Elektrizität durch die öltröpfchen findet hiernach in Elementarquanten, d. h. aber atomistisch, statt, und es ist Millikan gelungen, auf dem angegebenen Wege auch einen zuver- lässigen Zahlwert für die Ladungsstärke dieser Elektrizitätsatome abzuleiten, der mit den auf anderem, indirekterem Wege erhaltenen Zahlen befriedigend übereinstimmt. Es muß auch in bezug hierauf von weiteren Angaben abgesehen werden (vgl. Artikel il, 13, 20). Schwierigkeiten 6. Schwierigkeiten der atomistischen Behandlungsweise. Wenn ^ Beh^ndiungs*" ^^^ allgemein phänomenologische und molekulare oder atomistische Betrach- weise. tungsweisen einander gegenüberstellt, so denkt man dabei naturgemäß nicht an Vorgänge von der Art der soeben erörterten, bei deren Deutung keine Wahl bleibt, sondern bei denen eine Art Zwang zu der letzteren drängt. Es handelt sich bei dieser Gegenüberstellung vielmehr um Gebiete, wo sich die Vorgänge im Räume kontinuierlich darstellen, und wo somit ein Zwang zu molekularer Deutung nicht vorliegt. Nachdem einmal die molekulare Konstitution wie der Materie, so auch der Elektrizität als erwiesen gelten muß, wird man geneigt sein, die molekulare Betrachtungsweise als die einzige sachgemäße zu bezeichnen und eine phänomenologische als eine höchstens vorläufig zu duldende anzusehen. Im Prinzip ist gegen einen solchen Standpunkt gewiß nichts einzuwenden. In-

Schwierigkeiten der atomistischen Behandlungsweise ^23

dessen mindestens für die Gegenwart und vielleicht noch für geraume Zeit wird er doch den faktischen Verhältnissen nicht gerecht. Die Dinge liegen keines- wegs so einfach, daß man die freie Wahl hätte zwischen phänomenologischer und molekularer Auffassung, sondern in vielen Gebieten stehen einer Verfolgung der letzteren ungemein große, ja unüberwindliche Schwierigkeiten entgegen.

Diese Schwierigkeiten sind in zwei Umständen begründet. Erstens erhalten wir von molekularen und innermolekularen Verhältnissen niemals direkte Kenntnis, sondern jederzeit nur indirekte, meist auf dem S. 716 u.f . geschilderten unsicheren Wege; wir wissen daher über dieselben im Grunde ungemein wenig Sicheres. Zweitens aber begegnet eine strenge mathematische Verfolgung auch solcher Annahmen, von denen wir sicher wissen, daß sie im besten Falle nur ganz rohe Bilder der Wirklichkeit sind und nur wenige charakteristische Züge derselben tragen, außerordentlichen, kaum genügend zu überwindenden Schwie- rigkeiten. Und bei alledem liegt noch die Gefahr vor, daß ein Resultat, ein theoretisch gewonnenes Gesetz, das auf dem genannten Wege gewonnen ist und das man nach S. 717 geneigt sein wird, als eine wenigstens teilweise Bestätigung der zugrunde gelegten Molekularhypothese zu betrachten, im Grunde gar nicht auf derselben ruht, sondern auf gewissen allgemeineren Eigenschaften der benutzten Hypothese, auf ihrer Übereinstimmung mit gewissen allgemeinen physikalischen Prinzipien und mit den natürlichen Symmetrieverhältnissen des betrachteten Vorganges, die ebensowohl bei einer phänomenologischen Be- handlungsweise zur Geltung gebracht werden können.

Und wenn letzteres auch nicht voll zutrifft, so kann es vorkommen, daß man in dem Bedürfnis, das molekulare Bild rund und faßbar auszugestalten, demselben Züge leiht, die für die theoretischen Konsequenzen im Grunde nicht zur Anwendung gelangen, und daß man daher Gefahr läuft, auch diese Züge mehr oder weniger durch die Übereinstimmung des gewonnenen theoretischen Gesetzes mit der Erfahrung als bestätigt anzusehen.

Das Bild, das wir uns von Molekülen und ihren Wechselwirkungen machen, kann nicht wohl etwas anderes sein, als die untermikroskopische Verkleinerung irgendeines uns in großen Dimensionen verständlichen und bis zu einem ge- wissen Grade nachbildbaren Mechanismus. Bekannt ist in dieser Hinsicht die Ver- gleichung der Atome in einem Molekül mit einem System gegeneinander gravi- tierender Weltkörper. Aber schon wenn wir versuchen, mit einem solchen Bilde allereinfachste Verhältnisse, wie z. B. die Tatsache, daß ein Sauerstoffatom sich gerade mit zwei Wasserstoffatomen verbindet, verständlich zu machen, kommen wir zu Schwierigkeiten, insofern bei Systemen gravitierender Welt- körper, die in ihm zu vereinigenden Massen keinerlei Begrenzung unterliegen. Abhilfe scheint zunächst möglich mit Hilfe der Vorstellung, daß jedes Wasser- stoffatom eine elektrische Elementarladung besitzt, Sauerstoff deren zwei von entgegengesetztem Vorzeichen. Wenn entgegengesetzt gleiche Punktladungen sich aneinander lagern, neutralisieren sie einander bez. der Wirkung auf äußere Ladungen, und das System von einem Sauerstoff- und zwei Wasserstoff atomen könnte daher nach außen kräftelos sein. Aber ein solcher Ausweg hilft nicht

46

724 35- ^- Voigt: Phänomenologische und atomistische Betrachtungsweise

weiter, denn auch zwei aneinandergelagerte Sauerstoff- oder zwei Wasserstoff- atome scheinen bez. der von ihnen ausgehenden Kräfte neutral zu sein.

So führt also schon das einfachste aller molekularen Probleme auf Verhält- nisse, für die wir in den uns geläufigen makroskopischen Vorgängen kein Bild finden. Und unendlich viel schwieriger werden die Aufgaben, wenn es sich um die molekulare Erklärung der großen Fülle von mechanischen, thermischen, magnetischen, elektrischen, optischen Erscheinungen handelt, die uns die Ma- terie zeigt.

In bezug auf die letzteren hiervon hat ein namhafter Physiker (Rowland) einmal die scheinbar paradoxe Behauptung aufgestellt: ein Molekül sei viel komplizierter als ein Klavier. In der Tat, ein Klavier hat vielleicht die Fähig- keit, einige achtzig verschiedene Töne auszusenden, d. h. Schwingungen mit ebensoviel verschiedenen Schwingungsdauern auszuführen. Dagegen lehrt uns die Spektralanalyse, daß gewisse chemische Moleküle oder Atome bei höherer Temperatur deren Tausende ausführen, nämlich tausende verschiedener Farben aussenden. Und dabei wissen wir über den eigentlichen Mechanismus der Aus- sendung von Schwingungen durch ein Molekül bisher nur Unvollständiges.

Es erscheint hiernach wenig wahrscheinlich, daß wir in absehbarer Zeit zu einem allseitig brauchbaren Bild der molekularen Verhältnisse kommen werden, und damit ist wohl das Vorhandensein der ersten oben erwähnten Schwierig- keiten überzeugend dargetan. Auf die andere, die vielfach nicht zu überwin- dende Komplikation, welche das Problem der rechnerischen Verfolgung auch des rohesten molekularen Bildes bietet, kann nach der Haltung dieser Darstel- lung nicht wohl näher eingegangen werden. Es sei nur erwähnt, daß schon die methodische Durchführung einer ,, kinetischen** Theorie, welche ein Gas als aus kugelförmigen, absolut elastischen Molekülen bestehend ansieht, die aufeinan- der merkliche Kräfte nur ausüben, wenn sie einander sehr nahe sind, die Kraft der Analysis übersteigt. Eingreifender 7. Eingreifen der Phänomenologie in die Atomistik. Wenn die

in dieTtomUtik* Hiolekulare Theorie der Materie in letzter Zeit große Erfolge erzielt hat, so liegt das besonders an der Benutzung einer eigenartigen Methode, die bis zu einem gewissen Grade phänomenologisch ist. Dieselbe geht dahin, wegen der Schwierig- keit, die einerseits das Fehlen eines zuverlässigen Bildes von molekularer Kon- stitution und Wechselwirkung, andererseits die mathematische Komplikation des bez. Problemes bedingt, gewisse Behauptungen über das Gesamtresultat dieser Wechselwirkungen hypothetisch aufzustellen, die in letzter Instanz durch die Erfahrung kontrolliert werden. Die sog. statistische Mechanik stellt die syste- matische Ausbildung einer solchen Methode dar. Bei ihr handelt es sich um die Erklärung insbesondere thermischer, magnetischer, elektrischer und optischer Eigenschaften der Materie aus angenommenen Eigenschaften seiner Moleküle, die dabei in einer mit steigender Temperatur gesteigerten Bewegung gedacht werden. Statt den wechselnden Zustand eines jeden Moleküles rechnerisch zu verfolgen, wird nach einigermaßen hypothetischen Prinzipien die Häufigkeit der Wiederkehr aller möglichen Zustände eines Moleküles abgeschätzt, und es

Eingreifen der Phänomenologie in die Atomistik 725

wird der mittlere wirkliche Zustand dadurch konstruiert, daß man die sämt- lichen möglichen Zustände nach ihrer Häufigkeit auf die sämtlichen Moleküle verteilt. Man gelangt so zu einem Zustand der Materie, aus dem man gewisse Eigenschaften derselben für den stationären oder Gleichgewichtszustand rech- nerisch ableiten kann (vgl. Artikel 12 u. 36).

Diese merkwürdige Methode hat sich überaus nützlich erwiesen und der atomistischen Theorie Gebiete erschlossen, die zuvor unzugänglich schienen. Ihr phänomenologischer Einschlag ist indessen unverkennbar und gibt ihr einen eigentümlich zwischen den beiden Betrachtungsweisen schwankenden Charak- ter, der sie für unsere Erörterung besonders interessant macht. Es mag hervor- gehoben werden, daß sie zunächst für die Untersuchung von Zuständen be- stimmt ist, bei denen das Gesamt verhalten des betrachteten Körpers sich zeitlich nicht ändert bei dem, wie man sagt, statistisches Gleich- gewicht herrscht, nämlich die einzelnen Moleküle alle ihnen möglichen Zu- stände derart hintereinander durchlaufen, daß der mittlere Zustand aller ungeändert bleibt. Der zeitliche Verlauf der Wirkung eines äußeren störenden Einflusses läßt sich mit ihrer alleinigen Hilfe bisher nicht wohl verfolgen.

Auf das Hineingreifen anderer phänomenologischer Elemente in molekular- theoretische Überlegungen, die in neuester Zeit eine große Rolle spielen, wird weiter unten eingegangen werden.

8. Methodik der Idealmechanik und der geometrischen Optik. Methodik Wir wollen zum Schluß noch hervortreten lassen, welche Rolle in den wichtigsten J^ ^l derlei- Gebieten der Physik die phänomenologische und die molekulare Betrachtungs- «««"»ci^onOptik. weise spielen resp. gespielt haben.

Was zunächst die Mechanik der ideal starren und der ideal flüssigen Körper angeht, die in mancher Hinsicht als das fundamentale Kapitel der ganzen theo- retischen Physik erscheint, so bietet dieselbe für eine molekulare Behandlung wenig Gelegenheit. Denn bei der dem Gebiete zugrunde gelegten Annahme der absoluten Unveränderlichkeit der Gestalt oder wenigstens der Dichtigkeit, ent- steht kaum die Frage nach dem Anteil der Moleküle an den Vorgängen, die ja in der Tat auch nur durch Abstraktion gewonnene ideale Grenzfälle wirklicher mit Deformationen und Dichtigkeitsänderung verbundener Bewegungen dar- stellen.

So ist in der Idealmechanik die phänomenologische Methode die herr- schende, und sie hat in verschiedener Weise der Kirchhoff sehen Forderung der „vollständigen und einfachsten Beschreibung der bez. Bewegungen** zu ent- sprechen gesucht. An die bekannten und anschaulichen von Newton aus der Erfahrung geschlossenen Prinzipien haben die späteren Forscher zunächst direkt angeknüpft. Es mag erwähnt werden, daß die große Fruchtbarkeit jener Prinzipien zum großen Teil auf der (erstmaligen) Einführung der S. 717 cha- rakterisierten differentiellen Methode beruht, die hier eine Aussage (nicht über ein Raum- sondern) über ein Zeitelement macht, eine Aussage, die als Ausdruck der Erfahrung gelten kann und so gefaßt ist, daß mit ihrer Hilfe der Vorgang in endlichen Zeiten aus Teilvorgängen in Zeitelementen aufgebaut

726 35« W. Voigt: Phänomenologische und atomistische Betrachtungsweise

werden kann. Daß das Newtonsche Gravitationsgesetz gleichfalls ein (im räumlichen Sinne) differentielles ist, sei beiläufig hervorgehoben.

Teilweise Umgestaltungen der Newton sehen Prinzipien brachten D' A 1 e m - bert, Lagrange, Gauß, Hamilton, Hertz. Über diese Entwicklung ist in einem eigenen Aufsatz ausführlich berichtet (vgl. Artikel i). Hier mag nur be- merkt werden, daß in derselben eine Wendung der Phänomenologie sich vollzieht, bei der statt unmittelbarer Folgerungen aus der Erfahrung ein feines und kunst- volles Destillat aus derselben in dem Grundprinzip der Theorie Ausdruck gewinnt. Die Anschaulichkeit und unmittelbare Evidenz ist aufgegeben zu- gunsten einer Regel von möglichst umfassender Anwendbarkeit und Gültigkeit. Hierin liegt eine eigenartige Ausgestaltung des Grundgedankens der Phäno- menologie.

Besondere Erwähnung verdient eine Form der Prinzipien als Behauptung, eine gewisse aus der Bewegung zu berechnende Größe sei bei dem wirklichen Vorgang größer oder kleiner als bei allen Vorgängen, die aus dem wirklichen durch gewisse (in Gedanken auszuführende) Veränderungen entstehen. Diese Maximal- oder Minimalprinzipien geben jeden Zusammenhang mit den Grund- vorstellungen auf, die Newton für den Aufbau der Mechanik benutzt hat; sie haben demgemäß etwas seltsam Körperloses, was aber gerade die Weite ihrer Anwendbarkeit bedingt.

Die einfachste Form eines Minimalprinzipes, die besonders leicht die Eigen- art der ganzen Gattung erkennen läßt, findet sich in einem Gebiet, das der Idealmechanik an abstraktem Charakter verwandt ist: in demjenigen der geo- metrischen Optik. Dies Gebiet beschäftigt sich mit der Aufgabe, den Weg der Lichtstrahlen in zusammengesetzten Systemen zu bestimmen, an deren Zwi- schengrenzen Reflexionen und Brechungen stattfinden. Hier hat Fermat ein fundamentales Prinzip aus der Erfahrung abgeleitet, dahingehend, daß, um von einem Punkt A nach einem Punkt B zu gelangen, das Licht denjenigen Weg wählt, auf dem es in der kürzesten Zeit das Ziel erreicht. Sind für alle Körper des Systemes die ihnen individuellen Werte der Lichtgeschwindigkeit gegeben, so genügt das Fe r matsche Prinzip in der Tat, um den wirklichen Weg des Lichtes von A nach B zu berechnen (vgl. Artikel 27).

Aber das Bedürfnis nach einem tieferen Einblick in den Mechanismus des Vorganges wird durch diese Methode kaum befriedigt; denn die Tendenz zu schnellster Ankunft ist in der Natur jedenfalls nicht das primär Vorhandene, vielmehr haben die Elementargesetze der Reflexion und Brechung man möchte sagen zufällig die spezielle Eigenschaft, daß aus ihnen das Minimal- prinzip folgt, oder daß sie umgekehrt aus ihm gewonnen werden können. Die Maximal- und Minimalprinzipien in der Mechanik gestatten ganz ähnliche Be- trachtungen (vgl. Artikel i und 33).

Auch in anderen Gebieten, als den genannten, erweisen sich phänomeno- logische Prinzipien hervorragend fruchtbar, die, in ähnlicher Weise aus der Er- fahrung heraus destilliert, doch das Bedürfnis nach Anschauung der maßgeben- den Vorgänge nicht voll befriedigen.

Phänomenologie und Atomistik in den einzelnen Gebieten der Physik ^27

9. Elastizität und Hydrodynamik. Bei dem an die oben charakteri- sustisit&t «nd sierte Idealmechanik sich direkt anschließenden Gebiet der Mechanik j^j. ^y*~*y^»»^ wirklichen Körper, insbesondere der Elastizitätstheorie, findet die molekulare Theorie eine gewisse Anwendung, obwohl sie nicht entscheidend eingreift. Die phänomenologische Methode ist jene S. 717 geschilderte differentielle. Sie geht davon aus, daß jeder beliebig deformierte (z. B. gebogene oder gedrillte) Kör- per in seinen Volumenelementen als gleichförmig deformiert angesehen wer- den darf, und daß die Gesetze einer gleichförmigen Deformation direkt der Erfahrung entnommen werden können; sie baut demgemäß den beliebig deformierten Körper aus gleichförmig deformierten Elementen auf.

Die molekulare Theorie hat in der Entwicklung der Elastizitätslehre eine eigenartige Rolle gespielt. Die Begründer der letzteren. Kavier und Poisson, sind in der Tat von der Vorstellung ausgegangen, daß die Körper Systeme diskreter Massenpunkte darstellen, die sich unter wechselwirkenden Kräften im Gleichgewicht befinden. Diese Wechselwirkungen sollten von den Entfernungen zwischen den Massenpunkten abhängen (ähnlich wie die New- tonsche Gravitation); daraus ergab sich die Möglichkeit wechselnder Kon- figurationen des Molekularsystemes bei wechselnden äußeren Einwirkungen und damit die Erklärung der elastischen Deformation. Eine spezielle Annahme über das quantitative Gesetz der wechselwirkenden Kräfte war dabei nicht nötig, um zu den Grundformeln der Elastizität zu gelangen. Es genügte die An- nahme, daß die Kräfte in der Verbindungslinie der beiden wechselwirkenden Massenpunkte liegen und allein von der Entfernung abhängen, dabei so schnell mit der Entfernung abnehmend, daß auf einen jeden Punkt nur die Wirkungen solcher anderer Punkte in Rechnung zu setzen waren, daß dieselben innerhalb des Bereiches gleichförmiger Deformation liegend angenommen werden durften (vgl. Artikel 6).

Indessen erwiesen sich diese Annahmen weiterhin als zu eng gefaßt, und es traten wesentliche Widersprüche zwischen den Resultaten der Theorie und der Erfahrung hervor. So rückte zeitweilig die molekulare Auffassung der elasti- schen Vorgänge überhaupt in den Hintergrund, und die phänomenologische gelangte zur Herrschaft. Später hat man dann die Schwierigkeiten der mole- kularen Theorie überwunden, indem man die allgemeinere Annahme einführte, die Moleküle seien nicht als bloße Massenpunkte zu betrachten, sondern als mit ausgezeichneten Richtungen versehene Körperchen, die aufeinander in ver- schiedener Weise einwirken je nach ihrer gegenseitigen Orientierung. Diese Entwicklung gibt ein einfaches und charakteristisches Beispiel dafür, in welcher Weise die Erfahrung zur Korrektur und Ausgestaltung des molekularen Bildes verwertet wird.

Die differentielle phänomenologische Methode spielt auch in dem Ge- biete der Hydrodynamik, wie in denjenigen anderer Gebiete, wo die Vorgänge unter dem Bilde einer Flüssigkeitsbewegung aufgefaßt werden können, ins- besondere in denjenigen der Wärme- und der Elektrizitätsleitung, eine wesent- liche Rolle.

728 35* ^* Voigt: Phänomenologische und atomistische Betrachtungsweise

Thermo- 10. Thcrmoelastizi t ät und allgemeine Thermodynamik. Dagegen

ündlüu^^ine ^^^ ^^^ molckulafe Theorie entscheidende Erfolge erzielt in dem Bereiche der 'r**«™«»^^**""^ Wechselwirkungen zwischen thermischen und elastischen Vorgängen, also in dem Gebiet, das man als Thermoelastizität bezeichnen kann. Der hier fruchtbare Gedanke ist bekanntlich die mechanische Auffassung der Wärme- erscheinungen, die Annahme, daß gesteigerte Temperatur die Geschwindigkeit der Bewegungen der Moleküle vergrößert, und daß letztere wiederum sich in ge- änderten Druck- und Deformationsverhältnissen äußert. In keinem anderen Gebiete der Physik der Materie hat die molekulare Behandlungsweise bisher eine ähnlich durchgreifende und erfolgreiche Ausgestaltung gefunden, wie in diesem, das man auch als kinetische Theorie der Materie bezeichnet. Es ist ihm demgemäß ein eigener Abschnitt in diesem Werke gewidmet, auf den verwiesen werden muß (Artikel il und 12). Über die allgemeinen Schwierig- keiten, die jeder molekularen Theorie entgegenstehen, ist S. 723 ausführlicher gesprochen worden. Es genügt zu bemerken, daß dieselben auch in dem ge- nannten, besonders eingehend bearbeiteten Gebiete in vollem Umfang her- vorgetreten sind.

Im Interesse weitester Verwendbarkeit hat man die allgemeine Thermo- dynamik, von der die Thermoelastizität im Grunde nur eine Provinz darstellt, rein phänomenologisch begründet. Ihre Grundprinzipien sind ähnlich wie diejenigen späteren der Idealmechanik Destillate aus der Erfahrung und weit weniger der direkte Ausdruck des Resultates einzelner messender Beobachtungen, als z. B. diejenigen der phänomenologischen Elastizitätstheorie. In der Form stellen sie übrigens einen merkwürdigen eigenen Typus dar, der von dem der Maximal- und Minimalprinzipien in der Idealmechanik durchaus abweicht. Die beiden ersten Prinzipien, welche aus der Mitte des 19. Jahrhunderts stammen und sich an die Namen R. Mayer-Helmholtz und Clausius-Thomson knüpfen (vgl. Artikel 5 und 32), behaupten die Unmöglichkeit der Arbeitsgewinnung einerseits ohne Kompensation durch Wärmeaufwand, andererseits mit Wärme nur einer Temperatur. Ein drittes in neuester Zeit von Kernst aufgestelltes Prinzip scheint einen ähnlichen Ausdruck, nämlich die Behauptung der Un- möglichkeit für die Erreichung absoluter Kälte zu gestatten, doch ist noch nicht sichergestellt, ob dieser Ausdruck ein erschöpfender ist.

Diese eigene Form der Prinzipien der allgemeinen Thermodynamik illu- striert anschaulich, wie die phänomenologische Methode kein allgemein helfen- des Rezept hat, sondern je nach den zu bearbeitenden Gebieten auf sehr ver- schiedene Weise die „vollständige und einfache Beschreibung" der Vorgänge erreicht. Eiektriziät mid II. Elektrizität und Magnetismus. Bei der Entwicklung der Lehre

agne mos. ^^^ Magnctismus und der Elektrizität hat in der frühesten Zeit die molekulare Behandlungsweise hier und da Anwendung gefunden, ohne doch zur Herrschaft zu gelangen. Molekulare Vorstellungen sind z. B. bei der Begründung der Lehre von der magnetischen und der dielektrischen Influenz benutzt worden; aber einige Unstimmigkeiten der Resultate haben der differentiell-phänomenologi-

Phänomenologie und Atomistik in einzelnen Gebieten der Physik ^29

sehen Methode das Übergewicht über die molekulare gegeben. Atomistische Vorstellungen, die sich W, Weber über die elektrischen Vorgänge gebildet hatte, sind teils nicht bis zu greifbaren Konsequenzen ausgearbeitet worden, teils erschienen die gewonnenen Konsequenzen bedenklich.

Maxwell hat bei seinen Bemühungen um ein System von das ganze Ge- biet des Magnetismus und der Elektrizitätslehre umfassenden Grundgesetzen allerdings das Hilfsmittel eines mechanischen Bildes nicht verschmäht, aber dies Bild kann nicht eigentlich als ein molekulares gelten. Die Schlußform der Maxwellschen Theorie, die H. Hertz gefunden hat, besitzt jedenfalls durch- aus phänomenologischen Charakter und stellt nach der Größe des beherrschten Gebietes und nach der Vollständigkeit der Beherrschung vielleicht überhaupt den größten Triumph der phänomenologischen Methode dar (vgl. Artikel 15). Es ist charakteristisch hierfür, daß H. Hertz seine Gleichungen als den „Ausdruck der gesamten Erfahrung'* bezeichnet.

Indessen erwies sich bald diese bewundernswürdige Theorie als noch immer unvollständig, da sie in gewissen Gebieten der in die Elektrodynamik einbe- zogenen Optik versagte. Wenige Jahre nach ihrem Ausbau brachte die Ein- führung und Verwertung der atomistischen Hypothese in die Elektrizitätslehre, besonders durch H. A. Lorentz, eine der merkwürdigsten Revolutionen in der Physik hervor. Eine Revolution der Grundvorstellungen, der Problemstel- lungen, der Behandlungsweise, bei der die Gesamtheit der phänomenologisch erhaltenen Resultate nichtsdestoweniger bestehen blieb, aber z. T. eine an- gemessene Umdeutung erhielt, z. T. in ihrer Anwendbarkeit schärfer umgrenzt wurde. Über die Begründung der Elektronentheorie und ihre Erfolge in ver- schiedenen Gebieten berichtet ein eigener Artikel dieses Werkes ausführlich (Artikel 15). Es ist sehr merkwürdig, wie ein Gebiet, in dem erst die phä- nomenologische Anschauung unbestrittene Herrin war, in der Zeit von wenigen Jahren zu einer Domäne der molekularen Auffassung werden konnte.

12. Optik. Die ältere Theorie der optischen Erscheinungen faßte dieselben optiic. als Äußerungen der Elastizität des (phänomenologisch eingeführten und mit ent- sprechenden Eigenschaften ausgestatteten) Lichtäthers auf (vgl. Artikel 26). Das verschiedene optische Verhalten verschiedener Körper ließ sich auf eine durch die ponderabeln Massen bedingte Verschiedenheit der Konstitution des Äthers in ihnen deuten. Die Grundlagen waren somit durchaus phänomenologisch. In- dessen drängten, in der Optik vielleicht frühzeitiger als in anderen Gebieten, die Erfahrungstatsachen zur Einführung molekularer Vorstellungen, während die Elastizitätstheorie selbst, wie oben gezeigt, derselben noch entbehren konnte. Die mit auswählender Absorption bestimmter Farben (also Schwingungsarten) verknüpfte Farbenzerstreuung (Dispersion) deutete mit Bestimmtheit auf das Vorhandensein von Gebilden innerhalb der ponderabeln Körper hin, die, ähnlich wie Pendekhen, die Fähigkeit besitzen, Schwingungen mit individueller Periode auszuführen. Da die ponderabeln Körper gegenüber elastischen Schwingungen ein jenem optischen Verhalten ähnliches nicht zeigen, entstand diesen gegen- über auch jene Schwierigkeit nicht.

730 3S- W. Voigt: Phänomenologische und atomistische Betrachtungsweise

So sah sich bereits die elastische Lichttheorie dazu gedrängt, den rein phäno- menologischen Standpunkt aufzugeben, und sie tat es durch EinführuEig der Vorstellung, daß innerhalb der schwereren Moleküle außerordentlich leichte, pendelartig bewegliche Teilchen vorhanden wären, die durch die Lichtweiien zu Eigenschwingungen angeregt würden. Die rechnerische Verfolgung dieser Vor- stellung führte dann zu Gesetzen für Absorption und Dispersion, welche der Er- fahrung vollständig entsprechen.

Es bezeichnet eine der überraschendsten Wendungen innerhalb der ganzen Physik, daß nach Umdeutung der optischen Erscheinungen in elektroma- gnetische Vorgänge der überzeugende Nachweis gelungen ist, jene hypotheti- schen Körperchen von weit unter Atomen liegender Kleinheit seien identisch mit den auf anderen Wegen genau studierten und individualisierten negativen Elektronen. Roiatiritäts. und 13. Relati vitäts- Und Quantentheorie. Die glänzenden Erfolge der Quanten o. Eiek^ronenhypothese haben neben den Ergebnissen der kinetischen Theorie der Materie besonders dazu beigetragen, in den letzten Dezennien der molekularen Behandlungsweise ein beträchtliches Übergewicht über die phänomenologische zu geben. Freilich zwingen die Schwierigkeiten der Fortbildung derartiger Theorien, wie dies früher bereits angedeutet ist, auch in neuester Zeit an ent- scheidenden Stellen zur Einführung phänomenologischer Gesichtspunkte in die Molekulartheorie. Das von Einstein formulierte sog. Relativitätsprinzip, das behauptet, es sei für alle Zeiten unmöglich, eine gleichförmige Bewegung des Beobachters mit seinem Beobachtungsbereich im Weltraum zu definieren, nach- zuweisen und zu bestimmen, erstreckt seine Bedeutung, wie über jede physi- kalische Erscheinung, so auch auf die Probleme der Elektronenbewegung und verlangt für dieselbe bestimmte Gesetzmäßigkeiten. Das Prinzip ist ersicht- lich eminent phänomenologisch, ein Destillat aus gewissen Erfahrungstatsachen, in seiner Fassung den S. 728 erwähnten Prinzipien der allgemeinen Thermo- dynamik verwandt. Noch ist man an der Arbeit, seine Konsequenzen nach allen Richtungen zu verfolgen und die Veränderungen zu untersuchen, die dasselbe an den auf anderen Wegen gewonnenen Gesetzen, z. B. dem Gravitationsgesetr, ver- langt. Wie das Prinzip aus Erscheinungen der Optik somit also der Elektro- dynamik resp. Elektronentheorie abgeleitet worden ist, so sind die bez. Ar- beiten in diesen Gebieten auch am weitesten gefördert und anscheinend er- ledigt. Über das Hierhergehörige wird in dem besonderen, dem Relativitäts- prinzip gewidmeten Artikel ausführlich berichtet (vgl Artikel 34).

Noch weit größere praktische Bedeutung hat ein anderes, als Quanten- theorie bezeichnetes Prinzip gewonnen, das sich ausschließlich auf Funktionen der Moleküle bezieht. Dasselbe behauptet, daß die Moleküle Energie nur in ganz bestimmten, universellen Elementarquanten aufnehmen oder abgeben, deren Größen sich aus den in dem Molekül möglichen Eigenschwingungen be- stimmen. Auch der phänomenologische Charakter dieses von Planck au%e- stellten Prinzipes ist unmittelbar einleuchtend. Eine wirkliche Molekulartheo- rie wird dasselbe als Folge aus der Konstitution und Wirkungsweise der Mole-

Das Eingpreifen von Relativitäts- und Quantentheorie ^31

küle ableiten müssen. Aber zu einer solchen Begründung sind bisher nur dürf- tige Ansätze vorhanden. Die Erfolge dieses Prinzipes sind äußerst bemerkens- wert; die ganze moderne Strahlungstheorie ruht auf demselben, alle Vorgänge, die sich bei tiefsten Temperaturen mit molekularen Energieübertragungen abspielen, sind durch dasselbe in eine ganz neue Beleuchtung gerückt und zum großen Teile zum ersten Male theoretisch faßbar geworden. Auch hierüber ist in diesem Bande berichtet worden (vgl. Artikel iou.12).

Die Aufgabe des vorstehenden war nur, den Charakter und die Verwen- dungsweise phänomenologischer und molekularer Betrachtungsweise in all- gemeinen Zügen zu schildern. Sie mag hiermit als erledigt gelten.

36. VERHÄLTNIS DER THEORIEN ZUEINANDER.

Von M. Planck.

Einieitang. Die Entwicklung einer jeden Wissenschaft vollzieht sich bekanntlich nicht systematisch von einem einzigen Punkte aus, nach einheitlich vorbedachtem Plane, sondern sie setzt aus praktischen Gründen, entsprechend der Vielseitig- keit der von ihr umfaßten Probleme, mehr oder weniger gleichzeitig an verschie- denen Punkten an und wird, je nach der Zahl und der Eigenart der an ihr ar- beitenden Forscher, an den verschiedenen Stellen in verschiedener Weise und in verschiedenem Tempo gefördert. So entstehen häufig mehrere Theorien nebeneinander, die zunächst sich wesentlich unabhängig voneinander ent- wickeln und erst später, wenn sie sich weiter ausbreiten und vervollkommnen, in gegenseitige Fühlung geraten und sich zu beeinflussen beginnen, und zwar je nach den Umständen entweder im Bunde oder im Kampfe miteinander. Hier zeigt sich nun ein charakteristischer Unterschied zwischen den mathema- tischen und den Erfahrungswissenschaften. Bei den ersteren sind zwei verschie- dene Theorien, falls sie überhaupt Berechtigung besitzen, niemals im Wider- spruch miteinander; man kann daher in der Mathematik nicht von einem Gegensatz der Theorien, sondern höchstens von einem Gegensatz der Methoden reden. So ist es z. B. von vornherein ausgeschlossen, daß eine algebraische Theorie einer geometrischen Theorie widerspricht, wenn sich auch Algebra und Geometrie zunächst ganz unabhängig voneinander entwickelt haben. In der Physik als einer Erfahrungswissenschaft dagegen ist es häufig vorgekommen und kommt auch jetzt noch vor, daß zwei Theorien, die es zu einer gewissen Selbständigkeit gebracht haben, bei ihrer weiteren Ausbreitung aufeinander stoßen und sich gegenseitig modifizieren müssen, um miteinander verträglich zu bleiben. In dieser gegenseitigen Anpassung der verschiedenen Theorien hegt der Hauptkeim ihrer Befruchtung und Fortentwicklung zu einer höheren Ein- heit. Denn das Hauptziel einer jeden Wissenschaft ist und bleibt die Ver- schmelzung sämtlicher in ihr großgewordenen Theorien zu einer einzigen, in welcher alle Probleme der Wissenschaft ihren eindeutigen Platz und ihre ein- deutige Lösung finden. Daher wird man auch annehmen dürfen, daß die Wis- senschaft ihrem Ziele um so näher ist, je mehr die Anzahl der in ihr enthal- tenen selbständigen Theorien zusammenschrumpft. Die Geschichte der Physik bietet mannigfache lehrreiche Beispiele für diesen Anpassungs- und Ver- schmelzungsprozeß. In der gegenwärtigen kurzen Skizze soll der geschicht- lichen Entwicklung nur soweit als nötig gedacht werden und im übrigen der

Mechanik

733

Hauptsache nach nur von dem gegenwärtigen Zustand der physikalischen Theorien die Rede sein.

Man kann jetzt in der Physik noch drei verschiedenartige Theorien unter- scheiden: die Mechanik, einschließlich Elastizitätslehre, Hydrodynamik, Aku- stik, ferner die Elektrodynamik, einschließlich Magnetismus und Optik, und endlich die Thermodynamik. Von diesen drei Theorien hat bisher noch jede eine gewisse Selbständigkeit bewahrt, wenn auch die Zahl ihrer gegen- seitigen Berührungspunkte, in welchen sie sich teilweise ergänzen, teilweise aber auch bis zu einem gewissen Grade widerstreiten, schon heute sehr groß ist und, dank den schnellen Fortschritten der experimentellen Forschung, be- ständig anwächst.

Die älteste und am frühesten zur Entwicklung gekommene physikalische Mechanik. Theorie ist die Mechanik, welche daher ursprünglich die alleinige Herrschaft in der Physik beanspruchte und nach dem Urteil mancher Physiker diesen An- spruch auch heute noch mit Recht behauptet. Durch Galilei und Newton begründet, durch Euler und Lagrange in die abschließende Form gebracht, bietet sie ein Bild, welches an Abrundung und Vollendung nichts zu wünschen übrig läßt und mit dem einer mathematischen Theorie ebenbürtig wetteifern kann (vgl. Artikel i). Aber gerade in diesem Charakter der fertigen Abgeschlossenheit, welcher der klassischen Mechanik eigen ist, liegt auch die Unmöglichkeit, aus sich selber heraus weiter zu wachsen und sich so fortzuentwickeln, wie es die allge- meine Aufgabe der Physik verlangt, die ja außer den Bewegungsvorgängen noch eine große Anzahl anderer Erscheinungen zu bewältigen hat. In der Tat mußte der Anstoß zu einer Weiterbildung der Mechanik von außen kommen, und er kam von der elektrodynamischen Theorie. Es ist von eigentümlichem Interesse, zu sehen, wie diese Theorie, anfangs in gewisser Abhängigkeit von der älteren und reiferen Mechanik, sich allmählich von ihr loslöste, selbständige Bahnen einschlug und schließlich soweit erstarkte, daß sie nunmehr ihrerseits einen umwälzenden Einfluß auf die klassische Mechanik auszuüben vermochte (vgl. Artikel l und 34).

Wenn nach dem Gesagten die Entwicklung der Elektrodynamik überall Elektrodynamik, unter dem Einfluß der Mechanik stand, so hat sie sich doch in ganz verschie- dener Weise auf dem Kontinent vollzogen als jenseits des Kanals. In Deutsch- land wurde ihr die Richtung von Gauß vorgezeichnet, der als Mathematiker und Astronom die elektrischen Wirkungen mit dem Newtonschen Gravita- tionsgesetz in Vergleich brachte und daher das elektrische Grundgesetz in einer Verallgemeinerung dieses Newtonschen Fernewirkungsgesetzes suchte. Nach ihm war in der Elektrodynamik das Primäre die Elektrizitätsmenge oder die elektrische Masse, welche ein Seitenstück zu der ponderablen Masse bildet, und die Verallgemeinerung des elektrischen Grundgesetzes gegen das Newtonsche Gesetz bestand darin, daß die Kraft, welche zwei elektrische Massenpunkte aufeinander ausüben, außer von den Größen und der Entfernung der Massen auch von ihrem Vorzeichen und von ihren Geschwindigkeiten abhängen sollte. Bestimmte Formen eines solchen elektrischen Grundgesetzes wurden besonders

^34 3^* M. Planck: Verhältnis der Theorien zueinander

von W. Weber, B. Riemann und R. Clausius aufgestellt. Ganz anders ge- staltete sich die Entwicklung der Elektrodynamik in England. Hier war es Farad ay, welcher ihr den Stempel seines Genius aufdrückte, indem er, un- beeinflußt durch Vorurteile aus mathematischer oder astronomischer Quelle, die elektrischen Erscheinungen unmittelbar auf seine Anschauung wirken ließ und sie so in Verbindung brachte mit denen der Elastizität. Er sah bei diesen Erscheinungen das Primäre nicht in den elektrischen Ladungen, sondern in den elektrischen Kraftlinien, welche von einem geladenen Körper zu einem anderen laufen, und welchen gewisse mechanische Spannungen in dem Zwi- schenmedium entsprechen; eine direkte Wirkung in die Ferne ist dabei gänz- lich ausgeschaltet. Nachdem Maxwell die Faradaysche Hypothese in mathe- matische Form gebracht hatte (vgl. Artikel 1 5), wobei er wiederum durch me- chanische Vorstellungen, aber solche ganz anderer Art wie Gauß, geleitet wurde, erwies sich diese Theorie als ebenbürtig, später als siegreich gegenüber allen Ferne- wirkungstheorien, und charakteristischerweise wurde der Sieg gerade auf dem- jenigen Gebiete erfochten, welches der klassischen Mechanik gegenüber bisher am unzugänglichsten geblieben ist: auf dem der Vorgänge im reinen Vakuum.

Zwar läßt sich in der Natur ein reines Vakuum gar nicht herstellen, aber mannigfache Erfahrungen, zu deren zuverlässigsten die optischen Messungen von Fizeau gehören, haben gezeigt, daß die elektrodynamischen, namentlich die optischen Vorgänge in äußerst verdünnten Räumen vollständig unab- hängig sind von der Natur der darin enthaltenen Gasreste, so daß man in praktisch wohl definiertem Sinne von der Physik des reinen Vakuums reden kann. Hier versagen nun die Fernewirkungstheorien, wofern man nicht die komplizierte, der Idee der Fernewirkung im Grunde fremde Annahme einführt, daß das reine Vakuum ,, polarisierbar'* ist, während die Maxwellsche Elektro- dynamik gerade für dieses einfachste aller Medien auch die einfachste und durchsichtigste Form annimmt (vgl. Artikel 15).

Während nun die Maxwell sehen Gleichungen auf diesem Gebiete ihre schönsten Triumphe feierten, setzten sich den zahlreichen Versuchen ihrer mechanischen Begründung, die natürlich die Existenz eines materiellen Sub- strats, des Lichtäthers, voraussetzen müssen, mit der Zeit immer größere Schwierigkeiten entgegen, und heute wird wohl allgemein zugegeben, daß eine konsequente mechanische Theorie des Äthers mit den einfachen Maxwellschen Gleichungen, diese als absolut genau betrachtet, überhaupt nicht vereinbart werden kann. Damit war aber die Kluft zwischen der klassischen Mechanik und der Elektrodynamik zu einer unüberbrückbaren gemacht, und es blieb nur übrig, entweder die Gültigkeitsbereiche dieser beiden Theorien streng gegen- einander abzugrenzen, oder eine von ihnen zu modifizieren. Der erstere Weg erwies sich bald als ungangbar; denn schon auf dem Gebiet der Elektronen- bewegungen greifen Mechanik und Elektrodynamik unvermeidlich ineinander über, und gerade auf diesem Gebiet zeigte sich daher auch die Richtung der Entscheidung, indem zum erstenmal Abweichungen von den Gesetzen der klassischen Mechanik entdeckt wurden, die ihren Ausdruck fanden in der Fest-

Elektrodynamik. Wärmetheorie ^35

Stellung einer Veränderlichkeit der trägen Masse eines Elektrons (vgl. Artikel 1 5 und 21). Die Einst einsehe Relativitätstheorie enthält eine einfache und voll- Reiativit&t»> Ständige Lösung des Problems, die Mechanik der Elektrodynamik ganz allgemein ***"*' insoweit anzupassen, daß sie einmal den Inhalt der klassischen Theorie zu seinem praktisch wesentlichen Teile beibehält und dennoch den Forderungen der Elek- trodynamik vollständig Rechnung trägt. Die durch das Relativitätsprinzip in die Mechanik eingeführte Modifikation enthält als wesentlichsten Bestandteil die Einführung einer neuen, der klassischen Mechanik durchaus fremden univer- sellen Konstanten: der Lichtgeschwindigkeit im reinen Vakuum (vgl. Artikel i, 15 und 34).

Wenn somit die Mechanik und die Elektrodynamik sich heute unter dem wirmeth«orie. Zeichen des Relativitätsprinzips zu einer einheitlichen Theorie zu vereinigen anschicken, die ich im folgenden kurz als „Dynamik" bezeichnen werde, so bleibt als letzte große Aufgabe der theoretischen Physik noch die übrig, die Verschmelzung der Dynamik mit der Wärmetheorie zu vollziehen, ein Pro- blem, das ebenfalls schon erfolgreich in Angriff genommen ist, aber noch un- gleich größere Schwierigkeiten darbietet als das vorher genannte. Denn die Art der Gesetze, welche in der Dynamik gelten, sind zum Teil total verschieden von denen der Wärmetheorie. Vor allem ist es der allen Wärmeerscheinungen an- haftende Charakter der Irreversibilität, welcher sich einer dynamischen Er- klärung fast unzugänglich zeigt. Während nämlich alle thermischen und che- mischen Vorgänge in einseitiger Richtung verlaufen, spielt das Vorzeichen der Zeit in den Gleichungen der Dynamik gar keine Rolle, d. h. die dynamischen Vorgänge, sowohl die mechanischen als auch die elektrodynamischen, können ebensowohl vorwärts wie rückwärts verlaufen. Diesen fundamentalen Unter- schied hat zuerst R. Clausius klar erkannt, es dauerte aber geraume Zeit, bis er allgemein anerkannt wurde, da bis in die Gegenwart hinein von energe- tischer Seite her immer wieder Versuche gemacht wurden, eben im Interesse der Verschmelzung, die Irreversibilität überhaupt in Abrede zu stellen. Ihren Ausdruck findet sie in dem zweiten Hauptsatz der Wärmetheorie, welcher be- sagt, daß bei jedem thermisch-chemischen Prozeß die Gesamtentropie der an dem Prozeß beteiligten Körper zunimmt, und nur in dem idealen Grenzfall der reversiblen Prozesse konstant bleibt. Die enorme Fruchtbarkeit dieses Satzes für die Wärmetheorie und die physikalische Chemie stand eine Zeitlang in eigentümlichem Kontrast zu der, wie es schien, unüberwindlichen Schwie- rigkeit, ihn vom dynamischen Standpunkt aus zu begreifen. L. Boltzmann war es vorbehalten, einen verheißungsvollen und, wie es scheint, den einzig möglichen Ausweg zu zeigen. Dabei wird allerdings auf eine rein dynamische Erklärung des zweiten Wärmesatzes verzichtet, und an Stelle der bis dahin allein zugelassenen absoluten, dynamischen Gesetzmäßigkeit eine lediglich statistische Gesetzmäßigkeit eingeführt, indem nämlich alle aus thermischen und chemischen Messungen gewonnenen Zahlen als Resultate einer ungeheuer großen Anzahl von Einzelwirkungen gedeutet werden. Während nun für die Einzelgrößen, welche den elementaren Wirkungen zwischen den atomistischen

y36 3^' ^- Planck: Verhältnis der Theorien zueinander

Bestandteilen der Materie entsprechen, die dynamischen Gesetze bestehen bleiben können, so daß für diese das Vorzeichen der Zeit nach wie vor bedeu- tungslos ist, unterliegen die aus dem Zusammenwirken der zahlreichen Elemen- tarvorgänge resultierenden Gesamtgrößen den Sätzen der Wahrscheinlichkeits- rechnung, welche von denen der Dynamik ganz unabhängig sind und somit ein neues, der Dynamik fremdes Element in die theoretische Physik hineinbringen. Von diesem Standpunkt aus erscheint der zweite Hauptsatz der Wärmetheorie lediglich als ein Wahrscheinlichkeitssatz, die Entropie als ein Maß für die Größe der Wahrscheinlichkeit, und die Zunahme der Entropie läuft einfach darauf hinaus, daß auf minder wahrscheinliche Zustände wahrscheinlichere Zustände folgen. Dann ist das Vorzeichen der 2^it dadurch festgelegt, daß dem wahr- scheinlicheren Zustand die spätere 2^it zugeordnet wird (vgl. Artikel 5 und 12).

Das Charakteristische eines Wahrscheinlichkeitssatzes ist, daß er auch Ausnahmen zuläßt, und die Feststellung derartiger Ausnahmen bildet daher eine wichtige Aufgabe der atomistisch-statistischen Auffassung. Den empfind- lichsten Prüfstein für dieselbe liefert die Untersuchung von Gleichgewichts- zuständen. Denn während in der Dynamik das Gleichgewicht einen Zustand absoluter Unveränderlichkeit darstellt, ist das statistische Gleichgewicht ein fortwährenden unregelmäßigen, mehr oder weniger bedeutenden Schwankungen unterworfenes sogenanntes bewegliches Gleichgewicht, und zwar läßt sich die Größe der mittleren Schwankung aus den Sätzen der Wahrscheinlichkeits- rechnung quantitativ genau ableiten. Hier hat sich nun überall die statistische Theorie auf das glänzendste bewährt. Am überraschendsten und überzeu- gendsten wirkt wohl auf den unbefangenen Beschauer der Anblick der soge- nannten Brownschen Molekularbewegung, bei welcher eine ruhende Flüssig- keit von durchaus gleichmäßiger Dichte und Temperatur in ihrem Innern einen unaufhörlichen äußerst lebhaften wirren Tanz der kleinen in ihr suspendierten Partikeln zeigt eine vom Standpunkt der reinen Dynamik durchaus uner- klärliche, vom Standpunkt der Statistik bis in alle Einzelheiten der Voraus- berechnung zugängliche Tatsache (vgl. Artikel 11 und 12).

So ist der starke Gegensatz, mit dem Dynamik und Wärmetheorie anfäng- lich aufeinander stießen, überwunden worden durch den prinzipiellen Verzicht auf die Annahme absoluter Gesetzmäßigkeit in allen thermischen und chemi- schen Erscheinungen, verbunden mit der Einführung der atomistischen Be- trachtungsweise, welche mit einer Anzahl neuer, für sie charakteristischer Na- turkonstanten, den Atomgewichten, operiert. Aber, wie es scheint, wird dies nicht das einzige und nicht das schwerste Opfer sein, welches die Dynamik bringen muß, wenn sie die Wärmetheorie in ihrem vollen Umfang mitumfassen will. Denn mit der Diskontinuität der Materie ist es wahrscheinlich noch nicht getan. Die Gesetze der Wärmestrahlung, der spezifischen Wärme, der Elektronenemission, der Radioaktivität, und noch manche andere Erfahrung sprechen übereinstimmend dafür, daß nicht nur die Materie selber, sondern auch die von der Materie ausgehenden Wirkungen (wofern man überhaupt eine solche Unterscheidung machen kann) diskontinuierliche Eigenschaften besitzen,

Dynamik und Wännetheorie y3^

welche abermals durch eine neue Naturkonstante: das elementare Wirkungs- Qtumten- quantum, charakterisiert werden (vgl. Artikel lO). Ist dasselbe auch numerisch ^^p®*^®"- so ungeheuer klein, daß die Resultate der klassischen Dynamik für alle gröberen Vorgänge durch seine Einführung sicherlich nicht merklich modifiziert werden, so bildet es doch grundsätzlich genommen in dem Organismus der bisherigen Theorie einen Fremdkörper, dessen Auftreten vorläufig um so unbequemer emp- funden wird, als nicht nur die eigentliche Bedeutung des Wirkungsquantums bis jetzt der Anschaulichkeit fast gänzlich entbehrt, im Gegensatz zu den Elek- tronen und Atomen, die doch wenigstens mit den Himmelskörpern gewisse Analogien aufweisen, sondern als auch, was viel schwerer wiegt, noch nicht ein- mal die Stelle genau bezeichnet werden kann, wo das Wirkungsquantum unter- zubringen ist. Kein Wunder daher, daß die klassische Theorie sich zurzeit noch mit allen Kräften gegen die Aufnahme dieses Eindringlings sträubt, und daß in jedem Falle Jahre vergehen werden, bis sich der beiderseitige Assimilations- prozeß vollzogen hat. Immerhin kann es keinem Zweifel unterliegen, daß eine Zeit kommen wird, in welcher, wie die chemischen Atomgewichte, so auch das elementare Wirkungsquantum, sei es unter welchem Namen und in welcher Form immer, einen integrierenden Bestandteil der allgemeinen Dynamik bilden wird. Denn die physikalische Forschung kann nicht rasten, solange nicht mit der Mechanik und der Elektrodynamik auch die Lehre der ruhenden und der strahlenden Wärme zu einer einzigen einheitlichen Theorie zusammengeschweißt worden ist.

Literatur.

£. Mach: Die Mechanik in ihrer Entwicklung historisch -kritisch dargestellt. Leipzig,

F. A. Brockhaus. H. Hertz: Gesammelte Werke, Bd. IL Leipzig, Joh. Ambr. Barth. L. BOLTZMANN: Populäre Schriften. Leipzig, J.A. Barth. M. Planck: Neue Bahnen der physikalischen Erkenntnis. Leipzig, J.A. Barth.

Die erkenntnistheoretischen Grundlagen der exakten Naturwissenschaften werden in dem von E. bECHER bearbeiteten Bande „Naturphilosophie" der Kultur der Gegenwart nochmals im Zusammenhang dargestellt.

K.d.G.m.in,Bdx Phjtik ^y

NAMENREGISTER

Abbe, E. 105, 580, 583, 586f.

Abbot 215

Abney, W. 615

Abraham, Max 60, 570, 659

Airy 547. 585. 630

Aldini 269

Alhazen 519

Amagat 136, 138, 168, 227

Amontons 107

Ampere 119, 191, 274

Andrews 114, 166, 169 ff.

Angström, A. 610, 613

Äpinus 267

Arago 274, S4ofM 548. 556, 6i2f., 627

Archimedes 128

Arco, Graf 364, 375, 405

Aristoteles 4, 5x8

Arrhenius, Svante 156, 278, 413, 424, 427

Aschkinass, A. 455, 615

Assmann 158

Auerbach, Felix 59

Austen, Roberts 409

Austin 286

Avenarius 417

Avogadro 164, 658

B.

V. Babo 159

Back 643

Baco, Francis 8

, Roger 8

von Verulam 521

Baedeker, K. 418, 424

Balmer, J. J. 619, 639

Bannawitz 237

Barett 353

Barkhausen 404

Barkla 476

Bartholinus, Erasmus 533

Bartoli 212

V. Bayer, O. 203

Becher 455

Beckmann 156

Becquerel, A. C. 410, 423

, E. 610

, Henry iio, 272, 478, 485, 628, 638, 642

, Jean 642 f.

Behn 147

Bell IOC

Bellini 376

B^mont 480

Benedicks 425

Benott 554, 624

B6rard 116, 148

Berliner 90

Bemoulli, D. 225, 385

. J- 7. M Berthelot 228

BerthoUet 142

Berzelius 279

Bessel, F. W. 16

V. Bezold, W. 306

Bjerknes, C. A. 60

, V. 306, 394, 572

Biot 103, 274, 54of., 627

Black, J. 112, 118, 662

Blagden 156

Blasema 85

Bloch, O. 346

Blondel 376, 404

Blondlot 402

Bodaszewski 242

Bohr 221, 569, 620 f.

Boltwood, B. B. 247, 482, 509

Boltzmann, L. 33, 124, 212, 219, 224, 229, 232,

259f., 301» 413 f-. 423. 699» 735 Borelli , G. A. 11

Bosanquet 85

V. Böse, M. 423

Boskovich 282

Bosscha 96

Boulliand, Ismael 11

Boussinesq 562

Boyle 137, 190, 225, 521, 654, 718

Namenregister

739

Bradley 556

Bragg, W. L. 207, 444, 463, 476, 484, 721

Branly 361

Braun, F. 361, 370, 396, 399, 401, 411, 452

Brewster 539, 542, 559, 627

Bridgman 136

Brown 242, 353, 4«7. 7«9

Brücke 563

Budde, £. 434

Buif, H. 426, 429

Buisson 625, 636

Bunsen 116, 144, 155, 604, 609, 654

C.

Cagniard de la Tour 82» 91, 133, 167

Cailletet 136, 138, 168, 176 ff., 227

Callendar iio, 117

Canton 135

Cantor 697

Carlisle, A. 271, 425

Camot, S. 119, 658

Cauchy 133, 560!, 567

Cavendish 103

Celsius 103

Chadwick 501

Chapman 235, 237, 239, 241

Chappuis 108, 139

Child, C. D. 440

Chladni 87, 91

Christiansen 393, 567

Chrystal, G. 411

Ciamician, G. 619

Qapeyron 120, 161

Clark, L. 411

Ciausius, R. 1201 122, 171, 224, 226, 233, 256,

278, 292, 413, 417, 420, 426f., 584, 654, 677,

679, 699, 734f. Clay, J. 421 Clement 149 Colardeau 168 Colding, L. A. 32 Coolidge 402 Coppet 156 Corbino 629, 641 Coriolis, G. G. 30 Comu, A. 614, 620, 638 Cotes, Roger 13 Cotton 641 f., 644, 648 Coulomb 132, 140, 268, 334, 566 Crawford 113 Crehore 629

Crookes 190, 450, 453, 461, 612 Crova HO Cunäus 267 Curie, Frau 480, 485

. P- 195» 346, 485 Czapski 584

D.

d'Alembert, Jean le Rond 26, 726

Dalenc^ 103

Dal ton 143, 157, 228

Daniel! , J. F. 157, 272, 426

Davy, Sir Humphry 108, 118, 130, 273, 410»

423, 450. 664 Debieme 482 Debye 219 De Dominis 522 De La Rive 270, 306 Delaroche 116, 148 De L'Isle 103 Dellingshausen, N. 60 Demokrit 223, 518 De S^narmont 185 Desains, P. 195 De Saussure 143

Descartes, R. 6, 7, 518, 521, 580 Deslandres, H. 638, 644 Desormes 149 Despretz 105, 185 Dewar, J. 143, 147, 177, 423, 614 Diels, H. 697

Diesselhorst, H. 399, 419, 423 Dieterici 161, 412 Dirichlet 268 DoUond 591 Domalip 395 Donati, G. B. 617 Donders 601 Doppler, Chr. 554 Dorn 240, 475, 485 Dove 82 Drude, P. 186, 204, 259, 325, 356, 396, 400,

40^» 4131 4»8f., 565, 632 Du Bois, H. 286, 310, 629, 631, 636, 643 Du Bois-Reymond 697 Dudell 377, 404 Dufay 267 Dufour 639, 642

Dulong 108, 131, 137, 147, 654f. Dumas 163

K

Eckmann, V. W. 406

Edison 100, 359

Egen 104

Einstein, A. 38, 126, 219, 221, 242ff., 289,

414. 570 Eitz 85

Elias , G. J. 643

Elster 443

Empedokles 518

V. Eötvös, R. 16

Epikur 223, 518

Epstein 379

47*

740

Esselbach 194

V. Ettingshausen , A. 423

Eucken 151, 183

Euklid 518

Euler, L. 66, 192, 336, 696, 733

Everett, D. 411

Ewing 341, 356f.

Exner, F. 240, 616

, S. 98

F.

Fabry 533f., 624f., 636

Fahrenheit 103

Fairbain 161

Faraday, M. 141, 159, 166, 277, 28iff., 311,

426, 566, 627, 654, 658, 734 Fechner, G. Th. 272, 411 Feddersen 299, 360 Fennat 726 Fessenden 369 Fick 142 Finzi 357

Fizeau 130, 194, 553, 556, 624f., 702, 734 Fitzgerald, G. F. 43, 301, 331, 57©. 1^1 Fleming, J. A. 423 Fletcher 246 Foote 631

Forbes, J. D. 185, 191, 557 Foucault 194, 533, 553, 605 Fourier 86, 184 Fowle 215 Frank, J. 441 Franklin 267, 412 Franz 418 Fraunhofer 551

Fresnel 192, 295, 329, 538, 543^^» 559t 6*9^- Friedrich, W. 443, 4741, 558 Furtwängler 392

G.

Gaede 235

Galilei 4, 107, 520, 733

Galitzin, Fürst 406

Galvani 269

Gaugain, A. 411

Gans, R. 342, 356, 359

Garbasso 310

Gassendi 223, 518

Gauss, C. F. 70, 146, 268, 274, 335, 566, 576,

73^6. 733 GayLussac 103, 131, 149, 671

Geest 641

Gehrcke, E. 236, 448, 460, 553 f., 624

Geiger, R. 247, 443, 641

Geitel, H. 443

V. Geitler, J. 395

Gerosa 357

Namenregister

Gibbs, J. W. 124, 163, 413 f.f 688

Gibson 569

Giese, W. 412, 437

Giesel 481 f., 485

Gilbert 267, 357

Gmelin 644

Goethe 522!, 563

Goldschmidt 100, 378, 405

Goldstein 450 f., 458

Gouy 242

Graham 141 ff., 234

Gray, St. 267

Green, G. 268, 561

Greinacher, H. 417

Grimaldi 520

Grüneisen 135

V. Grothuss, Ch. 426

Grove, W R. 32, 272

V. Guericke, O. 129, 267

Guertler, W. 424

Guldberg, C. M. 431

Gullstrand 581, 586, 595, 601 f.

Gumlich 286, 351, 357

Guthe 286

H.

Haas 569 Hadfield 353 Haga, H. 443, 475 Hagen, G. H. L. 146 Hagen, E. 322, 421 Hahn 464, 483 Haidinger 554 Haie, G. E. 619, 644 Hall, E. H. 422, 631 Halley, E. 11 Hallo 641 Hallwachs 443

Hamilton, W. R. 76, 268, 550, 698, 726 Hamy 637 Han 474 Hann 672

Hansemann, G. 419 Hamack 697 Hartmann -Kempf 93, 95 Haschek, E. 616 Hausen 641 Heaviside, O. 312 Hecker 158 Helm, G. 38

Helmholtz, H. 32, 82, 86 fi., 93, 99, 120, 155, 184, 196, 245, 253, 28of., 289, 292, 298, 325t

360, ^%^, 393. 417» 4*3. 437. 455. 5H» 557. 568, 583, 586, 590, 593, 597, 601, 661, 671,

688, 697, 6995. , R. 442 Henker, O. 603 Henning 108, 161, 165

Namenregfister

741

Henrich, K. 302

Henry 144, 478

Hensen 90

Hering 524

Hermann, J. 26, 115

Herscbel, F.W. 190, 557, 628

. J- 543

Hertz, H. R. 34, 71, 202, 224, 289, 293, 302Ü.,

312, 360. 394, 452, 454, 567, 699, 726, 729

, P. 342

Heuse 227

Heusler, F. 286, 355

Heydweiller, A. 435

Hicks 106

Higgins 91

Hirn 122

Hittoif, W. 278, 426 f., 431, 45of., 611

Hofmann 164

Holbom 108, III, 130, 165

Holder, O. 72, 699

Holtz 287

Holtzmann, C. H. A. 32, 121

Honda 347

Hönigschmidt 481

Hooke, R. II, 82, 132, 521, 551

Huggins, W. 613, 617, 644

Hughes 90

Huli 213

Humphreys, W. J. 621, 626, 647

Huygens, Chr. 6, 9, 201, 527, 531, 605, 662

Hyde, W. 602

Icilius, Qu. 412 IngersoU 631 Isenkrahe, C. 60 Ives 525 Ivory 268

j.

Jacobi, C. G. J. 268, 698 Jaeger, G. F. 424 —, W. 419, 423 Jamin 554 Jansen, J. 617 Jeans, J. H. 414, 646 Jewell 625

Joly 379» 49a

Joule, J. P. 32, 121, 151 f., 226, 273, 412, 667

Julius 644

Kamerlingh Onnes 138, 176, 346, 643

Kant, Immanuel 59

Katz 631

Kaufmann, W. 247, 343, 355, 447. 454^.» 659

Kayser, H. 616, 620, 639

Kelvin, Lord (siehe auch Thomson, Sir William)

*28, 393, 414, 4i6f., 630, 658 Kepler 519 Kerr 630 Ketteier 196 Kiebitz 377 King 638 f. Kircher, A. 81 KirchhofT, G. 88, 133« 184!, 212, 272, 293, 298f.,

4»o, 419, 546, 6o4ff., 619, 654, 659, 699, 715 Klaproüi 129 Kleemann 484 V. Kleist 267 Knipping 443, 475, 558 Knoblauch 191, 557 Knudsen 234, 238, 259 Koch, P. P. 443, 475 Kohlrausch, F. iii, 185, 275, 278, 411, 416,

419, 429, 433 fi., 643 , R. 272, 275, 294, 300, 411, 426, 658 Koläcek 395

König, R. 91, 95, 387, 389 , S. 697

Koenigsberger, J. 347, 424 Kopp 147 Korn, A. 60 Krigar- Menzel 89 Krönig 226, 413

Kundt96f., 141, 185,234,236,393,567,628, 631 Kuenen 176 Kurlbaum iii, 248 Kumakow 425

Lagrange, J. L. 24, 27, 65, 73, 696, 698, 726

Lamb 114

Lampa, A. 203, 558

Landolt 655

Landriani 190

Lange, L. 41

Langevin 345, 350, 642

Langley, S. P. 189, 192, 195, 558, 615

Lamy 6

Laplace, P. S. 29, 95. 1 15, 1 30, 146, 268, 540, 717

Larmor, J. 642, 646, 700

V. Laue, M. 51, 206, 443, 475, 484. 558, 721

Lavoisier 115, 130

Leathem 632

Lebedew 203, 213, 558

Le Chatelier, H. iio, 152, 425

Lecher 304, 374, 400, 402

Leco, Ch. H. 419

Lecomte 91

Lecoq de Boisbaudran 612

Leduc 165, 423

Lehmann, £. 614

, J. G. 267

742

Leibniz 30, 696

Lcnard, Ph. 443. 451, 455, 571, 646

Lenz, £. 412

Leonardo da Vinci 519

Leroux 567

Le Roy 157

Lesage, G. L. 60

Leslie 189

Leukippos 223

Lichtenberg 267

V. Liebig, J. 32

V. Linde 177

Lisell 140, 424

Lissajous 83

Liveing, G. D. 614

Lloyd 550

Lodcyer, N. 612» 617, 644

Lodge, A. 361

, O. 306, 359

Loewe, S. 403

Loghem 632

Lohmann 633

Lommel 129

Lorentz, H. A, 43, 195, 214, 217, 331, 34$, 394,

406, 413 f., 4i8fM 556, 569, 621, 625, 632ff.,

640, 646 f., 707, 729 Lorenz, L. 419 Loria 631

Loschmidt 143, 238 ff. Lukretius 223 Luroi^re 525

Lummer 150, 215, 553 ^m 580, 624 Lux 129 Lymann, Th. 615

M.

Macaluso 629» 641

Mac CuUagh 560 f., 572

Mac^ de L^pinay 554

Mach, £. 41, 97, 224

Mack&, B. 396

Maclaurin, C. 66

Magnus 131

Mallard 152

Malassez 455

Malus 538, 577, 594

Mandelstamm 371

Manet, £. 526

Marc, R. 424

Marci, Marcus 522

Marconi 36of., 367, 370

Mariotte 137, 654

Marx, E. 474, 558

Mascart 547

Mathias 168

Matthiessen, A. 423 f.

Maupertuis, P. L., Moreau de 74, 696, 699

Maurolykus 519

Namenregister

Maxwell, J. C. 33, 141, 171, 196, 201, 224. 229, 232, 233, 289, 292, 297ff., 311» 4«i» 4"3^-» 525. 5ÖÖ, 734

Mayer, A. 697

, J R. 32, 117, 120, 149, 665

» T. 117

Meier, W. 343, 355

Melloni 189, 19I1 i95> 271. 557

Mersenne 81

Meissner 420

Meyer, O. £. 140, 141, 233 f., 239, 241

, St. 346. 485. 487

-, V. 164

Michelson 330, 553 f., 556, 570, 616, 623 ff., .638, 654

Mie, G. 60, 402

Miller 570. 638

Millikan, R. A. 245, 443, 722

Miethe, A. 614

Minkowski, H. 46, 713

Mitchell 644

Mitscherlich 609

Möbius, W. 547

Mohler, F. 621

Mohr, K. F. 32

Moore, J. 638

Morley 570

Morse 359

Moseley 476

Mousson 155

Mouton 641

Muschenbroek 267

N.

Nadeshdin 168

Nagaoka 638, 646

Natterer 138, 166, 227

Navier 133, 560, 727

Neumann, C. G. 41, 184 ff., 630, 693

, Fr. 147, 268, 292, 295, 338, 418, 560 f

Nemst, W. 126, 147, 413!, 4*3» 4*9» 43^»

565. 728 Newton, J. 4f., 10, 95, 103, 192, 223. 268,

521 ff., 527, 535, 6o4ff., 658, 725, 733 Nichols 310 Nicholson, W. 271, 425 Nicol 551 Nicols 213 Nieuwenglowski 478 Nobert 637 Nobili 189, 271 Nordström, G. 60

O.

Oberbeck, A. 304, 383, 386, 395

V. Obermayer 239

Ohm, G. S. 86, 271, 410, 423

Namenregister

743

Olszewski i68, 177 Oppcl, J.J. 599 Oersted 135, 273, 318 Ostwald, W. 159, 429. 431, 434 Ostwaldt 6o2 Oettingen 100

P.

Papalexi 371

Paschen, F. 196, 620, 638 if, 643

Pelticr 271, 417

Pcrkin, P. H. 629

Pdrot 553 f., 624

Perrin 242 f., 636

Petit 108, 131, 147

Pfaundler 115

Pfeflfer 142

Pickering 618

Pictet, M. A. 177, 188

Planck, M. 126, 218, 248, 263, 414, 431, 435,

443» 5^9 Plateau 83

Plato 518

Plücker, J. 286, 450, 611

Pohl, R. 443, 475

Poincar^ 305

Poinsot, L. 23

Poiseuille 140

Poisson 133, 184, 268, 338, 545, 560, 699, 727

Poncelet, J. V. 30

Popoff 361

Pouillet 108, 137, 272

Poulson 378, 404

Preece 359

Preston, Th. 638f.

Pr^ost 188

Pringsheim 150, 215

Ptolemäus 518

Pythagoreer 518

Quincke 146

Q.

R.

Ramsay, W. 168, 464, 486, 612

Rankine, M. 32, 124, 562

Raoult 156, 160

Raps 89

Rathenau 359

Rau 402 f.

Rayleigh, Lord 85, 88, 130, 138, 217, 351,

386f., 391, 393, 414, 486, 562f., 623, 647,

654, 656 Regener, E. 247, 443 Regnault 108, 114, 116, 129: 131, 138, 147,

»57» 159^» »Ö5» 226, 654 f. Reich, F. 612

Reiche 580

Reichenheim 460

Reinganum, M. 421

Renaldini 103

Rendali 367

Reynolds 141

Richards 114

Richardson, O. W. 418

Richarz, F. 286, 302, 355 f-

Richer, J. 10

Richmann 663

Richter, Th. 352, 612

Riecke, £. 259, 409, 413» 418

Riegger 403

Riemann, B. 184, 292, 734

Riess 273

Righi, A. 202, 309, 423, 631 f., 645

Ritter, A. 571

, J.W. 191, 557

Ritz, W. 646 f.

Roberts -Austen 409

Robinson 90

Rochon 190

Rogowski 351

V.Rohr 599, 601 f

Römer, O. 531, 658

Röntgen, G.W. 150, 467, 628

Rosenberger, F. 520, 527

Rowland, H.A. 301, 552, 6i3ff., 623, 637

Royds 247, 464

Rubens, H. 310, 322, 421, 558, 615

Rücker 357

Rudberg 104, 131

Rudert, G. 424

Rudolph, P. 584

Rudorf 240

Rüdorff 156

Ruhmkorff 469

Rumford 114, 118, 189, 664

Runge, C. 620, 638 ff.

~. J- 584 Rüssel 501

Rutherford, £. 246!, 440 ff., 463 f., 483, 485 ff,

499. 502, 504, 637

Rydberg 639

Sadler 476 Sagnac, G. 556 Sarasin, £. 306 Saussure 158 Sauveur 82 Savart 91, 274 Schaffgotsch, Graf 91 Schäfer 93, 99 Scheel 227 Scheele 188 Scheibler 83

S.

744

Namenregister

Schleiermacher 236

Schlömilch 369

Schmidt, G C. 357, 480

Schönrock 629

Schott 105

Schulier 116

Schumami, V. 195, 558, 615

Schuster, A. 411, 454, 461

Schwarz 90

Schwarze 237

Schwarzschild, H. 584, 700

V Schweidler 358, 485, 487

Schwerd 551

Seddig, M. 287

Scebeck, Th.J. 86, 271, 417, $42

Segner 146

Seibt 400, 404

Scllmeier 196, 325, 393

Siedentopf 242

Siemens, W. 291, 424

Siertsema 628

Simon, H.Th, 92, 404, 448, 455

Simony, O. 614

Sissingh 631

Smith, W. 424

V. Smoluchowski 183, 236, 242

Snellius 519

Svanberg 189

Soddy 463 f., 487, 504

Sommerfeld 306, 374, 393, 443. 475, 584

Sondhaus 88

Sorety S. 429

Sorge 99

Sosman 108

Sperling, M. 424

Squier 629

Stampfer 83

Stancari 82

Stark, J. 422, 438, 446, 462, 556, 646

Stefan 213, 236

Steinheil 359, 584

Steinmetz, Ch. P. 351, 358

Stern 93

Stevin 662

Stokes 243, 442, 474, 549, 562. 564, 606

Stoney, J. 409, 435

Straubel 584

StrauB 169

Strecker 359

Streintz, H. 41

Stnitt 492

Stumpf IOC

Sturm 581, 595

Sulzer 269

Sutherland 141, 235

Sutton 585

Schweigger 273

Svedberg, The. 242, 244

Symmer 412

T.

Tait 699

Take, £. 286, 355

Talbot, H.F. 610

Tammann 155

Tartini 99

Täte 161

Taylor, B. 84

Tegetmeier, G. 436

Tesla 399. 402

Thiesen 138

Thilorier 166

Thomson, James 155

Joseph John 33, 301, 306, 345, 418, 421«..

4370-. 45*. 454' 455i 5«>6, 621, 646, 659 , Sir William (siehe auch Kelvin, Lord) 33,

122, 124, 141, 152, 281, 298. 360, 437, 561,

572, 679, 699 Töpler, A. 131 Torricelli, £. 7, 129 Tosi 376

Townsend, J. S. 442 ff. Trevellyan 90 Troost 438 Trouton 161 Trowbridge 395 Tscherning 602 Tyndall 557, 564

U.

Ubaldi del Monte, G. 7

V.

Valentiner 108,

van der Waals 126, 170 ff., 241, 259, 654

van Meuers 638

van t'Hoff 142, 156, 242, 4x3, 427

Varignon 6

Varley 461

Verdet 629

Very 215

Vogel, H. C. 6i7f., 644

Voigt, W. 185, 345, 406, 632f., 64of., 648

Volta 269, 277

Voss, A. A. 71, 699

W.

Waage, P. 431 Wachsmuth 90 Wagner K. W. 358 Waitz 238 Wallis, J. IG Walsch, J. 267 Walter, B. 443, 475 Wanner iii

Warburg, E. 95, 97, 141, 185, 221, 234, 236, 341» 350. 357. 385. 387» 390. 436, 44*. 44^

Namenregister

745

Wartha ii6

Watt i6o, 671

Weber, Fr. 418

, Gebrüder 90

, H. F. 412

, R. 105

—» W. 135, 274, 284, 286, 292, 294, 300, 335»

344» 355» 359» 39^» 4". 5^6, 658, 729, 734 Wehndt, A. 369, 418, 444 Weiss, P. 343, 346, 356, 636, 644, 647 Welter 150 Wertheim 133

Wheatstone, Ch. 91, 272, 610 Wiebc 105

Wiechert, E. 46, 454, 456, 474, 659 Wiedemami, £. 165 I G. 356, 418 Wien, Max 85, 93, 214, 367, 386, 391, 395f.,

401 , Willy 468f., 475, 659 Wiener, Chr. 242, 547 , O. 309, 360, 565 Wilke 113, 267 Wilkings 359 Williams 424

Williamson 278

Wilson, H. A. 245, 443, 499

Winawer 640

Wind, C. H. 443, 475, 631 f.

Winkelmann 236

Winkler, L. U. 144

Wollaston 542, 557, 610

Wood 641

Wren, Ch. 10

Wroblewski 168, 177

Wüllner 159

Y.

Young, Th. 119, 146, 168, 192, 524, 535ff., 547. 644

Z.

Zamboni 272

Zeeman, P. 215t 406, 621» 625, 631 ff., 654

Zehnder 377

Zeiss, K. 601

Zeleny, J. 440

Zenneck 374, 376, 379, 400, 404f.

Zölhier, F. 59, 617

Zsigmondy 242

SACHREGISTER

Abbild 575

Abbildung im Sinne der Wellenlehre 576

selbstleuchtender Objekte 578

nach Gauß 575

nicht selbstleuchtender Objekte 579

von Flächenelementen 583

ausgedehnter Objekte 584 , paraxiale 576

, punktuelle 575

Abbildungsgrenzen bei zentriertenSystemen 581 Abbildungstheorie von Gullstrand 593 Aberration des Lichtes der Fixsterne 556 , sphärische 575 ff.

Ablaufsgeschwindigkeit von Naturvorgängen5 1 Ablenkung der Kathodenstrahlen, elektrische

Abschirmung in der drahtlosen Telegraphie 376 Absolute Einheiten, Grundlagen 268

Geschwindigkeit der Ionen 434 Absoluter Nullpunkt 108

Raum 41, 52

Absolute Temperatur 228, 683

, molekulartheoretische Bedeutung 285

Zeit 41 Absoluttheorie 53 Absorption des Lichtes 325 Absorptionslinien der Kristalle, magnetische

Zerlegung 642 Absorptionsvermögen (optisch) 607 Abstimmen in der drahtlosen Telegraphie 371 Abstinmischärfe in der drahtlosen Telegraphie

365 Achromat 591 Achsen, optische 543 actio reactio 16, 23 Additive Farbenmischung 525 Adiabatische Zustandsänderung 671 Aggregatzustände 128 Akkord 98 Aktinium 482 Aktive Elemente 480

Aktivität, induzierte 485 Akustik 81

der Gebäude 97

, graphische Methode in der 83 Akustische Koppelung 95, 385

Stimmung 84

Alpha* Strahlen 463, 483, 497

, einheitliche chemische Natur der 464

, Geschwindigkeit 464

, Ionisation durch 466

, Reichweite der 465, 484, 498

Teilchen 247

Altachromat 590

Ampere, internationales 657

Amperesche Molekularströme 339

Schwimmregel 274

Strahlungshypothese 191 Analytische Mechanik 66 Anastigmatische Bildebenung 584 Änderung der Dimensionen durch Bewegung

der Elektronenmasse mit der Geschwindig- keit 328

Anfangsgeschwindigkeit von a -Teilchen 511

Anfangspermeabilität 351

Angströmeinheit 613

Anion 426

Anomale Dispersion des Lichtes 393, 567

Reichweiten der drahtlosen Telegrapbüie 376 Antiplanet 584

Antenne 361

Antennenformen 368

Antenne, offene, Schwingungsform d. o. A. 366

, Strahlung der 373

Anwandlung eines Lichtstrahles (Newton) 528 f-

Apertur 587

Aphakische Augen 597

Apianatisches System 583

Apochromate 592

Aquipartition der kinetischen Energie 254

Äquatoriale Reflexion an Magnetspieg^ln 631

Äquivalentladung 428

Aräometer 129

Sachregister

747

Arbeit, mechanische 30

und Wärme 664

Arbeitsteilung zwischen Objektiv und Okular 585

Architektonische Akustik 97

Arcoscher Hochfrequenzgenerator 379

Arrheniussche Dissoziationstheorie 427

Astigmatismus 581

A^- Strahlen 460

Astronomische Aberration 329

Äther 18, 209, 703

, Einfluß der eingebetteten

, Körpermolekeln 502

, labiler nach Cauchy- Thomson 561

nach Huygens 531

, Mitführung durch bewegte Körper 556 , ruhend 43 , torsionselastischer 561 Ätherbewegung, Fizeaus Versuch über 703 Ätherhypothese 46, 48, 56

des Aristoteles 518 t Unzulässigkeit 708 Ätherimpuls 474 Atome, Bau 456. 620, 646 , positiv geladene 327

, strahlenlose Umwandlung 505 , Veränderlichkeit der 246 Atomhypothese, physikalische Begründung 718 Atomistik, experimentelle 223 , theoretische 251

Atomistische Behandlung der Phänomene 716, 722

Zusammensetzung der Elektrizität 245, 722 Atommodell von J. J. Thomson 506, 646

von Ritz 647

von Rutheriford 506 Audion 369

Auge, Bilderzeugung im 519 , optische Beschaffenheit 596 , spektrale Empfindlichkeit 192 Augendrehungspunkt 598 Augenkreis 589 Augenlinse 597 Ausdehnung, reversible 678 Äufiere Wärmeleitung 183 Ausflußtöne 90

Ausgedehnte Objekte, Abbildung 584 Austrittspupille 586 Avogadros Gesetz 164, 228 Avogadrosche Zahl 241, 243

aus der Brownschen Bewegung nach Einstein 243, 246

, Zusammenstellung aller Werte 248

B.

Balmersche Serienformel 221 Bandenspektrum 639 Baroskop 129 Bau der Atome 620 Bedingungen, holonome 71

Beharrungsvermögen der Bewegung 6 Beharrungsgesetz der Bewegung 63 BemouUisches Prinzip der virtuellen Ver- schiebungen 694 Beta -Strahlen, 483, 499

, Halbierungsdicken 500

Beugung des Lichtes 520

der Röntgenstrahlen 475

und Interferenz 538

als Grundlage von Wellenlängenmessungen 623

Beugungseffekt 578

Beugungserscheinungen, Fraunhofersche 551

Beugungsgitter 613

Beugrungsspektren 551

Beweglichkeit, Bindungen der 22

Bewegte Körper, Verkürzung derselben 711

Bewegung, Beharrungsvermögen der 6

, Brownsche 125, 242, 259, 719

, Unzerstörbarkeit 8

, verborgene 33

der Fixsterne 618 Bewegungsenergie des Elektrons 328 Bewegungsgesetze 21

nach Newton 15 Bewegungsgleichungen erster Art 69

zweiter Art 74 Biegung 132

Bildebenung, anastigmatische 584

Bilder 575

Bilderzeugung im Auge 519

Bildpunkt 575

Binäre Elektrolyte 430

Bindungen der Beweglichkeit 22

Bjerknessche Methode der Dämpfungsmessimg

395 , Resonanzmessung 397

Blättchen, Fafben dünner 521

Blech, legiertes, zur Verringerung der Wirbel- ströme 353

Blei, Radioaktivität 488

Blenden 586

Blickrichtung 598

Boden, Einfluß des Bodens auf die Fort- pflanzung elektrischer Wellen 373

Bogenentladung 445

Bogenlampe 448

Bolometer 189

Boyles Gesetz, Herleitung mit Hilfe der Atomistik 225

Branlysche Röhre 361

Braunsche Röhre 452

Braunscher Sender 362, 396

Schwingungskreis 362

Brechung des Lichtes nach Huygens 533

nach der Emissionstheorie 528

Brechung elektrischer Wellen 308 Brechungsexponent und Dielektrizitätskon- stante 321

748

Sachregister

Breite der Spektrallinien 625

Brennfiäche 580

Brille 601

Brownsche Bewegung 125, 242, 259, 719

, elektrische Theorie der 244

Rotationsbewegung 244

C.

Camots Gesetz 119

Camotsche Funktion 658

Camotscher Kreisprozeß 688

Cartesische Ovalen 580

Cäsium, Spektralanalytische Entdeckung 610

Cauchy -Thomsons labiler Äther 561

Charakteristik, elektrische, eines Leiters 412

Chemische Energie 668

Chemische Wirkimgen der Kathodenstrahlen

Chladnische Klangfiguren 87 Chromasie der Vereinigungsweite 591 Chromatische Differenz der Vergrößerung 591

Polarisation 540

im konvergenten Lichte 542

Clausiussche Formulierung des zweiten Haupt- satzes 679 Coulombs Gesetz 268

Theorie des Magnetismus 334 Crookes' Hypothese der Kathodenstrahlen 453 Crookesscher Dimkelraum 446

D.

D'Alembertsches Prinzip 26, 69, 694

Daltonsches Gesetz 143

Dampf 162

, gesättigter 162

, überhitzter 162

Dampf bildung 157

Dampfdichte 163

und Molekulargewicht 165 Dampfdichtemeßapparat von Hofmann 164 Dampfdruck der Elektronen 418

von Lösungen 159 Dampfkalorimeter 116 Dampfmaschine 682 Dämpfung, akustische 94

-^ gekoppelter Schwingungen 388

Dämpfungsmessung nach Bjerknes 39$

Dehnung ij2

Delta- Strahlen 484

Descartes' Theorie des Sehens 518

Detektoren 309, 369

, Schaltung 370

Dewarsche Flaschen 182

Dialyse 143

Diamagnetismus, Erscheinung 285, 336

, Erklärung 344

Diamagnetische Körper 318

Dichte, feste Körper 128

Flüssigkeiten 129

Gase 129

der Moleküle 241

verflüssigter Gase 241 Dielektrika 282

, Erwärmung durch Wechsebtrom 358 Dielektrische Polarisation 283 Dielektrischer Strom 314 Dielektrische Verschiebung 315 Dielektrizitätskonstante 315

und Brechungsexponent 321 Differentielle Betrachtungsweise 717 Diffraktion des Lichtes 520 Diffraktionsgitter von Michelson 637 Diffusion, Flüssigkeiten 141

, Gase 143, 238

, atomistische Erklärungsweise 258

Dimensionen der Elektronen 329

, Änderung der Dimensionen eines Körpers

durch Bewegung 331 Dipol, magnetischer 338 Dispersion, anomale 393

des Lichtes 566

der Wärmestrahlen 190 , Resonanztheorie 568

, Theorie von Fresnel- Cauchy 567

Disruptive Entladung 445

Dissonanz 99

Dissoziation, elektrolytische 429

Dissoziationsgrad 430

Dissoziationstheorie von Arrhenius 427

D- Linie 609

Doppelbrechung 533

, magnetische in Natrium dampf 641

an Flüssigkeiten 641

, Erklärung nach der Emissionstheorie 540

und Polarisation bei Fresnel 549 Doppelkathoden 459 Doppelpendel 383 Dopplereflfekt 554

, Kanalstrahlen 556

, positive Strahlen 462

, Bewegung der Himmelskörper 617

Drähte, Lechersche 304

Drahtlose Telegraphie 359

, gerichtete 376

Telephonie 380

, Hörempfang in der 369

Drahtwellen, Theorie 306

Drehung der Polarisationsebene des Lichts

, magnetische 627

Drehungspunkt des Auges 598 Dreifarbenphotographie nach Maxweil und Ives 525

nach Lumi^re 525 Drillung 132 Druckmessung 139

Sachregister

749

Druckverschiebung der Spektrallinien 626 Druckwagen 139 Dulong-Petitsches Gesetz 147 Dunkler Fleck der Newtonschen Ringe 537 Dunkelraum, Crookesscher 446 , Faradayscher 446 Dünne Blättchen, Farben 521 Dynamik 735

Dynamisches Gleichgewicht der Wärme- leitung 183

Gnmdgesetz 24, 27

, mathematische Einkleidung 66

Dyne 655

£.

Ebene Perspektive 600 Edelgase, spezifische Wärme 232 Eichung von Thermometern iio Einatomige Gase, spezifische Wärme der 256 Einfluß des Bodens auf die Strahlung elektri- scher Wellen 373 Einheiten, absolute 268 , internationale 275 Einsteinsches Uhrenexperiment 46 Eintrittspupille 586

Einwand gegen die kinetische Gastheorie 261 Eiskalorimeter 115 Eispunkt 103 Elastische Konstanten, Bestimmung 132

Lichttheorie 294 nach Fresnel 5450.

nach Mac Cullagh und Neumann 560

, Widerspruch mit der Erfahrung nach

Green 561

Nachwirkung 135

Elastizität, Methodik der Beschreibung 727

fester Körper 131

der Flüssigkeiten 135

der Gase 137 Elastizitätsmodul 132

Elektrische Ablenkung der Kathodenstrahlen

45a

Charakteristik eines Leiters 412

Energie 668

nach Maxwell 314

, ihr Preis 674

Kräfte, bildliche Darstellung nach Max- well 313

, Einheit aller 288

Polarisation 316

Resonanz 365

Elektrischer Lichtbogen, tönender 92

Strom, bildliche Darstellung nach Maxwell 312

Elektrisches Analogon zum Zeemaneifekt 467 Elektrische Schwingungen 298

in Drähten 304

und Lichtschwingungen 567

Elektrische Schwingungen bei enger Kopp- lung 395

, Wanderung der Energie bei ihnen 372

Elektrisches Elementarquantum 326

Leitvermögen 408

nach der Elektronentheorie 420

Spannungsgefälle im wärmedurchströmten metallischen Leiter 416

Elektrische Theorie der Brownschen Be- wegung, Widerlegung durch Svedberg 244

Vorgänge und Energiesatz 672

Wellen, Brechung 308

, Fortpflanzungsgeschwindigkeit 297, 308

, Reflexion 307

Elektrizität, Geschichte 267

, Methodik der Darstellung 728

, atomistische Konstitution der 245, 722

Elektrizitätseinheit 315

Elektrizitätsleitung in Flammen 444

in Flüssigkeiten 408, 425

in Gasen 437

in Metallen 412

und Wärmeleitung 415 Elektrizitätszerstreuung 491 Elektrochemische Theorie nach de la Rive 270 nach Grotthuss 426

nach Arrhenius 427

Elektrodynamik 733

der Gasentladungen 447 Elektrodynamische Kräfte 274 Elektrodynamisches Feld 43 Elektrolyse, Faradays Entdeckungen 277 Elektrolyte, binäre und temäre 430

feste 435

Elektrolyteisen, magnetisches Verhalten 343 Elektrolytische Dissoziation 429

Ionen 323

Leitung 408, 425

Leitfähigkeit 429 Elektrolytischer Konvektionsstrom 428 Elektromagnete, sehr starke 636 Elektromagnetismus, Grundlagen 273 Elektromagnetische Lichttheorie 566

, Maxwells Darstellung 201, 321

, qualitative Bestätigung 202

, quantitative Bestätigung 203

Masse der Elektronen 329

Mechanik 36

Elektromagnetisches Feld nach Faraday 288 Elektromagnetische Telegraphie 274

Theorie der Materie 332

Wellen nach Maxwell 320 Elektron, Bewegungsenergie 328

Dimensionen 329

, Ladung als Funktion der Geschwindig- keit 659

, Messung der Ladung durch Wilson und Millikan 245

, Masse 327

750

Sachregister

Elektronen 324, 435

t Dampfdruck 418 , freie 326

, Konvektionsstrom der 324

, Träger der Kathodenstrahlen 454

Elektronendnicke in Metallen 417

Elektronenringe 506

Elektronen theorie 323, 413

, Begründung durch Helmholtz 280

bei tiefen Temperaturen 421 f.

der Metalle 324, 4x4

des Magnetismus 344

nach Lorentz 634

nach Thomson 422 Element, Galvanisches 281, 436 Elemente, Entdeckung neuer E. durch die

Spektralanalyse 612 Elementarquantum, elektrisches 326

t , nach Helmholtz 280

, , aus elektrolytischen Versuchen 434 Emanation 485

, radioaktive E. in der Luft 491 Emanium 482

Emission des Lichtes in der Elektronen- theorie 325 Emissionsvermögen 607 Emissionstheorie des Lichtes 518 nach Newton, Vorzüge und Nachteile 530

, Vorherrschaft 535

, Höhepunkt der Entwickelung 542

Empfanger für ungedämpfte Schwingungen 379

für gedämpfte Schwingungen 368 Empfindliche Flammen 91 Empfindlichkeit des Auges, spektral 192 Emulsionen, verdünnte, und Brownsche Be- wegung 243

Endprodukte der radioaktiven Zerfalls- reihen 509 Energetische Mechanik 38 Energie 32 , chemische 668

der radioaktiven Strahlung 502

der Sonnenstrahlen 675 elektrische 668 Entwertung der 684 Erhaltung der 661, 670 kinetische 662 magnetische 318 nutzbare 684 potentielle 33, 662 Trägheit der 712

Energiedegradierende Vorgänge im elektro- magnetischen Felde 349 Energieelemente 218 Energieinhalt der Körper 669 Energieprinzip 252

und Prinzip der kleinsten Wirkung 692 Energiequantum 414

Energiequelle, Sonne als 187

Energfiesatz 669

, Anwendung auf elektrische Vorgänge 672 , mathematische Formulierung 671 Energieverteilung, Endzustand 684 , Satz von der gleichmäßigen 414 Energieverwandlung, bevorzugte Richtung 675 , positive und negative 677 Entdeckungen und Präzisionsmessungen 654 Entgasen der Röntgenröhren 472 Entladeverzug 445 Entladung, disruptive 445

in Gasen 439 ff. Entozentrische Perspektive 599 Entropie 123, 124, 685

, Vermehrung der 661, 675

und Wahrscheinlichkeit 736 Entropieänderung bei reversiblen Prozessen 68 5

bei irreversiblen Prozessen 686 Entropiesatz 686 f. Entwertung der Energie 684 Erdantennen 377

Erdbewegung, optische und elektromagne- tische Erscheinungen bei der 330

und ruhender Äther 706

Erdboden, Gehalt an radioaktiven Stoffen 492 Erdmagnetismus, Messung durch Gaufi 335 Erdung in der drahtlosen Telegraphie 361 Erg 658 Erhaltung der Bewegung bei Newton 19

der Energie 30, 32, 661

imd Induktion 292

Erkaltungsmethode in der Kalorimetrie 117 Erregung des Braunschen Senders 362

durch gedämpfte Schwingungen 365 Erregungsweisen der Tonkörper 89 Erzwungene Schwingungen 390

, akustische 92

gekoppelter elektrischer Systeme 403

Ewingsche Theoriedes Magnetismus 341, 356 Experimentelle Optik, Beginn der 519 Explosionsversuche zur Bestimmung der spe- zifischen Wärmen 152

F.

Fallgesetze Galileis 4 Fango, Radioaktivität des 492 Faradayscher Dunkelraum 446 Faradaysches Gesetz 427 Farben 605

dünner Blättchen 521

und Wellenlänge 536 Farbenempfindung 523 Farbenmischung 526

, Gesetze der F. nach Newton 522 , subtraktive 526 Farbenphotographie nach Lippmann 565

nach Maxwell und Ives 525

nach Lumi^re 525

Sachregister

751

Farbenzerstreuung, Erklärung der F. durch

die Elektronentheorie 325 , prismatische 521

durch Gitter 552

Feld, elektrodynamisches 43

, elektromagnetisches nach Faraday 288

Fehlerquellen 655

Feldstarke f magnetische 337

Feldverteilung in Gasen 440

Fermatsches Prinzip 697, 726

Femkräfte, grundsätzliche Beseitigung der 571

Fempunktsfläche 599

Fernrohr 585

Ferromagnetische Körper 318

Legierungen 286 Feste Elektrolyte 435 Feuerzeug, pneumatisches 672 Fixsterne, Aberration des Lichtes der 556 , Bewegung 618

Fizeaus Versuch über Atherbeweg^ing 703 Flächenelemente, Abbildung der 583 Flammen, Elektrizitätsleitung in 444 , empfindliche 91 , singende 91 Flammentöne 91 Flaschenzüge, Prinzip der 25 Fluoreszenz, szintillierende 498 Fluoreszenzlinien des Rubins 643 Flüssiger Wasserstoff 177 Flüssiges Helium 178 Flüssigkeitstöne 91 Flüssigkeitszelle als Detektor 369 Fokallinie 595 Fokalpunkt 595 Fortpflanzungsgeschwindigkeit des Lichtes 658

elektrischer Wellen 297, 308 Fortschreitende elektrische Wellen, ihre in- duzierende Wirkung 373

Fr ahmscher Schlingertank 394

Fraunhof ersehe Beugungserscheinungen 551

Linien 608 Freie Elektronen 326

Energie 688

Ladungen in Gasen 440

Schwingungen, akustische 92

gekoppelter elektrischer Systeme 394

Weglänge 232, 257 Freiheitsgrade der Lage 72 Frequenzverdoppelung 404 Fresnel-Cauchysche Theorie der Dispersion 567 Fresnelsche Integrale 544

elastische Lichttheorie 549 , Mängel 545

, Verbesserung durch KirchhofT 546

, Verhältnis zur Maxwellschen

Theorie 562

Theorie der Reflexion 559 Fresnelsches Sinusgesetz 559

Tangentengesetz 559

Fritter 361

Froschschenkelversuch Galvanis 269

Füllperspektive 599

Funke, Störungen des Schwingungsverlaufes

durch denselben 400 Funken, tönende 367, 369 Funkenentladung 445 Funkeninduktor 469

G.

Galilei -Transformation 701

Gallium, spektralanalytische Entdeckung 612

Galvanisches Element 436

, Theorie 281

Galvanische Ströme, Entstehung 270

Galvanomagnetische Erscheinungen 422

Gamma -Strahlen 483, 500

Gangunterschied, Interferenz bei großem 553

Gasentladungen, Elektrodynamik der 447

Gasentladung, selbständige 439

, unselbständige 443

Gasförmige Unipolardetektoren 369

Gasionen 324, 437

, Bestimmung der Ladung 442

Gaskonstante 658

Gasskale, ideale 108

Gasthermometer 107

Gaußsche Abbildung 575

Gaußsches Prinzip des Ideinsten Zwanges 27, 694

Gebäude, Akustik der 97

Gebrauchsthermometer 109

Gedämpfte Schwingimgen, Empfänger 368

Gefährlichkeit der Röntgenstrahlen 473

Gefrieren von Lösungen 156

Gegengewicht in der drahtlosen Telegraphie 361

Geißlersche Röhren 611

Gekoppelte Lichtschwing^ngen 405

Kreise in der drahtlosen Telegraphie 365

mechanische Systeme 392 Gekoppelter Sender nach Braun 396 Gekoppelte Schwingungen, Dämpfung 388 , Theorie 386

der Elektronen im Molekül 405

Systeme 382

Genauigkeit der Messungen, überflüssige 656 Generalisierte Kräfte 73 Geometrische Optik 519

, neuere Fortschritte 575

, Methodik der DarsteUung 725

Geradlinige Ausbreitung des Lichtes 532

nach der Wellentheorie 545

, Schwierigkeiten der Erklärung 527

Gerichtete drahtlose Telegraphie 376 Gesättigter Dampf 162 Geschlossener Schwingungskreis 362 Geschwindigkeit des Lichtes 658

der a- Strahlen 464

der Ionen in Elektrolyten, absolute 434

752

Sachregister

Geschwindigkeit der Korpuskularstrahlen 327

der Röntgenstrahlen 474 Gewicht und Masse 15

, spezifisches 128

Gewichte, Reduktion auf den leeren Raum 130

Gibbssche Flächen 176

Gitter 552, 613

Gitterbeugung der Röntgenstrahlen 475

Gitterspektrum 552

Gläser, Jenaer 10$

Gleichwertigkeit der Inertialsysteme 54

Gleichzeitigkeit 51, 709

Glunmentladung 445

GUmmlichtoszillograph 447

Goldschmidtsche Hochfrequenzmaschine 378

Grammkalorie 663

Graphische Darstellung des Spektrums 199

Methode in der Akustik 83 Gravitation 11, 59 Gravitationskonstante 658 Grenzen der Molekularmechanik 263 Grothusssche Theorie der Elektrolyse 426 Gullstrands Abbildungstheorie 593 Gullstrand- Stargläser 603 Gyrostatische Koppelung 393

H.

Haarhygrometer 158

Halbierungszeit radioaktiver Stoffe 486, 507 Halbierungsdicke der ß- Strahlen 500 Halleffekt 422

Hamiitonsches Prinzip 27, 75 Harmonie 100 Harmonische Obertöne 86 Härteregulierung der Röntgenröhren 473 Hartwerden der Röntgenröhren 472 Hauptperspektive 599

Hauptsätze der Thermodynamik, Anwendungs- gebiet 689 Hauptsatz der Thermodynamik^ erster 120 , zweiter 123

der Maxwellschen Theorie, erster 318

, zweiter 319

Hauptstrahlen 587

Hauteffekt 352

Helium aus a- Strahlen 464, 486

, flüssiges 178

, spektralanalytische Entdeckung 612

Helligkeit punktförmiger Gebilde 590

Helmholtz-Thomsonsche Wirbelringtheorie 571

Henrysches Gesetz 144

Herings Theorie 574

Hertz' Ableitung der Maxwellschen Gleichungen

293 Hertzsches Prinzip der geradesten Bahn 35 Hertz' Versuche über die elektromagnetische

Lichttheorie 202, 302, 321 Heuslersche Legierungen 286, 355

Himmelsblau 563

Himmelskörper, Anwendung der Spektral- analyse auf die 617 , Temperatur 214 Himmelsmechanik Newtons 14 Hochfrequenzgenerator von Aico 379 Hochfrequenzmaschine von Goldschmidt 378 Hofmannscher Dampfdichtemeßappazat 164 Hohlraumstrahlung 211 Holonome Bedingungen 71 Hörempfang in der drahtlosen Telegraphie 369 Horror vacui 7

Huygenssche Wellentheorie 531 Hydromechanik, Methodik der Darsteliimg 727 Hygrometrie 157 Hyperzentrische Perspektive 599 Hypsometer 158 Hystereseschleife 349, 351 Hysteresb 340 , Erklärungsversuche 355 , Einfluß von Erschütterungen 357

Ideale Gasskale 108

Idealmechanik, Methodik der Darstellung 725

Impulsbreite 474

Indium, spektralanalytische Entdeckung 6x2

Induktion und Erhaltung der Energie 292

, magnetische, nach Maxwell 317

Induktionsströme, Entdeckung durch Faraday 290

Induzierende Wirkung fortschreitender elek- trischer Wellen 373

Induzierte Aktivität 48$

Inertialfeld 43

Inertialsystem 40

, Gleichwertigkeit der 54

Innere Reibung der Flüssigkeiten 140

der Gase 141, 232, 256

Wärmeleitung 180 Integralprinzip 695

Intensität punktförmiger Gebilde 590 Intensitätsverteilung der Röntgenstrahlen 474 Interferenz als Grundlage von Wellenlangen- messungen 623

an dünnen Blättchen 553

bei großen Gangunterschieden 553

des Lichtes 520

der Huygensschen Elementarwellen 543

polarisierter Strahlen 548

und Beugung 538 Interferenzialapparate 553 Interferenzspektroskop 624 Internationale Einheiten 275 Ionen, elektrolytische 323, 426 , absolute Geschwindigkeit 434

in Gasen 437 , Ladung 434

Sachregister

753

Ionen, osmotische Theorie 436

, Oberführungszahl der 4316.

, Wanderung der 278

, unabhängige Wanderung der 433

lonenbeweglichkeit in Gasen 440

, direkte Bestimmung 440

, indirekte Bestimmung 442

lonenstoß 433

Ionisation durch a- Strahlen 466

Röntgenstrahlen 443

lonisationsgrad in Gasen 440

Ionisierung von Gasen durch Röntgen- strahlen 469

lonisierungsspannung 439

lonium 482

Iris 586

Isoliertes physikalisches System 254

Irreversible Arbeitsweise der Wärmekraft- maschinen 690

Irreversible Vorgänge 677

j.

Jenaer Gläser 105

Joulesches Gesetz 411

Joule -Thomson -Effekt 152

Jungfräuliche Kurve der Magnetisierung 341

K.

Kj. Strahlen 458 Kalium, Radioaktivität 488 Kalorie 113, 663 Kalorimetrie 112 , Erkaltungsmethode 117 , Strömungsmethode 116 Kältemaschinen 677 Kammerton 84 Kanalstrahlen 446, 458 , Dopplereffekt bei 556 , spezifische Ladung der 461 Kapillarität 144 Kathodengeialle 446 Kathodenschicht 446 Kathodenstrahlen 447, 450 , chemische Wirkungen 451 , elektrische Ablenkung 452

t magnetische Ablenkung 451 , Wärmewirkung 450 Kation 426

Katralgläser 601 Kaustische Flächen 580 Kerreffekt 631 f. Kilogrammkalorie 663 Kilogrammeter 662 Kinetik des Äthers 571 Kinetische Energie 662 eines Gases 228

Gastheorie 261

K. d. G. m. m, Bd X Physik

Kinetische Mechanik von Hertz 35

Theorie der Flüssigkeiten 242 der Materie 728

der Wärme, Gnmdhypothesen 253

Kirchhoffsches Gesetz der Emission und Ab- sorption 210, 607

Klangfarbe 85

Klangfiguren 87

Klassische Mechanik 21, 28

Kleinste Wirkung, Prinzip der 692

Knall 97

Koerzitivkraft 341, 350

Koexistierende Phasen 155

Kohärenz der Lichiwellen 553

Kohärer 361, 369

Kohle, Preis der Energie der 674

Kohlenstoff im Eisen, schädliche Wirkung auf die Magnetisierbarkeit 353

Kohlrauschs Gesetz der unabhängigen lonen- wanderung 433

Kollineare Verwandtschaft 575

Kombinationstöne 99

Komplementärfarben 524

Kompressibilität fester Körper 134

von Flüssigkeiten 135 KomplizierteZerlegung von Spektrallinien durch

das Magnetfeld 640

Kondensation von Gasen 166

Kondensator, Entladung des K. im Schwin- gungskreis 362

nach Maxwell 314 Konkavgitter von Rowland 637 Kontaktelektrizität bei Volta 269 Kontaktpotentialdifferenz 417 Konische Refraktion 550 Konsonanz 99

Konstanten, universelle 658

Konstanz der Lichtgeschwindigkeit 706

Konvektionsstrom, elektrolytischer 428

der Elektronen 324 Konzentrationskette 436

Konzentration einer Emulsion in verschiedenen

Höhen 243 Koppelung bei akustischen Systemen 95, 385 , gyrostatische 393 , magnetische 396 , Vorteile und Nachteile in der drahtlosen

Telegraphie 399 Koppelungsmessungen, Meßmethoden 398 Koppelungsschwingungen 384 Koppsches Gesetz 147 Körperfarben nach Newton 522 Korpuskularstrahlen 326 , Geschwindigkeit 327 Kraft 21, 31 Kräfte, elektrische 313 , elektrodynamisdie 274 , generalisierte 73 , lebendige 73

48

754

Sachregister

Kräfte, magnetische 289, 317 Kräftefreie Mechanik von Hertz 34 Kraftlinien 286

Kraftlinien theorie Faradays 335 Kraftwirkungen, Unabhängigkeit der 22 Kraftwirkungsgesetz 5 Kreisprozeß 681 Kristaildetektoren 370

Kristalle, magnetische Zerlegung der Ab- sorptionslinien 642 , optisch einachsige und zweiachsige 543 Kritische Temperatur 166

Zustandsgröfien 168 Kryohydrate 156 Kubische Pfeifen 88

Kurze elektrische Wellen 202

Labiler Äther nach Cauchy-Thomson 561 Ladung des a -Teilchens 247

des Elektrons 659

des Elektrons, Messung durch Wilson und Millikan 246

, Verhältnis zur Masse bei den Elektronen 635

, bei den Kathodenstrahlen 454

LangevinscheTheorie des Paramagnetismus345

Längsdilatation 133.

Langwellige Strahlung des Auerbrenners und der Quarzquecksilberlampe 199

Lateralaberration 582

Lebendige Kraft 73

, Satz von der 9

Lechersche Drähte 304

Legierungen, elektrische Leitfähigkeit der 424

, ferromagnetische 286

Legiertes Blech (Verringerung der Wirbel- ströme) 353

Leitfähigkeit, Abhängigkeit der elektrischen L. von Temperatur, Druck, Aggregatzustand 423

des Wassers 435 , elektrolytische 429 , spezifische 411

von Metallegierungen 424 Leitvermögen, elektrisches 408 Leitung, elektrolytische 408, 425 Lenardsche Dynamide 571 Lenardstrahlen 452

Licht, Beugung 520

, Brechung 528, 533

, Diffraktion 520

, Dispersion 566

, Drehung der Polarisationsebene 286

, Emissionstheorie 530—542

, Emission des L. in der Elektronentheorie 325

, Fortpflanzungsgeschwindigkeit 658

, geradlinige Ausbreitung 527, 532, 545

, Interferenz 520

, Reflexion 528 ff.

Licht, Schwingungszahl 192

, Undulationstheorie von Hooke 521

, von Huygens 201

, Wellenlehre 5i7ff., 568

Lichtabsorption 325

Lichtäther 702

Lichtbogen 445

Lichtbogenschwingungen 404

Lichtelektrische Vorgänge 220

Lichtemission durch Elektronenbewegung 216

Lichtgeschwindigkeit 531, 658

, Konstanz der 706

Lichtquanten 569

Lichtsäule, positive 446

Lichtschreitungen 49

Lichtschwingungen 548

, senkrecht zur Polarisationsebene 559

und elektrische Schwingungen 567 Lichtstrahlen, Anwandlungen der L. nach

Newton 528 f.

und Wärmestrahlen 188 Lichttheorie, elastische 294 , elektromagnetische 566

nach Maxwell 295, 300 Lichtwellen, Kohärenz der 553 Lichtwirkung optischer Systeme 589 Lindes Luftverfiüssigungsverfahren 177 Linien, Fraunhofersche 608 Lippmanns Farbenphotographie 565 Lorentz- Gruppe 55

Lorentzsche Theorie der komplizierten Zer- legung von Spektrallinien 640

Lorentz -Fitzgeraldsche Hypothese 37

Kontraktion 43

Lorentzsche Hypothese des ruhenden Äthers 704

Lorentz -Transformation 44, 701

Lorenzsches Gesetz derWärmeleitung 186,419

Löschfunken 367, 400

Loschmidtsche Zahl 240 f., 246

Lösungsdruck der Metalle 437

Lösungen, Dampfdruck 159

, Gefrieren 156

Luftleitergebilde 368

Luftplatte 624

Luftverflüssigungsverfahren von Linde 177

Lumi^res Farbenphotographie 525

Lumineszenz 205

der Kathödenstrahlen 451

Mac CuUagh-Thomsonscher torsionselastischer

Äther 561 Magnetische Ablenkung der Kathödenstrahlen

451

Doppelbrechung in Flüssigkeiten 641

in Natriumdampf 641

Drehung des Lichtes 286, 627

r

Sachregister

755

Magnetische Drehung in der Nähe von Absorp- tionsstreifen 641

Energie 318

-> Felder auf der Sonne 644

Feldstärke 337

Induktion nach Maxwell 317

Koppelung 396

Kräfte, Einheit aller 289

nach Maxwell 317 Magnetischer Dipol 338 Magnetische Spannungen 318 Magnetisches Verhalten des Elektrolyt- eisens 343

Magnetische Zerlegung der Spektrallinien 633

und Feldstärke 643

der Absorptionslinien der Kristalle 642

Magnetisierung 317, 337 Magnetisierungskonstante 337 Magnetisierungskurve, jungfräuliche 341 Magnetisierte Spiegel 630

, polare Reflexion an denselben 631

Magnetismus 285 , Elektronentheorie des 344 , Methodik der Darstellung 728 , ältere und neuere Theorien 334

, Ewingsche Theorie 341, 356

und periodisches System 347 Magnetonen 346 Magnetooptik 627

, Theorie von Voigt 640

Malusscher Satz 577

Manometer 139

Mariottes Gesetz 137

Maße, materielle Realisationen der 657

Masse 21

der Moleküle 241

und Gewicht 15

der Elektronen 327 Massestrahlen, natürliche 463 , künstliche 458 Massenwirkungsgesetz 431 Materialkonstanten 659

Materie, Kinetische Theorie der 728

, strahlende 450

Materielle Realisationen der Maße 657

Mathematische Formulierung des dynamischen

Gnmdgesetzes 66 Maximumthermometer 106 Maxwellsche Theorie 311

1 bildliche Darstellung 312

, Methodik der Darstellung 729

, verschiedene Auffassungen 322

Maxwells Entdeckungen in elementarer Dar- stellung 297

Formulierung von Faradays Vorstel- lungen 292

Verteilungssatz 229 M^canique analytique 65 Mechanik i

Mechanik als Theorie 733

, elektromagnetische 36

, energetische 38

, kinetische von Hertz 35

, klassische 21, 28

, kräftefreie 34

Newtons 14 Mechanische Arbeit 30

Energie, Erhaltung der 662

als Grundlage jeder Energie 253 Mechanisches Wärmeäquivalent, Berechnung

durch R. Mayer 665

, experimentelle Bestimmung durch

Joule 667

Mechanische Systeme, gekoppelt 392

Mechanismus der elektrolytischen Disso- ziation 429

Medizinische Anwendung der Röntgen- strahlen 473

Mesothorium 483

Metalle, Elektronentheorie der 325, 413

, Lösungsdruck der 437

, optische Eigenschaften 322

Metallische Elektrizitätsleitung 408, 412

Metallischer Leiter, Wärmeleitung 414

Metallegierungen, Leitfähigkeit 424

Metallreflexion 568

Meter, Auswertung des M. in Wellenlängen 624

Michelsons Versuch 330, 570, 707

Stufengitter 554 Mikrophon 90 Mikroradiometer 190 Mikroskop 585 Mischungskalorimeter 113 Mischungsregel von Richmann 663 Mitführung des Äthers 556 Mitführungskoeffizient Fresnels 329 Mitführungstheorie der Wärme durch den elek- trischen Strom 416

Mittlere freie Weglänge 257 Mitschwingen 382 Mobile Polarisation von Biot 541 Mol 241

Molekulare Dimensionen aus Oberflächen- spannung 145

Oszillatoren 567

Molekulargewicht aus Dampfdichtebestim- mungen 165

Molekularmechanik, Grenzen 263 Molekularströme nach Ampere 339 Molekularströmung 234 Molekulartheorie 717 , Einwand 224

des Magnetismus 338 Moleküldurchmesser 240 f. Moleküle, Eigenschaften 23 9 ff- Molekülstrahlen 461 Molionen 438

756

Sachregister

Mondhöfe 552 Moorelicht 448 Multiple Resonanz 93

N.

Nachwirkung, elastische 135

Naturvorgänge, Ablaufgeschwindigkeit der 51

Nebenbogen des Regenbogens 547

Neoimpressionisten 525

Neuachromat 590

Newtons Ablehnung der Wellentheorie 527

Ansicht über die Farben in der Wellen- lehre 530

Theorie der Körperfarben 522 Newtonsche Ringe 529, 536 Newtonsches Gesetz der äußeren Wärme- leitung 184

Newton- Transformation 45

Nichtselbstleuchtende Objekte 580

Nicols Prisma 551

Nordlicht 612

Normale Dispersion des Lichtes 566

Normalelement von Weston 656

Normalvergrößerung 590

Nullpunkt, absoluter 108

Numerische Apertur 587

Nutzbare Energie 684

Nutzeffekt der Wärmekraftmaschine 682

O.

Oberflächenspannung 144

und molekulare Dimensionen 145 Oberfiächenwellen in der drahtlosen Tele-

graphie 374

Obertöne, harmonische 86

Objekte, nichtselbstleuchtende und selbst- leuchtende 580

Objektiv 582

Objektpunkt 575

Offene Antenne, Schwingungsform derselben 366

Öffnungswinkel 587

Ohm, internationales 657

Ohmsches Gesetz 271, 409

in Gasen 438

Okular 582

Okularkreis 588

Optik, Methodik der Darstellung 729

, geometrische 519, 575

der elektrischen Oszillationen 309

vor der Wellenhypothese 517 Optische Achsen 543

Optisch einachsige und zweiachsige Kri- stalle 543 Optische Eigenschaften der Metalle 322

Systeme, Lichtwirkung derselben 589 Optisches Telephon 391

Optische Temperaturmessung ixo

Orgelpfeifen 89

Orthoskopie 584

Ortszeit 44

Oszillatoren, molekulare 567

Osmose 142

Osmotische Theorie der Ionen 436

Ostwalds Verdünnungsgesetz 431

Ovalen, cartesische 580

P.

Paramagnetische Körper 318 Paramagnetismus 285, 336 , Erklärung 344 Paraxiale Abbildung 576 Pechblende 480 Peltiereffekt 417 Pendel (GaUlei) 5 , physikalisches (Huygens) 9 , sympathisches 383 Periodenverdoppelung 404 Permeabilität 285

nach Maxwell 318 Perspektive 600

, entozentrische 599 , hyperzentrische 599

körperlicher Objekte 599 Perpetuum mobile 670 Pfeifen 87

, kubische 88

Pferdestärke 673

Phänomenologie in der Atomistik 724

Phänomenologische Betrachtungsweise 714

Phase der Schwingung, akustisch 94

Phasen, koexistierende 155

, thermodynamisch 163

Phonograph 100

Photochemische Prozesse 221

Photoelektrischer Effekt 443

Photographische Wirkung der Röntgenstrahlen

469 Physikalisches Pendel (Huygens) 9 Piezometer 135

Plancksches Strahlungsgesetz 218, 248 Platinthermometer 109 Plattenspektroskop 624 Pneumatisches Feuerzeug 672 PointiUismus 525 Poissonsche Konstante 132 , Bestimmung durch gekoppelte Seh win

gungen 393 Polare Reflexion an Magnetspiegeln 631 Polarisation, chromatische 540

des Lichtes 538

in trüben Mitteln 564

der Röntgenstrahlen 476 , dielektrische 283

durch Doppelbrechung 539

Sachregister

757

Polarisation, elektrische 316

, elektrolytische 281

, mobile P. von Biot 541

Polarisationsapparat 539, 551

Polarisationsebene 539

, Drehung der 541

Polarisationswinkel 539

Polarisierte Strahlen, Interferenz derselben 548

Polonium 481

Ponderable Dielektrika 284

Positive Lichtsäule 446

Strahlen 458

auf der Sonne 463

, Dopplereffekt 462

, Spektren der 462

, Theorie 460

Positiv geladene Atome 327 Potentialtheorie 268 Potentielle Energie 33, 662 Poulsenlichtbogen 377 Präzisionsmechanik 655 Präzisionsmessungen, Auswahl der Gegen- stände 653, 659

, prinzipielle Bedeutung 654 Preis der elektrischen Energie 674

der Energie der Kohle 674 Prestons Gesetz 639

Prinzip des kleinsten Zwanges 70

der Flaschenzüge 25

der geradesten Bahn 35

der kleinsten Wiikung 76 , Geschichte 696

und Relativitätsprinzip 701

der Konstanz der Lichtgeschwindigkeit 706

der virtuellen Geschwindigkeiten 24 Verrückungen 24

Prinzipielle Bedeutung derPräzisionsmessungen 654

Prisma, Nicols 551

Prismatische Farbenzerstreuung 521

Prismatisches Spektrum 522

Psychrometer 158

Punktförmige Gebilde, Intensität und Hellig- keit 590

Punktuelle Abbildung 575

Punktgesetz 590

Pyknometer 129

Pyrometer iii

Q.

Quantentheorie 126, 730, 737 Quarzlinsenmethode der spektralen Unter- suchung 198 Quecksilberthermometer, Geschichte 103 Querkontraktion 133

R.

Radioaktive Emanationen in der Luft 491

Stoffe, Theorie 503

Radioaktive Stoffe, Halbierungszeit 486, 507

, Sekundärstrahlen 501

, Theorie 503

Strahlung 495

, Energie derselben 502

, Grundeigenschaften 483

—, Theorie 495

Substanzen, tabellarisch zusammengestellt SIC

, Bedeutung der r. S. für die Molekular- physik 246

Umwandlungen, zeitlicher Verlauf 507

Zerfallsreihen 509 Radioaktivität 467

als allgemeine Eigenschaft der Materie 488

des Bleies 488

des Kaliums 488 , Rubidiums 488

des Erdbodens 493

, Entdeckungsgeschichte 478 , praktische Bedeutung 512 Radioelemente, ihre Verbreitung auf der

Erde 490 Radiometer 190, 238 Radium 481

, Entdeckung durch Frau Curie 480 , metallisches 482 Radiumgehalt, seine Bestimmung 488 Radiothor 483 Randstrahl 582 Rätsel der Erkenntnis 61 Raum 21

, absoluter 41, 52

Raumwellen in der drahtlosen Telegraphie 374 Raumzeitlinie 48 Raumzeitpunkt 48 Raumzeittransformation 710 Rayleighsches Strahlungsgesetz 217 Reduktion der Gewichte auf den leeren

Raum 130 Reduzierte Zustandsgieichung 171 Reflexion der Kathodenstrahlen 453

des Lichtes nach der Emissionstheorie 528 nach Huygens 533

an magnetisierten Spiegeln 630

elektrischer Wellen nach Hertz 307 Reflexionstheorie von Fresnel 559 Refraktion, konische 550 Regelmäßigkeiten in den Spektren 619 Regenbogen 547

Regenerieren der Röntgenröhren 472 Reibung 23

der Gase und Temperatur 235 und Wärmeleitung 237

, innere, von Flüssigkeiten 140 , , von Gasen 141 Reibungskoeffizient der Gase 233 Reibungswärme, frühere Erklärung 663 Reichweite der a- Strahlen 465, 484, 498

758

Sachregister

Reichweiten der drahtlosen Telegraphie 3 75 f. Reine Stimmung (Akustik) 84 Relativität der Zeit 709 Relativitatspostulat nach Minkowski 55 Relativitätsprinzip 46, 48

nach Einstein 54

und Prinzip der kleinsten Wirkung 701 Relativitätstheorie 47, 570, 702, 730, 735 , Grundgedanke 708

, Signalübertragung in der 50 Remanenz 340, 350 Resonanz 382 , akustische 92 , elektrische 365

, multiple 93

, Scheu vor der 390

, singulare 93

, unbestimmte 93

Resonanzinduktor 404

Resonanzkasten, Rückwirkung des R. auf die

Stimmgabel 388 Resonanzkurve, elektrische 395

in der drahtlosen Telegraphie 365 Resonanzprinzip nach Hertz 303 Resonanztheorie der Dispersion 568 Resonanztransformator 404 Resonatoren 93, 361

Resonicrende Systeme, Rückwirkung 383 Reststrahlen 196, 558 Retrograde Kondensation 176 Reversible Arbeitsweise der Wärmekraft- maschine 682

Ausdehnung 678

Vorgänge (ij'j

Reversibler und irreversibler Wärmetrans- port 679 Rheinfall, Energie desselben 674 Ringe, Newtonsche 529, 536 Ritzsches Atommodell 647 Röhren, Geißlersche 611 Röntgenbilder, geometrische Eigenschaften 470 Röntgenröhren 470 , Entgasen der 472

, Härteregulierung 473 , Regenerieren 472

, Kühlung der 471 Röntgenstrahlen 467

als Ionisatoren 443 , Beugung 475

, Gefährlichkeit 473 , Geschwindigkeit 474 , Intensitätsverteilung 474 , medizinische Anwendung 473 , photographische Wirkung 469 , Sekundärstrahlen der 476 , Stokes-Wiechertsche Hypothese 474 , Verschiebungsgesetz 215 , Zugehörigkeit zum elektromagnetischen Spektrum 206

Röntgentechnik 468

Rotation der Sonne 617

Rotationsbewegung, Brownsche 244

Rowlandsches Gitter 552, 613

Rubin, Fluoreszenzlinien 643

Rückstoßatome 499

Rückwirkung resonierender Systeme 383

Ruhender Äther 556, 704

Ruhemasse 37

RuhmkorfTscher Funkeninduktor 469

Rubidium, Radioaktivität 488

, spektralanalytische Entdeckung 610

Rungesche Regel der Zerlegung von Spek- trallinien 640

Rutherfordsche Methode der Bestimmung der lonenbeweglichkeit 441

Rutherfordsches Atonunodell 506

S.

S|- Strahlen 458 Saccharimeter 551 Sättigungsdruck fester Körper 161

und Temperatur 159 Sättigungsstrom in Gasen 439

Satz von der gleichmäßigen Energie- verteilung 414

von der lebendigen Kraft 9 Schallausbreitung 97 Schallgeschwindigkeit 95

bei Newton 17 Schärfenfläche 599

Scheidungstheorie des Magnetismus 33S Scheu vor der Resonanz 390 Schichtung der Augenlinse 597 Schiefe Ebene (Galilei) 5 Schirmanntenne 368 Schlingertank, Frahmscher 394 Schlömilchzelle 369 Schlüssellochperspektive 600 Schmelzen 154

Schmelzpunkt 155

Schmelzwärme 156

Schreitung 49

Schwankungen des Strahlungsdruckes 219

Schwarzer Körper 211

Schwebungen 82

bei Koppelung 384 * Schwerdsche Beugungserscheinung 551 Schwimmregel, Amp^resche 274 Schwingungen, akustische 92

, Dämpfung gekoppelter 388

der Elektronen im Molekül 405 , elektrische, in Drähten 304

gekoppelter Systeme 382, 386 , freie 394

, erzwungene 403

im Dielektrikum 307

, schnelle elektrische 360

Sachregister

759

Schwingungsdauer, elektrische 298 Schwingungserregung nach Hertz 303 Schwingungsformen, akustische 86

der Tonerreger 89

der offenen Antenne 366 Schwingungskreis, elektrischer 362

von Braun 362

, geschlossener 362 Schwingungsrichtung des Lichtes 565 Schwingrungszahl des Lichtes 192

und Wellenlänge 537 Sehen, Descartes' Theorie 518

durch eine Brille 601

mit bewegtem Auge 597 Sehstrahlentheorie 518

Seitlichkeit doppelt gebrochener Strahlen 534 Sekundärstrahlen der radioaktiven Stoffe 501

der Röntgenstrahlen 476 Sekundäres Spektrum 592 Selbständige Entladung in Gasen 439 Selbstleuchtende Objekte, Abbildung 578 Selen, Leitfähigkeit 424

Sender, gekoppelte S. nach Braun 396

Senkwage 128

Serienformel von Balmer 221

Serienlinien, magnetische Zerlegung 639

Sieden 158

Siedepunkt 103

Signalübertragung in der Relativitätstheorie 50

Silberspiegel molekularer Dicke 554

Singende Flammen 91

Singulare Resonanz, akustische 93 -

Sinusbedingrung bei Abbildung von Flachen- elementen 583

Sinusgesetz von Fresnel 559

Sirene 82

Skineffekt 352, 362

Sonne als Energiequelle 187

, magnetische Felder 644

, Rotation 617

Sonnenflecken, Transversaleffekt 645

Sonnenforschung und Spektralanalyse 619

Sonnenstrahlen, Energie der 675

Spannung, elektrische, Einheit 276

Spannungen, magnetische 318

Spannungsgefälle im wärmedurchströmten Leiter 416

Spannungsreihe von Volta 270

Sphärische Aberration 275, 581

, Beseitigung 582

Spektralanalyse 604

, Anwendung auf Himmelskörper 617

und Sonnenforschung 619 Spektralfarben 522 Spektrallinien, Breite 625

, Druckverschiebung 626 , feinste 636

, kompHzierte Zerlegung durch das Magnet- feld 640

Spektrallinien, magnetische Zerlegung 633

mit polarisierten Rändern 635 , Struktur 622

, Trabanten 625

, Verbreiterung 406

Spektralserien und magnetische Zerlegung 639

Spektren der positiven Strahlen 462

, Regelmäßigkeiten der 619

, verschiedene Arten von 611

Spektrometrische Methode der Aussonderung

der Reststrahlen 196 Spektrum, prismatisches 522 », graphische Darstellung 199 , sekundäres 592 S(>ezifische Ladung der Kanalstrahlen 461

Leitfähigkeit 411 Spezifischer Widerstand 411 Spezifische Wärme 146, 663

bei konstantem Druck 148, 665

bei konstantem Volumen 151, 666

der Gase 230

der Edelgase 232

einatomiger Gase 256

überhitzter Dämpfe 165

und Temperatur 151

Wärmen, Differenz der 665 Sperifisches Gewicht 128

Volumen gesättigter Dämpfe 161 Spiegel, magnetisierte 630 Stargläser 603

Stationärer Zustand bei der Wärmeleitung 183 Statistische Methode in der Atomistik 724 ^ Strahlungstheorie 215 Stauungsfreie Bewegung der Elektrizität 313

Verteilung der magnetischen Induktion 317 Stefan -Boltzmannsches Gesetz 213 Stimmgabel, Rückwirkung des Resonanz- kastens auf die 388

Stehende Wellen 564

, akustisch 96

Stimmung, akustisch 84

Stofftheorie der Wärme 118

Stokes-Wiechertsche Hypothese der Röntgen- strahlen 474

Störung des Schwingung^verlaufes durch den Funken 400

Stoßerregung 367, 400, 403

Stoßtheorie der lonenbildung nachThomson 444

Strahlen, positive 458 463

Strahlenbegrenzung 586

Strahlende Materie 450

Strahlenlose Umwandlung der Atome 505

Strahlung 188

, Meßinstrumente 189

, Anwendung der statistischen Mechanik auf die 217

der Antenne 373 , radioaktive 495 ff. Strahlungsdruck 212

^bo

Sachregister

Strahlungsdruck, Schwankungen desselben 2x9

Strahlungsfunktion 659

Strahlungsgesetz von Planck 218

Strahlungshypothese von Ampere 191

Strahlungsgleichgewicht 210

Strahlungstheorie, statistische 215

, Schwierigkeiten 217

Strahlungsvorgänge, radioaktive 496

Striktionsanoden 459

Stroboskopische Methode der Tonhöhenbe- stimmung 83

Strom, dielektrischer 314

, elektrischer 467

, galvanischer 270

Stromintensität, Einheit der 276

Strömungsmethode in der Kalorimetrie 116

Stromwärme 673

Struktur der Spektrallinien 622

Stufengitter 554, 624

Sublimation 162

Substantielle Relativitätstheorie 53

Substanz, Unzerstörbarkeit der 8

Subtraktive Farbenmischung 526

Suszeptibilität 337

Swanspektrum 610

Synaugie 518

Sympathische Pendel 383

System der Welt (Descartes) 7

Systeme, gekoppelte 382

, isolierte physikalische 254

SzintiUation der a- Teilchen 247

Szintillierende Fluoreszenz 498

T.

Talbotsche Streifen 194 Tangentenbedingung bei der Abbildung aus- gedehnter Objekte 584 Tangentengesetz von Fresnel 559 Taupunkt 157 Telegraphie, drahtlose 359 , elektromagnetische 274 Telephon, optisches 391 Telephonie, drahtlose 380 Telezentrische Perspektive 599 Temperatur, Definition 106 , absolute 228, 285, 683

einer Wärmemenge 676

der Himmelskörper 214 , kritische 166

Temperaturkoeffizient der elektrischen Leit- fähigkeit 423

Temperaturleitvermögen 184 Temperaturmessung, Genauigkeit der 11 1

auf optischem Wege iio Temperaturskale 107

nach Thomson 688

, thermodynamische 124

Temperatursprung an der Grenzfläche zweier Medien 184

Temperaturstrahlung 205

Temperierte Stinunung (Akustik) 84

Terminalfeld 50

Temäre Elektrolyte 430

Thallium, Entdeckung durch Crookes 612

Theorien, ihre Funktionen in der Physik 714

, ihr Verhältnis zueinander 732

Thermodynamik 118

, Hauptsätze der 120, 123

, Methodik der Darstellung 728

Thermodynamische Temperaturskale 108

Thermoelastizität, Methodik der Dar- stellung 728

Thermoelemente 109

Thermomagnetische Erscheinungen 422

Thermometer, Eichung iio

Thermometerglas 105

Thermometrie 103

Thennosäule 189

Thermosflaschen 182

Thermoströme 271

Thomsoneffekt 416

Thomsonsche Formulierung des zweiten Wärmehauptsatzes 679

Thomsonsches Atommodell 646

Thomsonsche Stoß theorie der lonenbildung 444

Temperaturskale 688

Tikkerschaltung 379

Tönende Funken 367, 369

Tönender elektrisdier Lichtbogen 92

Tonerreger 89

Tonhöhenmessung stroboskopische Methode der 83

Tonkörper, Erregungsweisen der 89

Tonstärke 85

Torsionselastischer Äther 561

Townsendsche Theorie der selbständigen Elektrizitätsleitung in Gasen 444

Trabanten der Spektrallinien 625

Trs^heit der Energie 718

, Ursprung 37

Transpirationsmethode 233

Transversaleffekt in den Sonnenflecken 645

Transversalität der Lichtwellen 547

Trevellyan -Effekt 90

Triplets der Spektrallinien 635

Trübe Mittel 563

U.

Übereinstinrniende Zustände 172 ff. Überflüssige Genauigkeit bei Präzisioos-

messungen 686 Oberführung der Ionen 431 Überführungszahl 433 Überhitzter Dampf 162 Uhren, bewegte 712

Sachregister

761

Uhrenexperiment von Einstein 46

Ultramikroskop 242

Ultrarotes Spektrum 190, 615

Ultrarote Strahlen 557

Ultraviolettes Spektrum 205, 614

Ultraviolette Strahlen 5 57 f.

Ummagnetisieren , Wärme durch 349

Umwandlungen , radioaktive, zeitlicher Verlauf derselben 507

Umwandlungspunkte 154

Umwandlungstheorie radioaktiver Stoffe 505

Unabhängige Wanderung der Ionen 433

Unabhängigkeit der Kraftwirkungen 22

Unbestimmte Resonanz 93

Undulationstheorie des Lichtes von Hooke 521

von Huygens 201

Ungedämpfte elektrische Schwingungen 377

Unipolardetektoren 369

Universelle Konstanten 658

Universum und die Hauptsätze der Thermo- dynamik 689

Unselbständige Elektrizitätsleitimg in Gasen 443

Unterlichtgebiet 49

Unterteilungdes Eisens gegen Wirbelströme 353

Unveränderlichkeit der Atome 246

Unvollständig zerlegte Spektrallinien, Theorie von Lorentz 646

Unzerstörbarkeit von Substanz und Bewegung 8

Uran 507

Uranstrahlen 478

Uran X 508

Undulationstheorie des Lichtes, ihr Sieg 547

Urphänomen, optisches U Goethes 563

V.

Valenzladung 658

van der Waalsche Zustandsgieichung 170

Variationsprinzip 693

Veränderlichkeit der Atome 247

Verantlupe 601

Verborgene Bewegungen 33

Verbreiterung der Spektrallinien 406

Verbreitung der Radioelemente auf der Erde 490

Verdampfung 157

Verdampfungswärme 160

Verdetsche Konstante 629

Verdrängungsmethode der Dampfdichte- messung 164

Verdünnte Emulsionen und Brownsche Be- wegung 243

Verdünnungsgesetz 431

Vereinigungsweite, Chromasie der 591

Verflüssigte Gase, Dichte derselben 241

Verflüssigung von Gasen bei den tiefsten Temperaturen 176

Vergprößerung, chromatische Differenz der 591

Verhältnis der spezifischen Wärmen 149

Verkürzung bewegter Körper 711

K. d. G. III. m, Bd. 1 Physik

Verkürzungshypothesen 331 Verschiebungsgesetz, Wiensches 214

, bei Röntgenstrahlen 215

Verschiebungsstrom 300 Verschiebung, dielektrische 315 Verteilte Kapazität der Antennen 368 Verteilung der Geschwindigkeiten der Mole- küle nach Maxwell 229 Verteilungsgesetz Maxwells 229 Verwandlung von Arbeit in Wärme 664 Verwandtschaft, kollineare 575 Verzerrung von Bildern 584 Verzögerung der Entladung 445 Virtuelle Geschwindigkeiten 24

Verrückungen 24, 68

Voigts magnetooptische Theorie 640 Volt, internationales 657 Voltameter 279 Voltasche Säule 270

Spannungsreihe 270 Volumen der Moleküle 241

W.

Wahrscheinlichkeit und Entropie 736

des Eintretens bestimmter Zustände 261 Wanderung der Energie bei elektrischen

Schwingungen 372

der Ionen, unabhängige 433 Warburgs Gesetz des Hystereseverlustes 350 Wärme 663

als Molekularbewegung 224

durch Ummagnetisieren 349

, Mitführungstheorie der W. durch den elektrischen Strom 416

und Arbeit 664

, Stofftheorie der 118

Wärmeäquivalent 121

Wärmeeinheit 663

Wärmeerzeugung durch den elektrischen

Strom 273 Wärmekapazität 112, 663 Wärmekraftmaschine, Schema der 681 , irreversible Arbeitsweise der 690 , Nutzeffekt 682 Wärmeleitung, äußere 183 , dynamisches Gleichgewicht 183 , innere 180

in Gasen 235, 257

, Abhängigkeit vom Druck 236 , Messung der 185

und Elektrizitätsleitung 415

, Lorenzsches Gesetz der 186, 418 , Newtonsches Gesetz der 184

und Reibung der Gase 237 Wärmeleitvermögen 181

und kinetische Elcktronentheorie 421 Wärmemenge 113

' , Temperatur der 676

48*

762

Sachregister

Wännereservoir 676 Wärmestoff 662

Wärmestrahlen , Dispersion der 190 Wärmestrahlung 187 , Theorie 209 Wärmetheorem von Nemst 728 Wärmetheorie 735

Wärmetransport, reversibler und irrever- sibler 679 Wärmeverteilung im metallischen Leiter 414 Wärmewirkung der Kathodenstrahlen 450 Wasserkraft 675 Wasserstoff, flüssiger 177 Wasserwert, kalorimetrischer 113 Watt, internationales 658 Webersche Theorie des Magnetismus 340 Weglänge, freie, der Moleküle 257 Weiß als Elementarempfindung 524 Weißsche Theorie des molekularen Feldes Wellen, stehende (akustische) 96 ~, elektromagnetische nach Maxwell 320 Wellenfläche 576 Wellenlängen der drahtlosen Telegraphie 364

des Lichtes 192, 195

der Sekundärstrahlen (Röntgenstrahlen) 476 Wellenlänge, Farbe und Schwingungszahl 53 6 f.

und Druck 621

und Meter 624

Wellenlängenmessung im unsichtbaren Spek- trum 193

mit Hilfe der Beugung 623 Wellenlängennormale 615

Wellenlehre des Lichtes, Entwicklung 5i7ff.

, neuere Einwände 568

Wellenmesser 371 Wellentheorie von Huygens 531 , Ablehnung durch Newton 527 Weltlinie 48 Weltpostulat 48 Weltpunkt 48 Wesen der Gravitation 13 Westonsches Normalelement 656 Widerstand, elektrischer 409

, spezifischer 411 Widerstandseinheit 277 Widerstandskapazität 429 Wiedemann-Franzsches Gesetz 186, 418 Wiedervereinigung der Gasionen 438 Wiensches Strahlungsgesetz 216

Verschiebungsgesetz 214 Wiensche Stoßerregung 367

Wirbelströme 352 Wirbelringtheorie 571 Wirksamkeit der Maschinen 7 Wirkung^slinie einer Kraft 23 Wirkungsquantum 569, 659

y.

Youngs Theorie der Interferenz der Licht- wellen 535

Young-Fresnelsche Hypothese der Trans- versalität der Lichtwellen 547

Helmholtzsche Theorie der Farben- empflndung 524

Z.

Zählmethoden der a -Teilchen 247, 499

Zeemaneffekt 621, 625, 633

, Theorie 406, 634

, elektrisches AxiiaLlogon 462

in der Elektronentheorie 325

, komplizierte Zerlegung der Spektral- linien 638 Zeit 21

, absolute 41 , Relativität der 709

und Raum nach Newton 16 Zeitangaben, physikalische Bedeutung der 70S Zeitlicher Verlauf radioaktiver Umwand- lungen 507

Zentrierte Systeme, Abbildungsgrenzen 581 Zerfallskonstante radioaktiver Stoffe 507

imd Anüangsgeschwindigkeit der a -Teilchen 511

Zerfallsprodukte radioaktiver Stoffe 505 Zerfallsreihen, radioaktive 505, 509 Zerfallstheorie radioaktiver Stoffe 246, 504 Zerlegung von Spektrallinien, Rungesche

Regel 640 Zersetzungsprodukte der Elektrolyse 279 Zuckerbestimmung auf optischem Wege .551 Zungenpfeifen 392 Zustandsänderung , adiabatische 671 Zustandsändenmgen des Äthers 290 Zustandsgieichung idealer Gase 125, 255 , reduzierte 171

von van der Waals 169 Zustandsgrößen , kritische 168

Zweiter Hauptsatz der Thermodynamik 679

des Elektromagnetismus nach

Maxwell 319

•^^^N 2 3 1915

Drack von B. G. Teaboer io Dresden.

DIE KULTUR DER GEGENWART

IHRE ENTWICKLUNG UND IHRE ZIELE

HERAUSGEGEBEN VON PROF. PAUL HINNEBERG

Neue Bände:

Die mathematischen Wissenschaften

Unter Leitung von F. Klein

Inhalt: 1. Die Beziehttngen der Mathematik zur Kaltnr der Gegenwart: A. Von. 2. Die Verbreitanff mathe- matiscnen Wissens und mathematischer Anfnssunff: H.E.Timerdinff. (Nr. 1 tt.2»2. Ueff. IVIn.l61S.] Lex.-8. 1914. Geh. M. 6.—)= 3. Die Mathematik im Altertum und im Mittelalter: H. 0. Zeuthen.

(1. Lieferg. |lVu.95S.] Lex.-8. 1912. Oeh.M.3.— ) 4. Die Mathematik im 16., 17. und 18. Jahrhundert: P. StA ekel. ~ 5. Die Mathematik der Neuzeit. N. N. 6. Ober die mathematische Erkenntnis: A. Vofl. (3. Lieferg. (VI u. 148 S.| Lex.-8. 1914. Geh. M.5.-)

Gewinnung und Verteilung mechanischer Energie

Inhalt : I. Ohersicht der in der Natur TerfOgbaren Formen des Arbeitsvermögens: M.Schröter. Arbeitsver- mögen belebter Wesen (Mensch und Tier), sowie Arbeitsvermögen bewegter Luft: M.Schröter. Arbeitsvermögen des Wassers : R. E s c h e r. - Arbeits- vermögen der W&rme: a) Einleitung: M. Schröter, b) Warmeerzeugung durch den Verbrennungsprozeß einschUeSlich Herstellung d. Leuchtgases : H. B u nt e.

Unter Redaktion von M. SclirOter

lUnter der Presse.]

c) Dampfmaschinen und Dampfkessel: B. Lynen.

d) Heififuft-u. Verbrennungsmaschinen: R. Schot t- 1er. e) Kältemaschinen: K.v. Linde. IL Ver- teilung der mechanischen Energie: R. Escher. Bnergieverteilung mittels Gas: W. v. Oechel- haeuser. Umwandlung der mechanischen Energie in elektrische : A.Schwaiger. Eneigieverteilung auf elektrischem Wege: A.Schwaiger.

inhaU: Anfange der Astronomie, Zusammenhang mit der Religion: F. BolL —Chronologie und Kalender- wesen: F. K. GinzeL Zeitmessung: J. Hart- mann. — Astronomische Ortsbestimmung: L. Am- bro nn. Erweiterung des Raumbegnffs: A. v. F 1 0 1 0 w.- Mechanische Theorie des Planetensystems :

Astronomie

Unter Redaktion von J. Hartmann

[Unter der Presse.]

J. v.Hepperger. Phvsische Erforschung des Planetensystems : K.G r af f . Die Physik der Sonne : E. P r i n g s h e i m. » Die Physik der Fixsterne : F. W. Ristenpart. Das Stemsystem: H. Kobold. Beziehungen der Astronomie zu Kunst und Technik : L.Ambronn. —Organisation: F. W. Ristenpart.

Chemie

Unter Redaktion von E. v. Meyer

Allgemeine Kristallographie und Mineralogie

Unter Redaktion von Fr. Rinne

Mit 53 Abb. [XIV u. 663 S.) Lez.-& 1913. Geh. M. 18.

Inhalt: Entwicklung der Chemie von Robert Boyle bis Uvoisier (1660-1793): B. v. Meyer. - Die Ent- wicklung der Chemie im 19. Jahrhundert durch Be- Srflndung u. Ausbau der Atomttieorie : B. v. M e y e r. noiganische Chemie : C. Engl er u. L. Wo hier.— Organische Chemie: 0. Walfach. Physikalische Chemie : R. L u t h e r und W. N e r n s t. - Photochemie :

, in Leinw. geb. M. 20.—, in Halbfranz geb. M. 22.—

R. Luther. Elektrochemie: M.LeBlanc. Be- ziehungen der Chemie zur Physiologie :A. KosseL Beziehungen der Chemie zum Ackerbau : fO. Kellner und H. Immendorf. Wechselwirkungen zwischen der chemischen Forschung und der chemischen Technik: 0. N. Witt. - Al&:emelne Kristallographie und Mineralogie: Fr. Rinne.

Technik des Kriegswesens

Unter Redaktion von M. Scliwarte

Mit 91 Abb. [XU.886S.) Lex.-8. 1913. Geh. M. 24. Inhalt: Kriegsvorbereitung, KriegsfOhrung: M.

Schwarte. Waffentechnik, a) Die Waffentechnik in ihren Beziehungen zur Chemie : 0. P o p p e n b e r g. b) zur Metallurgie : W. S c h w i n n i n g. c) zur Kon- struktionslehre : W. S c h w i n n i n g. d) zur optischen Technik: 0. von Eberhard, e) zur Physik und

in Leinwand geb. M. 26.—, in Halbfranz geb. M. 28.—

Mathematik: K. Becker. Technik des Befesti- fl[unKSwesens : J. Schroeter. Kriegsschiffbau: O. Kreisch m er. Vorbereitung ffir den Seekrieg und Seekriegsfflhrung: L. QlatzeL Einfluß des Kriegswesens auf die GesamUcuItur: A. Kerstin g.

Naturphilosophie

Unter Redaktion von C. Stttmpf. Bearbeitet von B. Bectier

[Unter der Presse.]

Einleitung: Auf^be der Naturphilosophie. 1. Teil: Nahirerkenntnistheorie. - II. Teil: Das wissenschaftliche Bild der Qesamtnatur. Die anor-

%

anische Natur. Die organische Nahir. Schlufl:

ahirphilosophie und Weltauffassung.

>rga Wel

Probeheft (mit Auszug aus dem Vorwort des Heransgebers, der InhaltsQbersicht des Gesamtwerkes, dem Antorenverzeichnis und mit Probestacken aus dem Werke), sowie Sonderprospekte Ober die erschienenen

Bande umsonst und postfrei vom

VERLAG B.G.TEUBNER IN LEIPZIG UND BERLIN

K.d.G. Physik.

VERLAG VON B.O.TEÜBNER IN LEIPZIG UND BERLIN

Sammlung mathematisch- physikalischer Lehrbücher

Herausgegeben von E. Jahnke

Die Sammluoff setzt sich xum Ziel , Icune DaiBteliungen zo trieten , welclie ffOr ein engliesreiiztes Gebiet die mathematischen Methoden einfach und leichtteßUch ableiten nnd deren Verwendbarkeit in den einzelnen Teilen von Physik und Technik aufdecken. Dabei ist Vollständigkeit der BeweliMh- rung nicht erstrebt, vielmehr wird besonderer Wert darauf gelegt, Dinge, die fflr die Anwendungen von Wichtigkeit sind, nicht zugunsten wissenschaftlicher Strenge surflcklrelen zu lassen. Die Dar- stellung der einzehien Gebiete ist so gehalten, dafi jede ein abgeschossenes Ganzes fOr sich bildet

Neu erscheinen demnflchst:

Ober graphische Methoden In der Analysls. Von Dr. C. Runge, Professor an der Universität Qottingen. (ca. 8^^ Bogen.)

Leitfaden zum graphischen Rechnen. Von Dr. R. i\ilehmlce, Professor an der Techn. Hochschule Stuttgart (ca. 10 Bogen.)

Bisher erschienen:

1. Einfahrung in die Theorie des Magnetismus. Von Dr. R. Gans, Professor an der UniversiUit UPlata. Mit 40 Fig. (VI u.llOS.1 1906. Steif geh. M. 2.40, inUinw.geb.M.2.80.

II. Elektromagnetische AusgleichsvorgAnge in Freileitungen und Kabeln. Von K.W.Wagner, Kaiserl. Telegr.-lngenieur in Charlottenburg. Mit 23 Figuren. (IV u. 109 S.l 1906. Steif geh. M. 2.40, in Leinwand geb. M. 2.80.

III. Einftlhrung in die Mazwellsche Theorie der Elektrizitftt und des Magnetis- mus. Von Dr. CLSchaefer,a. 0. Professor an der Universität Breslan. Mit Bildnis J. CMaz- weUs und 32 Figuren. (Vlli u. 174 S.| 1906. Steif geh. M. 3.40, in Leinwand geb. M. 3.80.

IV. Die Theorie der Besselschen Funktionen. Von Dr. P. Schaffheitlin, Professor am Sophien -Realgymnasium zu Berlin. Mit 1 Figurentafel. [V u. 129 S.| 1906. Steif geh. M. 2.80, in Leinwand geb. M. 3.20.

V. Funktionentafeln mit Formeln und Kurven. Von Dr. E. Jahnke, Professor an der Kgl. Bergakademie zu Berlin, und P. Bmde, Prof. a. d. Bergakademie in Klaiisthal i. H. Mit 63 Figuren. |XI1 u. 176 S.) gr. 8. 1909. In Leinwand geb. M. 6.~ VL 1 U.2. Die Vektoranalysis und ihre Anwendung in der theoretischen Physik. Von Dr. W. V. Ignato wsky, Privatdoz. a. d. Univ. Berttn. In 2 Teilen.

I. Teil. Die Vektoranalysis. Mit 27 Figuren. [VIII u. 112 S.] 1909. Steif geh. M. 2.60,

in Leinwand geb. M. 3.—

II. Anwendung der Vektoranalysis in der theoretischen Physik. Mit 14 Figuren.

(IV u. 123 S.) 1910. Steif geh. M. 2.60, in Leinwand geb. M. 3.> Vn. Theorie der KrAfteplftne. Von Dr. H. B. Timerding, Professor an der Technischen Hochschule zu Braunschweig. Mit 46 Figuren. (VI u. 99 S.) 1910. Steif geh. M. 2.60, in Leinwand geb. M. 3.— Vlll. MathematischeTheorie der astronomischen Finsternisse. Von Dr.P.Schwahn, Direktor der Gesellschaft und Sternwarte „Urania" in Berlin. Mit 20 Flg. (VI n. 128 S.] 8. 1910. Steif geh. M. 3.20, in Leinwand geb. M. 3.60.

IX. Die Determinanten. Von Geh. Hofrat Dr. B. Netto, Professor an der Universität GieSen. [VI u. 130 S.] 8. 1910. Steif geh. M. 3.20, in Leinwand geb. M. 8.60.

X. 1. Einftlhrung in die kinetische Theorie der Gase. Von Dr. A. Byk, Professor an der Universität und der Technischen Hochschule zu Berlin. 2 Teile.

L Teil: Die idealen Gase. Mit 14 Figuren. (Vu. 102S.) 1910. Steif geh. M. 2.80, in Leinwand geb. M. 3.20. IL Teil in Vorbereitung.

XI. 1. Qrundzfige der mathematisch-physikalischen Akustik. VonDr.A.Kalfthne, Professor an der Technischen Hochschule zu Danzig. 2 Teile. 1. Teil: (VII u. 144 S.| 1910. Steif geh. M. 3.20, in Leinwand geb. M. 3.60. - II. TeU: Mit 57 Figuren im Text. pC u. 225 S.| 1913. Steif geh. M. 5.40, in Leinwand geb. M. 6.—

XII. Die Theorie der Wechselströme. Von Professor Dr. E. Orlich, Mitglied der physi- kalisch-technischen Reichsanstalt zu Charlottenbarg. Mit 37 Figuren. (IV a. 94 S.| 1912. Steif geh. M. 2.40, in Leinwand geb. M. 2.80.

XIIL Theorie der elliptischen Funktionen. Von Dr. Martin Krause unter Mitwirkung von Dr. Emil Naetseh, Professoren an der Technischen Hochschule zu Dresden. Mn 25 Figuren. (VII u. 186 S.| 1912. Steif geh. M. 3.60, in Leinwand geb. M. 4.-

XIV. Konforme Abbildung. Von weiL Oberlehrer Leo Lewent Herausg. von ProL Eugen Jahnke. Mit einem Beitrag von Dr. W i I h. B 1 a s c h k e , Privatdozent an der Universitti Grdfs- wald. Mit 40 Abbttdungen. (VI u. 118 S.] 1912. Steif geh. M. 2.80, in Leinw. geb. M. 8.20.

XV. Die mathematischen Instrumente. Von Professor Dr. A. Galle in Potsdam. Mit 86 Abbildungen. [VI u. 187 S.j 1912. Steif geh. M. 4.40, in Uinw. geb. M.4.80.

XVL Dispersion und Absorption des Lichtes in ruhenden isotropen KOrpern. Theorie und ihre Folgerungen. Von Dr. D. A. Goldhammer. Professor an der Universit&t Kasan. Mit 28 Figuren. [VI u. 144 S.] gr. 8. 1912. Stetf geh. M. 3.60, in Leinw. geb. M. 4.— XVII. Elemente der technischen Hydromechanik. Von Dr. R. v. Mises, Professor an der Universität Strafiburg L B. 2 Teile. L Teil : Mit 72 Figuren. IVIII a.212S.] 8. 1914. Steif geh. M. 5.40, in Leinwand geb. M. 6.-. II. Teil in Vorbereitung.

VERLAG VON B. G. TEUBNER IN LEIPZIG UND BERLIN

Heoliailik, unter Mitwirkung von M. Abraham, C. Cranz, P. u. T. Ehrenfest, S. Finster-

walder, 0. Fischer, L. Föppl, Ph. Forchheimer, Ph. FurtwÄngler, M. Grübler,

M. OrtLning, E. Hellinger, L. Henneberg, K. Heun, 0. Jung, Th. y. Earman,

A. Eriloff, H. Lamb, A. E. H. Love, R. v. Mises, L. Prandtl, H. BeiBner,

A. Schoenflies, P. Stäckel, 0. Tedone, H. E. Timerding, A. Timpe, A. Voß,

G. T. Walker, K. Wieghardt, G. Zemplen red. v. F. Klein und C. H. Müller.

A. u. d. T.: Encyklopadie der mathem. Wissenschaften. Bd. IV, in 4Teilbänden.

Bisher erschien: I. Teilband. [XYIn.SOlS.] 1001—1908. Geh.n.«>^ 20.40, in Original - band geb.n.J^24.— II. Teilband. I.Heft. 1904. n. J^ 4.40. 2. Heft. 1911. n. .i^ 6.60. S.Heft. 1914. n.«^4.60. IH. Teilband. [XI u. 593 S J 1901—1908. Geh. n. <il^ 17.60, in Originalband geb. n. JC 20.60. IV. Teilband. 1. Heft. 1907. n. JC 3.60. 2. Heft. 1907. n. JC 6.20. 8. Heft. 1910. n. JC 3.40. 4. Heft. 1914. n. JC 3.60. 6. Heft. 1912. n. JC 2.80.

HäcaBique. Bedlgä sous la direction scientifique de P. Appell et publie sous celle de f J.Molk avecla collaborationdeH.Beghin, A.BouIanger, E.Garvallo, E.Cosserat, F. Cosserat, F. Cossot, J. Hadamard, E. Hahn, G. Eoenigs, P. Langevin, A. Lecomu, L. Levy, M. Livy, R. Liouville, L. Marchis, H. Poincare, E. Vallier. 7 vol. grand in- 8®. A. u. d. T.: Encyclop^die des sciences mathematiques pures et appliquees. Tome IV.

Bisher erschien: vol. 2. fasc. 1. 1912. n. JC 8.40. vol. 5. fasc. 1. 1912. n. JC 8.60. fiuc. 2. 1914. n. JC 4.20. vol. 6. fasc. 1. 1913. n. JC 7.20.

Physik, unter Mitwirkung von M. Abraham, L. Boltzmann, G. Bredig, G.H.Bryan,

P. Debye, H. Diesselhorst, Fr. Emde, 8. Finsterwalder, R. Gans, F. W. Hinrichsen,

E, W. Hobson, H. Kamerlingh-Onnes, W. H. Eeesom, P. Langevin, M. Laue,

Th. Liebisch, H. A. Lorentz, L. Mamlock, G. Mie, H. Minkowski f, 0. Mügge,

J. Nabl, F. Pockels, L. Prandtl, R. Reiff, C. Runge, A. Schoenflies, M. Schröter,

B. Study, K. W. Wagner, A. Wangerin, W. Wien, J. Zenneck redigiert von

A. Sommerfeld. A. u. d. T.: Encykopftdie der mathematischen Wissenschaften.

Band V. In 3 Teilen.

Bisher erschien: L TeiL 1. Heft. 1908. n. «y^ 4.80. 2. Heft. 1905, n.JC 4.80. S.Heft. 1906. n. JC 6.20. 4. Heft. 1907. n. JL 3.50. 5. Heft. 1912. n. JC 10.40. U. Teil.

1. Heft. 1904. n. JC 8.— 2. Heft. 1907. n. JC 3.— 3. Heft. 1910. n. JC 4.60. III. Teil.

2. Heft. 1909. n. JC 6.— 2. Heft. 1909. n. JL 5.—

Physi^UB. Redige sous la direction scientifique de P. Langevin etdeJ. Perrin et publie sous celle de f J. Molk avec la eollaboration de E. Bauer, E. Bloch, M. Dufour, L. Dunoyer, Ch. Fabry, G. Gouy, Ch. Ed. Guillaume, E. Hahn, M. Joly, Gh. Maurain, M.Moulin, P.Th. Müller, C.Raveau, E.Rothe, J.Roux, F.Wallerant. 6 vol. grand in-8^. A. u. d. T.: Encyclopedie des sciences mathematiques pures et appliquees. Tome V. (unter der Presse.)

BriU, Dr. A. V., Professor an der Universität Tübingen. Vorlesungen zur Ein- führung in die Mechanik raumerfüllender Massen. Mit 27 Figuren. [X u. 236 S.] gr. 8. 1909. Geh. n. Jt 7.—, in Leinwand geb. n. Jt 8.

Hamel, Dr. Georg» o. Professor an der Technichen Hochschule zu Aachen, ele- mentare Mechanik, ein Lehrbuch, enthaltend: Eine Begründung der allge- meinen Mechanik; die Mechanik der Systeme starrer Körper; die synthetischen und die Elemente der analytischen Methoden sowie eine Einf&hrung in die Prinzipien der Mechanik deformierbarer Systeme. Mit 265 Figuren. [XVIII u. 634 8.] gr. 8. 1912. Geh. n. Jl 16. , in Leinwand geb. n. Jt 18.—

VEBLAO TOH B.O.TEDBHER IH IfIFZIO HHD

Dibl, Gdwimer Bagiemngsnt Dr. F^ und Dr. A. SCMUMlfllli, Piofc— aa

der UniTerritit Mfindieii, fiber die Theorie des Kreisels, ht 4 TcilcB.

ICit 143 Figuren. Komplett geli. n. «4f 32.60, in Halbfrau geb. n. UT 36.—

L Tefl. Die kinemaiischen und kinetischen Grundlagen der Theorie

S., dnrehgeMhencr Abdruck. [YIII n. 196 S.] 1914. G^ n. jV 5.90, geb. n. jT 9.90.

n. TeiL Durchführung der Theorie im Falle deeechweren eymBetriechen

Kreisels. [TV o. 319 S.j 1898. Geh. n. JC 10.—, geb. n. JC 11.— UL TeiL Die störenden Einflüsse. Astronomische und geophysikalische

Anwendungen. [IT. n. 247 S.1 1909. Geh. n. JC 9.—, geb. n. JC 19.— IV. TeiL Die technischen Anwendungen d. Kreiseltheorie. Beaib. n. etgiait ▼on Fritz Noether. [lY u. 207 S.J gr.8. 1910. Geh. m. JK 8.—, geb. n. jT 9l—

M&ItolOBgO, Dr.R., Professor an der ünirersit&t Neapel, theoretische Mechanik.

Autorisierte deatsehe Bearbeitung Yon EL E. Tim er ding, Professor an der

Teduiischen Hochschule Brannschweig. In 2 Binden, gr. 8.

L Band. Kinematik und Statik. Mit 110 flgnien. [Ym n.94« &] 1911. Geh.

n. JC 10—, geb. n. «4^ 11.— IL Band. Dynamik undMeehanik der deformierbaren Körper. Mit 98 Fi- gnren. [YII u. 944 8.] 1912. Geh. n. JC 10.—, geb. n. JC 11.—

BoKth, Edward John, Sc. D., LL. D., F. R. 8. usw., weiland Professor an der

UniTcrsität Cambridge, die Dynamik der Systeme starrer Körper. In

2 Bänden mit zahlreidien Beispielen. Aatonsierte deutsche Ausgabe von Adolf

Schepp, weiland Oberleotnant a. D. in Wiesbaden. Mit einem Vorwort Ton

Prof. Dr. Felix Klein in Oöttingen. gr. 8. 1898. In Leinwand geb. n. J( 24.—

Einzeln:

L Band: Die Elemente. Mit 67 Figuren im Text [YII n. 472 8.] n. JC 10.— IL Die höhere Dynamik. IGt 98 Figuren im Text [Xu.644 8.] n.JC14.—

Wobftor, Professor A. &., the Dynamics of Particles and of Rigid, Elastie and Fluid Bodies; being Lectnres on Mathematical Physies. 2. Auflage. [Xn TL 588 8.] gr. 8. 1912. geb. n. J[ 14.—

HSflor, Dr. A., Profan der Universitftt Wien, Didaktik der Himmelskunde und der astronomischen Geographie. Mit Beiträgen Yon W. Förster (Berlin), K. Haas (Wien), M. Koppe (Berlin), 8. Oppenheim (Wien), A. Bcbülke (Tilsit). Mit 2 Tafeln und 80 Figuren. [XH u. 414 8.] gr. 8. 1913. In Leinw. geb. n. JH 12.

'KBtenMtikf Dr. HaiM, Prof in Hamburg, große Physiker, Bilder aus der Ge- schichte der Astronomie nnd Physik. FOr reife Schüler. Mit 12 Bildnissen auf Tafeln. [VL n. 234 8.] 8. 1911. In Leinw. geb. n. J[ 3.—

P09k9, Dr. Fr., Prof. in Berlin, Didaktik der Physik. Mit Fig. 1914. [U.dPr.]

Beb9]l9torff, Hermann, Prof. in Dresden, physikalisches Experimentierbuch. In 2 Teilen. In Leinwand geb. je n. Uff 3. I. TeiL FOr jüngere und mitt- lere Schüler. Mit 99 Abbildnngen. [VI n. 231 8.] 8. 1911. H. TeiL Für mitt- lere und reife Schüler. Mit 87 AbbUdungen. [YIu. 178 S.] 8. 1911.

All9rbaoll, Hofrat Dr. Felix, Professor an der üniyersitftt Jena, Physik in graphischen Darstellungen. 1373 Figuren auf 213Tafelnmiter]Autemdem Text. [X, 213 u. 28 S.] 4. 1912. geh. n. JH 9. , in Leinwand geb. n. J( 10.

Ebert, Dr. Hermann, weil. Prof an der Techn. Hochschule München, Lehrbuch der Physik. Nach Vorlesungen der Techn. Hochschule zu München. In 2 Bftnden.

I. Band. Mechanik. Wärmelehre. Mit 168 Abbildungen. [XX u. 661 S.] gr. 8.

1911. In Leinwand geb. n. JC 14. II. Band, [unter der Presse.]

VERLAG VON B. O. TEUBNER IN LEIPZIG UND BERLIN

OriniBelll, Professor E., Direktor der Oberrealschule auf der ühlenhorst zu Ham- burg, Lehrbuch der Physik. Zum Gebrauch beim Unterricht, bei akade- mischen Vorlesungen und zum Selbststudium. 3., yermehrte und verbesserte

Auflage. In 2 Bänden, gr. 8. 1914. Oeh. n. «^15. , inLeinw. geb.n. «^16. I. Band. Mechanik, Wärmelehre, Akustik und Optik. Mit 1065 Figuren

und 2 farbigen Tafebi. [XX u. 966 8.] II. Band. Unter der Presse.

EohlranBcll, weil Geh. Oberreg.-Bat Dr. Friedrioll, in Marburg, yorm. Präsident der physikal.-techn. Beichsanstalt zu Gharlottenburg, Lehruch der praktischen Physik. 12. Aufl. In Oemeinschaft mit H. Geiger, E. Grüneisen, L. Holbom, W. Jaeger, E. Orlich, E. Scheel, 0. Schönrock herausg. von E. Warburg. Mit 389 Abbildungen. [XXXI u. 742 S.] gr. 8. 1914. In Leinwand geb. .^ 11.—

Leoher, Dr. E., Professor an der Universität' Wien, Lehrbuch der Physik für Mediziner und Biologen. Mit 499 Abbildungen. [VII u. 451 S.] gr. 8. 1912. Geh. Jt 8. , in Leinwand geb. ,4? 9.

Trabert, Dr. Wilhelm, o. Üniversitäts-Professor und Direktor der k. k. Zentral- anstalt für Meteorologie und Geodynamik in Wien, Lehrbuch der kos- mischen Physik. Mit 149 Figuren und 1 Tafel. [X u. 662 S.] gr. 8. 1911. geh. n. Jl 20. , in Leinwand geb. n. Ji 22.

Voigt, Geh. Beg.-Bat Dr. Woldeiaar, Prof. an der Universität Göttingen, Lehrbuch der Kristall-Physik (mitAusschluß d. Kristall-Optik). Mit213Fig.u. 1 Tafel. [XXIV u. 964 S.] gr. 8. 1910. Geh. n. Jt 30.—, in Leinw. geb. n. JH 32.—

Weber, Dr. B., Professor an der Universität Rostock, und Dr. BiclL. Gans, Pro- fessor an der Universität La Plata, Repertorium der Physik. In 2 Bänden. 1, 1 : Mechanik, Hydrodynamik und Akustik. [U. d. Pr.] 1, 2: Wärme, Kapillari- tät, kinetische Gastheorie. [U. d. Pr.] IL Elektrizität, Magnetismus, Optik.

Fredliollll, Dr. J., Prof. an der Universität Stockholm, die Integralgleichungen und ihre Anwendung auf die mathematische Physik, gr. 8. [in vorb.]

Lorentz, Dr. H. A., Professor an der Universität Leiden, Abhandlungen über

theoretische Physik. In 2 Bänden. Band I. Mit 40 Figuren im Text.

[IV u. 489 S.] gr. 8. 1907. geh. n, Jl 16. , in Leinwand geb. n. Jl 17.

Auch in % Lieferungen: Lieferung L Mit 8 Figuren. [208 S.] gr. 8. 1906. geh. n. JL 10.— Lieferung II. Mit 82 Figuren. [S. 299— 489] gr. 8. 1907. geh.n..^6.— [SdninVorb.]

HilÜLOWSki, Dr. Hermann, weil. Professor an der Universität GOttingen, gesam- melte Abhandlungen. Unter Mitwirkung von Andreas Speiser und Her- mann Weyl herausgegeben von David Hilbert. In 2 Bänden. Mit dem Büd-

nis Minkowskis, gr. 8. 1911. geh. I. Band. Mit 6 Figuren. [XXXI u. 371 8.1 n. JL 14.— n. Band. Mit 84 Figuren und 1 Doppeltafel. [IV u. 466 S.] n. JL 16.—

Poinoar^, Henri» sechs Vorträge über ausgewählte Gegenstände aus der reinen Mathematik und mathematischen Physik. Auf Einladung der Wolfbkehl- Kommission der kgL Gesellschaft der Wissenschaften gehalten zu Göttingen vom 22.— 28. April 1909. Mit 6 Figuren. [IV u. 60 S.] gr. 8. 1910. Geh. n. Jl 1.80, in Leinwand geb. n. Jl 2.40.

Volkmann, Dr. P., Professor der Universität Königsberg (Pr.), Einführung in das Studium der theoretischen Physik, insbesondere in das der analy- tischen Mechanik. Mit einer Einleitung in die Theorie der physikalischen Er- kenntnis. 2., mehrfach umgearbeitete Auflage. [XVI u. 412 S.] gr. 8. 1913. Geh. n. Jl 18. , in Leinwand geb. n. Jl 14.

VERLAG VON B.aTEUBNER IN LEIPZIG UND BERLIN

Volterra, V., Senator des Königreichs Italien, Professor an der Universität Born, drei Vorlesungen über neuere Fortschritte der mathematischen Physik, gehalten im September 1909 an der Glark-Üniversiij. Mit Zus&tzen und Ergänzungen des Verfassers. Deutsch von Dr. £. Lamla in Berlin. Mit 19 Figuren und 2 Tafeln. [IV u. 85 S.] gr. 8. 1914. Geh. n. JL 3.—

Wien, Dr. W., Professor an der Universität Würzburg, Vorlesungen über neuere Probleme der theoretischen Physik. Gehalten an der Columbia- Universität in Neuyork im April 1913. Mit 11 Figuren im Text [IV u. 76 S.] gr. 8. 1913. Geh. M 2.40.

ftans, Dr. Richard, Professor an der Universität La Plata, Einführung in die Vektoranalysis. Mit Anwendungen auf die mathematische Pkysik. 3. Auf- lage. Mit 36 Figuren. [X u. 134 S.] gr. 8. 1914. Geh. n. JH 3.40, in Leinwand geb. n. J(f 4. .

Buoherer, Dr. A. H., Privatdozent an der Universität Bonn, Elemente der Vektoranalysis. Mit Beispielen aus der theoretischen Physik. 2. Auflage. [Vm u. 103 S.] gr. 8. 1905. Geb. n. M 2.40.

Cohlly Emil, Straßburg i. E., Physikalisches über Baum und Zeit 2. Aufl. [24 S.] Lex.-8. 1913. Geh. n. U? .80.

Brill, Dr. A. V., Professor an der Universität Tübingen, das Belativitätsprinzip. Eine Einführung in die Theorie. Mit 6 Figuren. 2. Auflage. [IV u. 34 ß.] gr. 8. 1914. Geh. n. Jl 1.20.

Einstein, A., und M. Oroßmann, Professoren in Zürich, Entwurf einer ver- allgemeinerten Belativitätstheorie und einer Theorie der Gravi- tation. [38 S.] gr. 8. 1913. Geh. n. Jl 1.20.

Lorentz, Dr. H. A., Prof. der Universität Leiden, das Belativitätsprinzip. Drei Vorlesungen, gehalten in Teylers Stiftung zu Haarlem. Bearbeitet von Dr. W. H. Keesom. [H u. 52 S.] gr. 8. 1914. Geh. n. .^ 1.40.

les theories statistiques en thermodynamique. Conferences faites au College de France en Novembre 1912. 1914. [Unter der Presse.]

A. Einstein, H. Minkowski, das Belativitätsprinzip. Mit An-

merkungen von A. Sommerfeld, einem Vorwort von 0. Blumenthal sowie einem Bildnis H. Minkowskis. [IV u. 89 S.] gr. 8. 1913. Geh. n. M 3.—, in Leinwand geb. n. JH 3.60.

Minkowski, Dr. Hermann, weil. Prof. an der Universität Göttingen, zwei Ab- handlungen über die Grundgleichungen der ElektrodynamiL Mit Einfahrungswort von 0. Blumen thal. [82 S.] gr.8. 1910. Steif geh. n. .^ 2.40.

Planck, Dr. M., Prof an der Universität Berlin, das Prinzip der Erhaltung der Energie. 3. Aufl. [XVI u. 278 S.] 8. 1914. In Leinw. geb. n. ,^ 6.—

Hertz, P., Lehrbuch der statischen Mechanik. Mechanische Grund- lagen der Wärmelehre, [ca. 500 S.] gr. 8. [In Vorbereitung.]

Kelvin, Lord, Vorlesungen über Molekulardynamik und die Theorie des Lichts. Deutsch herausgegeben von Geh. Beg.-Bat. Prof. Dr. B. Wein- stein, Charlottenburg. Mit 132 Figuren. [XVm u. 590 S.] gr. 8. 1909. In Leinwand geb. n. JH 18.

VERLAG VON B. O. TEUBNER IN LEIFZIO UND BERLIN

Vorträge über die klnetisolie Theorie der Materie nnd der Elektrizität.

Gehalten in Qöttingen auf Einladung der Kommission der Wol&kehlstiftong von M. Planck, P. Debye, W. Nernst, M.t. Smolucbowski, A. Sommer- feld und H. A. Lorentz. Mit Beitrögen von H. Eamerlingb-Onnes und W.H. Eeesom. Mit einem Vorwort von D. Hilbert und 7 in den Text gedruckten Figuren. [IV u. 196 S.] gr. 8. 1914. Geh. Ji 7.—, in Lein- wand geb. Jl 8.

Lamb, H., F. B. S., Professor an der Viktoria-Üniyersität Manchester, Lehrbuch der Akustik, gr. 8. In Leinwand geb. [In Vorbereitung.]

Pookels, Dr. Friedricb, Professor an der üniyersität Heidelberg, Lehrbuch der Eristalloptik. Mit 168 Figuren im Text und 5 Doppeltafeln. [X u. 519 S.] gr. 8. 1906. In Leinwand geb. n. Jl 16.—

Soheffer, Dr. W., Professor, Berlin -Wilmersdorf, Wirkungsweise und Ge- brauch des Mikroskops und seiner Hilfsapparate. Mit 89 Abbildungen und 3 Blendenblättem. [VII u. 116 S.] gr. 8. 1911. Geh. n. Jl 2.40, in Leinwand geb. n. Jl 3.

SohUBter, A., Ph. D. (Heidelberg), Sc. D. (Cantab.), F. B. S., Professor an der Uni- yersitftt Manchester, Einführung in die theoretische Optik. Autorisierte deutsche Ausgabe übersetzt von Dr. Heinrich Konen, Professor an der Uni- versität Münster. Mit 2 Tafeln und 185 Figuren im Text. [XIV u. 413 S.] gr. 8. 1907. Geh. n. Jl 12. , in Leinwand geb. n. 13.

Wood, Professor B. W., in Baltimore, physikalische Optik. Deutsche Aus- gabe, bearbeitet von Dr. E. Prümm in Braunschweig, [ca. 600 S.] gr. 8. Geh. und geb. [Unter der Presse.]

Abraham, Dr. M., Professor am B. Istituto Teenico Superiore in Mailand, Theorie

der Elektrizitftt. 2 Bände, Mit 17 Figuren, gr. 8. Geb. L Band. Einführung in die Maxwellsche Theorie der Elektrizität. Mit

einem einleitenden Abschnitte über das Rechnen mit VektorgrÖßen in der Physik.

Yen A. Föi>pl, Professor an der Eel. Technischen Hochschule zu München.

4., umgearbeitete Auflage. Herausgegeben von Dr. M. Abraham. Mit 11 Figoren.

E5:Vin u. 410 8.] 1911. n. JC 11.— and. Elektromagnetische Theorie der Strahlung. Von Dr. M. Abra- ham. 8. Auflage. Mit 6 Figuren. [XI u. 404 S.] 1908. n. JC 10.—.

Brion, Dr. 6., Professor an der Bergakademie Freiberg L S., Leitfaden zum elektrotechnischen Praktikum. Mit 380 Figuren. [XIV u. 404 S.] gr. 8. 1910. Geh. n. Jl 10. , in Leinwand geb. n. Jl 11.

Bnoherer, Dr. H«, Priyatdozent an der Universität Bonn, mathematische Einführung in die Elektronentheorie. Mit 14 Figuren im Text [IV u. 148 S.] gr. 8. 1904. Geb. n. Jl 3.20.

Lorentz, Dr. H. A., Professor at the University of Leiden, the Theory of Electrons and its Applications to the Phenomena of Light and Ba- diantHeat. A course of lectures deliyered in Columbia University, New York, in March and April 1906. [IV u. 332 S.] gr. 8. 1909. Geh. n. Jl 8.—, in Leinwand geb. n. Jl 9.

Theory of Electrons. Deutsche Ausgabe, die Elektronentheorie und ihre Anwendung auf die Erscheinungen des Lichtes und der strahlenden Wärme. Vorlesungen, gehalten an der Columbia Universität in Neuyork im März und April 1 906. übersetzt vom Verfasser, gr. 8. Geb. [In Vorbereitung.]

Meyer, Professor Dr. Stefan, und Professor Dr. E. V. Schweldler, Privatdozenten an der Universität Wien, Badioaktivität. [Unter der Presse.]