Startseite
Forum
Fragen
Suchen
Formeleditor
Über Uns
Registrieren
Login
FAQ
Suchen
Foren-Übersicht
->
Optik
Antwort schreiben
Benutzername
(du bist
nicht
eingeloggt!)
Titel
Nachrichtentext
Smilies
Weitere Smilies ansehen
Schriftfarbe:
Standard
Dunkelrot
Rot
Orange
Braun
Gelb
Grün
Oliv
Cyan
Blau
Dunkelblau
Indigo
Violett
Weiß
Schwarz
Schriftgröße:
Schriftgröße
Winzig
Klein
Normal
Groß
Riesig
Tags schließen
Schreibt eure Formeln hier im Board am besten mit Latex!
So gehts:
Latex-Kurzbeschreibung
|
Formeleditor
Optionen
HTML ist
aus
BBCode
ist
an
Smilies sind
an
BBCode in diesem Beitrag deaktivieren
Smilies in diesem Beitrag deaktivieren
Spamschutz
Text aus Bild eingeben
Alle Zeiten sind GMT + 1 Stunde
Gehe zu:
Forum auswählen
Themenbereiche
----------------
Mechanik
Elektrik
Quantenphysik
Astronomie
Wärmelehre
Optik
Sonstiges
FAQ
Sonstiges
----------------
Off-Topic
Ankündigungen
Thema-Überblick
Autor
Nachricht
Eichenhain
Verfasst am: 25. Dez 2023 01:28
Titel: Beweis dafür dass sich Licht geradlinig ausbreitet
Meine Frage:
Hallo Leute, bin gerade mit einer Aufgabe beschäftigt:
In einem Medium mit ortsabhängigem Brechungsindex n(x, y, z) ist die lokale Lichtgeschwindigkeit (genauer: Phasenschnelligkeit) v = c/n, wo c die Lichtgeschwindigkeit im Vakuum ist. Die Reisezeit von A nach B längs irgendeines Weges r(? ) (? ist der Kurvenparameter) ist gegeben:
wo ds die Euklidische Länge eines kleinen Wegstücks ds = dr/d? ist.
Zeigen Sie, dass in homogenen Medien sich Licht geradlinig ausbreitet.
Meine Ideen:
Mein Ansatz besteht darin mit der Euler-Lagrange-Gleichung zu rechnen. Das r setzt sich zusammen aus den Koordinaten x,y und z. Oder anders:
dr/d? =
Man kann nun drei Euler-Lagrange Gleichungen aufstellen, jeweils eine für jede Koordinate und ein Gleichungssystem lösen. Das L ist uns gegeben über die Reisezeit des Lichts. Man bekommt dabei
, was genau die Bedingung für eine geradlinige Bewegung ist.
So zu meinem Ansatz. Ist dieser Ansatz nachvollziehbar?
Liebe Grüße