Startseite
Forum
Fragen
Suchen
Formeleditor
Über Uns
Registrieren
Login
FAQ
Suchen
Foren-Übersicht
->
Optik
Antwort schreiben
Benutzername
(du bist
nicht
eingeloggt!)
Titel
Nachrichtentext
Smilies
Weitere Smilies ansehen
Schriftfarbe:
Standard
Dunkelrot
Rot
Orange
Braun
Gelb
Grün
Oliv
Cyan
Blau
Dunkelblau
Indigo
Violett
Weiß
Schwarz
Schriftgröße:
Schriftgröße
Winzig
Klein
Normal
Groß
Riesig
Tags schließen
Schreibt eure Formeln hier im Board am besten mit Latex!
So gehts:
Latex-Kurzbeschreibung
|
Formeleditor
Optionen
HTML ist
aus
BBCode
ist
an
Smilies sind
an
BBCode in diesem Beitrag deaktivieren
Smilies in diesem Beitrag deaktivieren
Spamschutz
Text aus Bild eingeben
Alle Zeiten sind GMT + 1 Stunde
Gehe zu:
Forum auswählen
Themenbereiche
----------------
Mechanik
Elektrik
Quantenphysik
Astronomie
Wärmelehre
Optik
Sonstiges
FAQ
Sonstiges
----------------
Off-Topic
Ankündigungen
Thema-Überblick
Autor
Nachricht
Kequazo
Verfasst am: 27. Jun 2013 09:53
Titel: Newtonsche Ringe auf gekrümmter Fläche
Meine Frage:
Hi ich soll bzw dem thema newtonsche Ringe eine Formel herleiten. Und zwar delta R=(r1²*lamda)/rN²
r1 ist der radius der linse, rN der des ersten newtonschen rings, delta R der radienunterschied der Linse und der gekrümmten fläche
Problem ist das die linse nicht auf einer ebenen fläche liegt, sondern auf einer gekrümten fläche, deren radius größer ist als der der linse
Meine Ideen:
Meine erste Überlegung da ich nicht weiterkomme war, eine Beziehung des Abstandes der zwei gekrümmten Flächen in Abhängigkeit vom abstands des Auflagepunktes zu bestimmen, jedoch kam ich dabei auch niht weiter da die zwei "Kugeln" nicht den selben mittelpunkt haben..
weiß hier vllt jmd weiter?