Startseite
Forum
Fragen
Suchen
Formeleditor
Über Uns
Registrieren
Login
FAQ
Suchen
Foren-Übersicht
->
Optik
Antwort schreiben
Benutzername
(du bist
nicht
eingeloggt!)
Titel
Nachrichtentext
Smilies
Weitere Smilies ansehen
Schriftfarbe:
Standard
Dunkelrot
Rot
Orange
Braun
Gelb
Grün
Oliv
Cyan
Blau
Dunkelblau
Indigo
Violett
Weiß
Schwarz
Schriftgröße:
Schriftgröße
Winzig
Klein
Normal
Groß
Riesig
Tags schließen
Schreibt eure Formeln hier im Board am besten mit Latex!
So gehts:
Latex-Kurzbeschreibung
|
Formeleditor
Optionen
HTML ist
aus
BBCode
ist
an
Smilies sind
an
BBCode in diesem Beitrag deaktivieren
Smilies in diesem Beitrag deaktivieren
Spamschutz
Text aus Bild eingeben
Alle Zeiten sind GMT + 1 Stunde
Gehe zu:
Forum auswählen
Themenbereiche
----------------
Mechanik
Elektrik
Quantenphysik
Astronomie
Wärmelehre
Optik
Sonstiges
FAQ
Sonstiges
----------------
Off-Topic
Ankündigungen
Thema-Überblick
Autor
Nachricht
Thorne
Verfasst am: 23. Jun 2014 18:37
Titel: Strahlensatz an Kamera - Abweichung Theorie und Praxis
Hallo!
Ich habe gerade ein kleines Problem, meine praktischen Werte mit einer sinnvollen Theorie zu untermauern.
Es geht um das Sichtfeld einer Kamera in Abhängigkeit von der Gegenstandsweite. Der Hintergrund ist, dass ich ein Fenster vor die Kamera anordnen möchte und wissen möchte, wie groß es in Abhängigkeit der Entfernung zum Objektiv sein muss, damit ich mir nicht ungewollt eine Sichtfeldblende baue.
Nehmen wir an, ich habe einen rechteckigen Sensor mit den Abmessungen a und b. In der Nennbrennweite f vor dem Sensor befindet sich eine Sammellinse. Ich möchte wissen, welche Fläche (c, d) ich in der Gegenstandsweite g abbilden kann.
Durch den beliebten Strahlensatz an der Camera Obscura ergibt sich ja ganz einfach
. Soweit so gut.
Ich habe das mal experimentell untersucht. Weil sich die abbildbare Gegenstandsfläche schlecht experimentell machen ließ, habe ich Objekte unterschiedlicher Größe in unterschiedlicher Distanz zur Kamera angesehen und im Bild ausgemessen. Damit kann ich ja eine Bildgröße zur Gegenstandsgröße ins Verhältnis setzen und mit der Auflösung des Sensors auf die maximal darstellbare Gegenstandsgröße hochrechnen. Ich habe nur einmal fokussiert, also nicht auf jede Gegenstandsweite neu.
Und hier der springende Punkt: Während bei großen Gegenstandsweiten die theoretischen Werte und die experimentell ermittelten Werte eine gute Übereinstimmung zeigen, habe ich bei kurzen Gegenstandsweiten eine massive (Faktor 2...3) Abweichung. Meine Gegenstände sind dann im Bild allesamt viel kleiner als erwartet, bzw. ist die maximale Gegenständsfläche viel größer als von der Theorie vorgegeben.
Hat jemand eine Idee, in welche Richtung ich denken muss? Meine Vermutung ist, dass bei so kleinen Gegenstandsweiten das Camera Obscura Modell nicht mehr ganz die Realität abbildet. Aber ich habe leider keine Ahnung, welches Modell ich ansetzen sollte.
Vielen Dank schonmal fürs Lesen ;-)