<?xml version="1.0" encoding="ISO-8859-1"?>

<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/">
	<channel>
		<title>R-L-X Das Forum - Blogs - eos::gazette von eos</title>
		<link>https://www.r-l-x.de/forum/blog.php/8053-eos-gazette</link>
		<description>Reiner Luxus. Das große R-L-X Forum für Liebhaber von Luxusuhren, Luxus- und Lifestyleprodukten, Kreuzfahrten, Hotels, Reisen, Autos, Kleidung und Fotografie.</description>
		<language>de</language>
		<lastBuildDate>Mon, 06 Apr 2026 06:51:55 GMT</lastBuildDate>
		<generator>vBulletin</generator>
		<ttl>60</ttl>
		<image>
			<url>https://www.r-l-x.de/forum/images/misc/rss.jpg</url>
			<title>R-L-X Das Forum - Blogs - eos::gazette von eos</title>
			<link>https://www.r-l-x.de/forum/blog.php/8053-eos-gazette</link>
		</image>
		<item>
			<title><![CDATA[iPhone 11 Pro -> Photos Capture Outside the Frame / Fotoaufnahme außerh. d. Rahmens]]></title>
			<link>https://www.r-l-x.de/forum/entry.php/501-iPhone-11-Pro-gt-Photos-Capture-Outside-the-Frame-Fotoaufnahme-außerh-d-Rahmens</link>
			<pubDate>Thu, 26 Sep 2019 10:45:32 GMT</pubDate>
			<description>Nachdem ich mich jetzt auch mit einem iPhone 11 Pro ausgerüstet habe und beginne die neue Kamera App von Apple und die neuen Optionen zu ergründen...</description>
			<content:encoded><![CDATA[<blockquote class="blogcontent restore">Nachdem ich mich jetzt auch mit einem iPhone 11 Pro ausgerüstet habe und beginne die neue Kamera App von Apple und die neuen Optionen zu ergründen bin ich über eine Option gestolpert, die ich ziemlich klasse finde ... und einen Umstand, den ich noch technisch ergründen muss:<br />
<br />
Einstellungen -&gt; Kamera -&gt; Fotoaufnahme außerh. d. Rahmens -&gt; Ein<br />
( Einstellungen -&gt; Kamera -&gt; Anpassung autom. anwenden -&gt; Aus )<br />
<br />
Führt dazu, dass die Kamera mit der jeweils witwinkeligen Kamera ein zweites Foto macht und man den Auschnitt später vergrößern kann, falls z.B. ein wichtiges Bilddetail außerhalb des ursprünglichen Rahmen liegt und man es aber doch im Bild haben möchte.<br />
<br />
Man macht ganz normal das Bild. In der Galerie sucht man das Bild aus (die Bilder mit der Zweitaufnahme sind an einem kleinen Frame-Icon unterhalb der &quot;Bearbeiten&quot; Schaltfläche zu erkennen) und geht auf &quot;Bearbeiten&quot; um dann das Crop-Tool (unterer Rand, drittes Icon) auszuwählen. Die App nimmt dann schon mal eine automatische Anpassung vor, die man rückgängig machen kann, indem man oben in der Mitte auf das Framesymbol mit Schriftzug &quot;AUTO&quot; tippt.<br />
<br />
Um jetzt selbst den Ausschnitt zu erweitern, verwendet man den klassischen Finger-Pinch für das Auszoomen. Wie von Zauberhand taucht jetzt Bildmaterial am Rand auf, das vorher jenseits des gewählten Ausschnitts lag. Klasse! :gut:<br />
<br />
Obacht: <br />
Man hat nur 30 Tage Zeit den Auschnitt jenseits des ursprünglichen Rahmens zu wählen, danach werden die Zusatzinformationen weggeschmissen.<br />
Das Ganze funktioniert nur, wenn Ihr unter Einstellungen -&gt; Kamera -&gt; Formate -&gt;High Efficiency ausgewählt habt.<br />
Ob wirklich jenseits des Ausschnitts aufgenommen wird, entscheidet die Kamera anscheinend von Fall zu Fall. Ich hatte auch schon Fälle (Indoor, wenig Licht), da standen bei einer Aufnahme mit der WW-Kamera keine Daten der UWW-Kamera zur Verfügung. <br />
<br />
Viel Spaß damit!<br />
<br />
Nun zu dem Umstand, der mich ins Grübeln gebracht hat:<br />
Ich habe ein Bild mit der Tele-Kamera gemacht. Wie zu erwarten hat es eine Größe von 4032x3024 Pixeln, also die angegebenen 12 Megapixel. <br />
Wenn ich jetzt die Aufnahme wie oben beschrieben maximal erweitere und dann abspeichere, erhalte ich ein Bild mit einer Größe von 5648x4240 Pixeln, also knapp 24 Megapixel. Nice! Aber wo kommen die her? Klar, die wurden jetzt irgendwie um das 12MP Bild der Telekamera drumherum gestrickt. Aber auch die WW-Kamera hat nur 12MP und keine 24MP. Da die Bilder nicht nebeneinander, sondern ineinander liegen, kann man hier auch nicht von 12+12=24 ausgehen. Ich gehe aktuell davon aus, dass eine &quot;Ai&quot; die Bilder ineinander rechnet und das finale Bild in der Mitte (dort wo die Telekamera aufgenommen hat) einen höheren &quot;Informationsgehalt&quot; hat, als am Rand, weil die Software am Rand weniger gut aufgelöste Daten hat und diese hochskalieren muss. Das dürfte nicht schlechter sein, als hätte man das Bild gleich mit der WW-Kamera gemacht, insofern gut.</blockquote>

]]></content:encoded>
			<dc:creator>eos</dc:creator>
			<guid isPermaLink="true">https://www.r-l-x.de/forum/entry.php/501-iPhone-11-Pro-gt-Photos-Capture-Outside-the-Frame-Fotoaufnahme-außerh-d-Rahmens</guid>
		</item>
		<item>
			<title><![CDATA[Sony RX100 & RX100M2 - Tips und Tricks]]></title>
			<link>https://www.r-l-x.de/forum/entry.php/474-Sony-RX100-amp-RX100M2-Tips-und-Tricks</link>
			<pubDate>Tue, 20 Aug 2013 10:00:13 GMT</pubDate>
			<description>Ja, ich habe eine Geschichte was diese Kameras betrifft, insgesamt fünf verschiedene Kameras dieser Gattung haben den Weg zu mir gefunden und trotz...</description>
			<content:encoded><![CDATA[<blockquote class="blogcontent restore">Ja, ich habe eine Geschichte was diese Kameras betrifft, insgesamt fünf verschiedene Kameras dieser Gattung haben den Weg zu mir gefunden und trotz anfänglicher Qualitätsprobleme bei der Herstellung (selbst zwei &quot;Made in Japan&quot; Geräte waren bei mir vermurkst) bin ich zur Zeit mir einer RX100M2 unterwegs. Warum? Weil es in diesem Packmaß keine Kamera gibt, die derart viel bietet. Ich habe eine Menge ausprobiert und natürlich hat auch diese Kamera ihre Schwächen, wie z.B. die Haptik, aber unterm Strich gibt es derzeit keine Alternative.<br />
Sony hat einen überragend guten Sensor verbaut, der als 1&quot; Sensor in der Kompaktklasse alles in den Schatten stellt. Ich würde behaupten vom Rauschverhalten liegt er gerade mal eine Blendenstufe hinter der aktuellen Generation von m43 Sensoren (die bei Olympus auch von Sony kommen), gegenüber den größeren APS-C Kameras sind es vielleicht 1 1/2 bis 2 Blendenstufen. Konkret heisst das bis ISO 3200 ohne nennenswerte Handstände nutzbar, mit etwas Aufwand (RAW und Nachbearbeitung oder Abstriche in der Qualität) geht auch ISO 6400. Das Ganze gepaart mit einem Objektiv, das bei 28mm immerhin f/1.8 liefert (hohe Auflösung im Zentrum, Schwächen in den Randbereichen) und man kann sogar in Richtung Available Light marschieren. Ich habe die RX100 kürzlich gegen die Ricoh GR (APS-C Sensor, f/2.8) getestet und auch wenn die Ricoh GR haptisch ein Gewinner ist, war es in Sachen Bildqualität ein erstaunlich knappes Rennen. Natürlich hat die Ricoh GR als Trumpf einen deutlich größeren Sensor, aber f/2.8 zu f/1.8 ist mehr als eine Blendenstufe, so dass der Vorsprung schnell relativiert wird. Man muss aber dazu sagen, dass das Ricoh GR Objektiv knackscharf bis zum Rand ist und das auch bei Offenblende. Hier wird schon etwas mehr geleistet als bei der Sony, aber dafür ist es halt auch &quot;nur&quot; eine Festbrennweite ohne Stabilisator.<br />
<br />
Da es ja mittlerweile einige Leute hier im Forum gibt, die mit diesen Kameras unterwegs sind, hier ein paar Tips &amp; Tricks.<br />
<br />
<b>01 Schärfeprüfung</b><br />
Auf kleinen Displays verkleinerte Bilder sehen immer knackscharf aus. Um zu Hause keine Überraschung zu erleben, sollte man die Schärfe nach der Aufnahme prüfen um ggf. einen zweiten Versuch in Angriff zu nehmen. Am schnellsten geht das im Wiedergabemodus durch folgendes Manöver:<br />
Wenn Das Bild verkleinert zu sehen ist, den Zoomhebel ein mal kurz in die Richtung Tele ziehen. Die Kamera vergrößert jetzt auf 100% an der Stelle, auf die sie scharf gestellt hat. Man kann jetzt gut beurteilen, ob das so passt. Ist man fertig, drückt man den dicken, runden Knopf im Control Dial und kommt wieder zur Ausgangsansicht.<br />
<br />
<b>02 Auflösung</b><br />
Ja, die 10MP Fotos der Sony sehen toll aus, sind aber weniger, als die Kamera leisten kann. Die 20MP Einstellung bietet zwar keine 100% mehr Information, aber in jedem Fall mehr. Es gibt keinen Grund, außer akute Speicherknappheit, die Kamera unter ihren Möglichkeiten zu benutzen.<br />
<a href="http://www.r-l-x.de/forum/entry.php/465-Aufl%C3%B6sung-und-Bildqualit%C3%A4t-moderner-Kompaktkameras-Beispiel-Sony-RX100" target="_blank">http://www.r-l-x.de/forum/entry.php/...iel-Sony-RX100</a><br />
<br />
<b>03 RAW oder JPG</b><br />
Beides! Mit den richtigen Einstellungen sehen die JPG der Sony zwar klasse aus, aber es gibt immer wieder Situationen, in denen RAW Dateien Vorteile haben. Das ist z.B. der Fall, wenn man mit hoher Empfindlichkeit arbeitet (jenseits von ISO 3200 kann man das Rauschen am Rechner besser kontrollieren als in der Kamera) oder wenn die Motive einen hohen Kontrastumfang haben (starker Unterschied zwischen hell und dunkel) und die 12 Bit der RAWs einfach mehr Informationen zur Verarbeitung mitbringen als die fertigen 8 Bit JPGs. Da Speicherplatz heute eigentlich kein Thema mehr ist, die Kamera so einstellen, dass beides abgespeichert wird. Wenn das Foto die Sache nicht wert ist, braucht man es nicht zu machen oder kann es gleich löschen.<br />
Ein weiterer Vorteil der RAW-JPG Einstellung: Ihr könnt bei den Styles einstellen, was ihr wollt, z.B. B+W oder Vivid, wie es Euch beliebt und das Sucherbild bzw. die fertigen JPG haben dann diesen Style. Solltet Ihr irgendwann bemerken, dass das Bild in Farbe oder mit etwas zurückhaltenden Farben besser gewesen wäre, könnt Ihr auf das RAW zurück greifen, denn das ist &quot;Geschmacksneutral&quot;.<br />
<br />
<b>04 Videoformat Einstellungen</b><br />
Vorher lesen: <a href="http://www.r-l-x.de/forum/entry.php/46-Meine-Kamera-kann-Videos-aufnehmen-Hurra" target="_blank">http://www.r-l-x.de/forum/entry.php/...ufnehmen-Hurra</a>!<br />
Als Videoformat ist heute AVCHD standard.<br />
Die RX100 im europäischen Raum bietet die Einstellungen 50i und 50p. 50i suggeriert zwar ein interlaced Format, praktisch ist es aber so, dass der Sensor in Vollbildern ausgelesen wird und die Bilder anschließend geteilt werden. Importiert man einen 50i der RX100 in ein Schnittprogramm, wird dies i.d.R. auch als 25p erkannt. D.h. bei der RX100 gilt 50i = 25p. Man kann also zwischen 50p und 25p wählen, jeweils mit gleicher Bitrate (24M).<br />
Und was nun? 50p oder 50i einstellen? <br />
In Abhängigkeit von der Szene: Bei gemächlichen Dingen 25p (=50i) einstellen, bei Dingen, die sich schnelle Bewegen 50p und wenn man am Ende eine Zeitlupe haben möchte auch 50p.<br />
In Abhängigkeit vom Zielformat: Ist das Ziel 25p machen 25p oder 50p (für Zeitlupe) Sinn. Ist das Ziel 24p, nimmt man 25p auf und spiel es etwas langsamer ab (ja, ehrlich, deshalb sind Kinofilme immer länger als die dazu passende europäische DVD). Ist das Ziel 30p, nimmt man mit 50p auf (durch den Pulldown gibt es zwar auch kleine Ruckler, aber deutlich unauffälliger als ein Pullup von 25 auf 30).<br />
Die RX100M2 kann, wenn man sie auf NTSC umschaltet, zusätzlich in 24p, 30p(=60i) und 60p aufnehmen. Beste Bildqualität bei normalen/langsamen Szenen gibt es bei 24p(24M), für Zeitlupen 60p nehmen und dann in der Timeline entsprechend &quot;verlangsamen&quot;.<br />
<br />
<b>05 Bildstabilisierung bei Video</b><br />
Die Kamera kennt hier drei Einstellungen für Steadyshot:<br />
<i>Active</i> - eine Mischung aus optischer Stabilisierung (im Objektiv) und digitaler Stabilisierung (in der Software, wie beim iPhone)<br />
Ist eine sehr wirksame Kombination, die selbst größere Bewegungen der Kamera ausgleichen kann. Leider ein wenig zu Lasten der Qualität, denn für die digitale Stabilisierung wird ein etwas kleinerer Bildausschnitt aufgezeichnet und der Rand für die Stabilisierung genutzt.<br />
<i>Standard</i> - reine optischer Stabilisierung (im Objektiv)<br />
Längst nicht so effektiv wie die Einstellung 'Active', aber bestmögliche Bildqualität. Sollte man verwenden, wenn man in der Lage ist die Kamera ruhig genug zu halten.<br />
<i>Aus</i> - keine Stabilisierung<br />
Vielleicht sinnvoll, wenn man mit einem guten Stativ und Videokopf arbeitet.<br />
<br />
<b>05 Ungewollte Unschärfe durch Bewegung</b><br />
Wer oft im 'P' Modus unterwegs ist, wird sich von Zeit zu Zeit über unscharfe Bilder ärgern, weil die von der Kamera gewählte Verschlusszeit mit 1/30s als unterste Grenze arg optimistisch ist. Leider kann man hier keinen Mindestwert einstellen, denn 1/30s ist zwar bei statischen Motiven dank des Stabilisators kein Problem, aber sobald sich etwas im Bild bewegt, sei es Kind, Hund, Autos oder Radfahrer, gelingt es mit 1/30s nicht mehr die Bewegung einzufrieren. Hier hilft nur der beherzte Gang auf 'S' (Shutter Priority) und die Vorgabe einer entsprechend kurzen Verschlusszeit, z.B. 1/125s.<br />
<br />
<b>06 Picture Effects nachträglich</b><br />
Die Kamera kommt mit ein paar netten Effekten daher, die sich sehen lassen können, so z.B. der Illustrationsmodus, den man selbst mit Photoshop nur sehr umständlich in dieser Qualität hin bekommt. Es besteht keine Notwendigkeit den Effekt schon bei der Aufnahme zu aktivieren, die Effekte können auch nachträglich auf ein gemachtes Bild (siehe [03]) angewendet werden und die Kamera speichert dann eine entsprechende Kopie des Bildes.</blockquote>

]]></content:encoded>
			<dc:creator>eos</dc:creator>
			<guid isPermaLink="true">https://www.r-l-x.de/forum/entry.php/474-Sony-RX100-amp-RX100M2-Tips-und-Tricks</guid>
		</item>
		<item>
			<title>Auflösung und Bildqualität moderner Kompaktkameras - Beispiel Sony RX100</title>
			<link>https://www.r-l-x.de/forum/entry.php/465-Auflösung-und-Bildqualität-moderner-Kompaktkameras-Beispiel-Sony-RX100</link>
			<pubDate>Sat, 15 Jun 2013 19:15:56 GMT</pubDate>
			<description>Heute war ich mal wieder im Britzer Garten unterwegs und habe ein paar Fotos gemacht. Da ich nicht primär zum Fotografieren dort war, hatte ich nur...</description>
			<content:encoded><![CDATA[<blockquote class="blogcontent restore">Heute war ich mal wieder im Britzer Garten unterwegs und habe ein paar Fotos gemacht. Da ich nicht primär zum Fotografieren dort war, hatte ich nur meine Sony RX100 dabei. Der 20MP Sensor der Kamera gepaart mit dem Carl Zeiss Objektiv liefert zwar nicht immer nicht immer das, was man erwartet, wenn man an 20MP denkt, aber unter guten Bedingungen ist der Grad an Detailinformationen, die diese Kamera liefert wirklich beeindruckend.<br />
<br />
Das Bild in original Größe findet Ihr hier (2x auf die Lupe unten rechts klicken):<br />
<a href="http://i1158.photobucket.com/albums/p604/sedazin/DSC-RX100_DSC00158-2_zpsd9137ba9.jpg" target="_blank" rel="nofollow">http://i1158.photobucket.com/albums/...psd9137ba9.jpg</a><br />
<br />
Das auf 800x600 Pixel verkleinerte Bild sieht so aus:<br />
<br />
<img src="http://i1158.photobucket.com/albums/p604/sedazin/DSC-RX100_DSC00158_zps0a91f27a.jpg" border="0" alt="" /><br />
<br />
Ein 800x600 Pixel großer Ausschnitt aus der Datei sieht so aus:<br />
<br />
<img src="http://i1158.photobucket.com/albums/p604/sedazin/DSC-RX100_DSC00158_crop_zpsbecc1945.jpg" border="0" alt="" /></blockquote>

]]></content:encoded>
			<dc:creator>eos</dc:creator>
			<guid isPermaLink="true">https://www.r-l-x.de/forum/entry.php/465-Auflösung-und-Bildqualität-moderner-Kompaktkameras-Beispiel-Sony-RX100</guid>
		</item>
		<item>
			<title>Ein kleines Kindle + Instapaper How-to ...</title>
			<link>https://www.r-l-x.de/forum/entry.php/441-Ein-kleines-Kindle-Instapaper-How-to</link>
			<pubDate>Fri, 08 Feb 2013 10:08:55 GMT</pubDate>
			<description>Calibre ist Pflicht um eBooks aus verschiedenen Quellen verwalten zu können, aber eBooks sind nicht alles, was ein Kindle wiedergeben kann. Eine...</description>
			<content:encoded><![CDATA[<blockquote class="blogcontent restore">Calibre ist Pflicht um eBooks aus verschiedenen Quellen verwalten zu können, aber eBooks sind nicht alles, was ein Kindle wiedergeben kann. Eine feines Sache, die ich für mich entdeckt habe ist 'Instapaper', eine Read-It-Later Applikation mit Webanbindung. Mit Instapaper kann man nicht nur auf dem heimischen PC oder Mac im Browser beliebige Artikel zum später lesen speichern, die Inhalte werden auch mit zur Verfügung stehenden iOS und Adroid Apps synchronisiert und was für Kindel Benutzer recht interessant ist: Mann kann einen Abo Dienst einrichten, der die Inhalte zu bestimmten Zeiten an den Kindle schickt (bis zu 10 Artikel sind kostenlos, für einen Dollar im Monat gibt es bis zu 50 Artikel). Das funktioniert so:<br />
<br />
Auf <a href="http://www.instapaper.com" target="_blank" rel="nofollow">http://www.instapaper.com</a> einen Account anlegen. Einfach Mailadresse, Passwort, fertig.<br />
<br />
Bevor Ihr Instapaper so richtig benutzen könnt, müsst Ihr Euch ein Werkzeug bereit legen, um auf einfachem Weg die Inhalte an Instapaper zu übergeben. Hierfür verwendet Instapaper ein sogenanntes Bookmarklet, also eine kleine Javascript Routine, die als Bookmark gespeichert werden kann.<br />
<br />
Auf der Instapaper Seite unter 'Extras' (<a href="http://www.instapaper.com/extras" target="_blank" rel="nofollow">http://www.instapaper.com/extras</a>) ist die Sache beschrieben. Bei gängigen Browsern reicht es den Button 'Read Later' in die Lesezeichenleiste zu schieben.<br />
<br />
Habt Ihr einen interessanten Artikel gefunden, den Ihr später lesen wollt, klickt einfach auf Euren 'Read Later' Bookmark. Die Daten werden dann von der Webseite zu Instapaper geladen. (Obacht, Ihr müsst bei Instapaper eingeloggt sein, damit das funktioniert!)<br />
<br />
Auf dem iPad und iPhone ist das leider nicht so einfach, weil drag'n'drop nicht möglich ist. Hier müsst Ihr in der App unter Settings den Punkt 'Install &quot;Read Later&quot; in Safari' auswählen.<br />
Im Prinzip muss das gleiche Bookmarklet erstellt werden. Hierfür kopiert die App die &quot;URL&quot; bzw. den Javascript Code des Bookmarklets in die Zwischenablage. Danach öffnet sich Safari mit einer Anleitung, wie das Bookmarklet einzurichten ist. Es wird ein Lesezeichen erstellt und anschließend mit dem Javascript Code versehen.<br />
(Das müsste theoretisch auch mit anderen Browsern funktionieren bzw. wer die Lesezeichen via iCloud oder Google synchronisiert, braucht möglicher Weise gar nichts weiter zu tun.)<br />
Wenn aus irgendeinem Grund das Bookmarklet nicht funktioniert, könnt Ihr Inhalte zum späteren Lesen mit Instapaper auch via Mail an Euren Instapaper Account schicken. Die Mailadresse, an die Ihr die Dinge schicken müsst, findet Ihr unter <a href="http://www.instapaper.com/extras" target="_blank" rel="nofollow">http://www.instapaper.com/extras</a> -&gt; Email in links and long messages.<br />
Mittlerweile gibt es auch viele andere Apps, die eine Schnittstelle vom späteren Lesen bieten. So kann man z.B. in Flipboard seinen Instapaper Account hinterlegen und Artikel, die man in Flipboard findet bei Bedarf an Instapaper übertragen.<br />
<br />
Euer Read-It-Later Ökosystem ist jetzt schon fast fertig. Ihr könnt von allen Geräten aus Inhalte zu Instapaper bringen und die Inhalte dann offline mit Euren iOS oder Android Geräten lesen, sobald die Daten synchronisiert sind.<br />
<br />
Wie kommt jetzt der Kindle ins Spiel?<br />
<br />
Das Display des Kindle ist hervorragen dazu geeingnet Texte im Flugzeug oder morgens bei einer Tasse Kaffee am Küchentisch zu lesen. Damit auch die richtigen Inhalte bereit stehen, müssen sie von Instapaper an den Kindle geschickt werden. Da der Kindle nur über eine sehr rudimentäre Browserapplikation verfügt, kann diese nicht verwendet werden. Statt dessen erzeugt Instapaper Dokumente, die via Mail an den Kindle geschickt werden. Dazu müssen aber sowohl Instapaper, als auch Kindle dafür konfiguriert werden. Instapaper muss wissen, an welche Mailadresse es die Dokumente schicken soll und dem Kindle muss man erlauben Dokumente von der Instapaper Mailadresse zu empfangen. Das geht so:<br />
<br />
Zunächst müssen wir schauen, unter welcher Mailadresse Instapaper die Dokumente sendet. Diese Adresse findet Ihr unter <a href="http://www.instapaper.com/user/kindle" target="_blank" rel="nofollow">http://www.instapaper.com/user/kindle</a> -&gt; 2. Punkt, in grün geschrieben Mailadresse. Am besten in die Zwischenablage kopieren oder aufschreiben.<br />
<br />
Damit man dem Gerät Mails schicken kann/darf, muss die Mailadresse, von der gesendet wird, bei Amazon in die Whitelist aufgenommen werden. Die Standardadresse, die Ihr bei Amazon verwendet ist es i.d.R. schon, aber wir wollen ja, dass Instapaper später Mails an den Kindle sendet, daher müssen wir hier noch etwas konfigurieren:<br />
<br />
<a href="https://www.amazon.de/gp/digital/fiona/manage?ie=UTF8&amp;ref_=gno_yam_myk#pdocSettings" target="_blank" rel="nofollow">https://www.amazon.de/gp/digital/fio...k#pdocSettings</a><br />
oder<br />
Auf der linken Seite unter 'Ihr Kindle-Konto' -&gt; 'Persönliche Dokumente-Einstellungen ' auswählen.<br />
<br />
Hier seht Ihr ganz unten unter 'E-Mail-Liste für genehmigte persönliche Dokumente' die Mailadressen, denen es erlaubt ist Dokumente zu schicken. Um die Adresse von Instapaper hinzufügen, einfach auf 'Neue bestätigte E-Mail-Adresse hinzufügen' klicken, die Instapaper Mailadresse aus der Zwischenablage einfügen oder vom Zettel abschreiben. Auf 'Adresse hinzufügen' klicken. Fertig.  <br />
<br />
Euer Kindle ist durch eine E-Mail-Adresse erreichbar. Ihr könnt dem Gerät alle Dateien schicken, die es anzeigen kann. Welche Mailadresse das ist, seht Ihr auf der gleichen Seite oben unter 'Kindle Email-Adresse(n)'. Sucht Euch die Mailsdresse Eures Kindle Gerätes raus und kopiert den Teil vor dem '@'-Zeichen sie in die Zwischenablage oder notiert sie Euch.<br />
<br />
Jetzt geht Ihr (in Instapaper noch eingeloggt) auf die Seite <a href="http://www.instapaper.com/user/kindle" target="_blank" rel="nofollow">http://www.instapaper.com/user/kindle</a><br />
<br />
Dort fügt Ihr unter 'My Kindle’s email address:' im vorderen Teil den Inhalt der Zwischenablage ein oder schreibt den entsprechenden Teil von Hand hinein. Im hinteren Teil wählt Ihr 'free.kindle.com' aus.<br />
(So wird sicher gestellt, dass für die Zustellung nur WLAN benutzt wird. Für alle nicht-3G-Modelle ist das egal, aber für Besitzer von 3G-Modellen wird so sicher gestellt, dass keine zusätzlichen Kosten für die Nutzung von 3G entstehen.)<br />
<br />
Weiter geht es im nächsten Abschnitt, hier muss das Häkchen bei 'Send my Unread articles to my Kindle automatically' gesetzt werden und dann muss man sich für die Liefermodalitäten entscheiden. Ich habe erstmal tägliche Zustellung um 3AM (vor dem Aufstehen) gewählt und 'Only if it will contain at least 1 new article'. Die Konfiguration mit Klick auf den Button 'Save Changes' beenden. <br />
<br />
Jetzt liefert Instapaper jeden Morgen um 3 Uhr die &quot;Zeitung&quot; auf den Kindle. Bevor ich mich dann um kurz nach 5 Uhr auf die Reise mache, schalte ich den Kindle kurz ein, warte bis die Inhalte geladen wurden und nehme ihn mit.<br />
<br />
Viel Spaß! :gut:<br />
<br />
eos</blockquote>

]]></content:encoded>
			<dc:creator>eos</dc:creator>
			<guid isPermaLink="true">https://www.r-l-x.de/forum/entry.php/441-Ein-kleines-Kindle-Instapaper-How-to</guid>
		</item>
		<item>
			<title><![CDATA[24p - der Abschluss oder "Wie wird denn nun der Lichteinfall reguliert?"]]></title>
			<link>https://www.r-l-x.de/forum/entry.php/150-24p-der-Abschluss-oder-quot-Wie-wird-denn-nun-der-Lichteinfall-reguliert-quot</link>
			<pubDate>Fri, 22 Jul 2011 12:13:54 GMT</pubDate>
			<description>So, lange nichts geschrieben, aber jetzt ist mir gerade aufgefallen, dass wir mit der Lichtmengensteuerung beim Filmen noch nicht ganz am Ende waren,...</description>
			<content:encoded><![CDATA[<blockquote class="blogcontent restore">So, lange nichts geschrieben, aber jetzt ist mir gerade aufgefallen, dass wir mit der Lichtmengensteuerung beim Filmen noch nicht ganz am Ende waren, deshalb probiere ich das heute rund zu machen.<br />
<br />
Kurze zusammenfassung:<br />
<br />
Blende <br />
- Wird eigentlich festgelegt um die Schärfenausdehnung in der Szene zu steuern (nicht um die Belichtung zu regeln)<br />
<br />
Zeit <br />
- Wird eigentlich festgelegt um die Bildästhetik zu steuern. 1/48s ist der Standard um Ruckeln zu minimieren, 1/200s kann in Actionszenen die nötige Härte rüber bringen, z.B. Omaha Beach Szene in 'Saving Private Ryan'. (nicht um die Belichtung zu regeln)<br />
<br />
Empfindlichkeit <br />
- Kann verwendet werden, um die Belichtung zu regeln. Der Umfang, in dem man hier regeln kann ist stark begrenzt. Hohe Empfindlichkeit führt zu Bildrauschen, das als erstes in den Tiefen (dunkle Stellen) beginnt.<br />
<br />
=&gt; Wir haben eigentlich noch keine Lösung für das Problem:<br />
<br />
Es ist ein sonniger Tag bei den DOT2011, keine Wolke am Himmel und wir wollen bei 1/48s Verschlusszeit eine Szene drehen, bei der selektive Schärfe vom Startschild weg zum Mercedes SLS gezogen wird. D.h. Erst Startschild scharf und SLS unscharf im Hintergrund, dann Schärfe in den Hintergrund wanders lassen, so dass am Ende der SLS scharf ist (ist er eh immer) und das Schild im Vordergrund unscharf.<br />
<br />
Um die Szene so zu drehen, müssen wir also die Blende weit öffnen, z.B. auf f/2.0, damit die Ausdehung der Schärfe eng begrenzt ist. D.h. gleichzeitig, dass viel Licht auf den Sensor fällt, mehr als wir bei 1/48s Belichtungszeit gebrauchen können. An der Empfindlichkeit können wir nicht mehr drehen, bei ISO 100 ist Schluss und trotzdem ist zu viel Licht da. <br />
<br />
<br />
Die Lösung: ND-Filter bzw. Ein Vari-ND-Filter / ND-Fader<br />
<br />
ND = Neutral Density, bedeutet, dass der Filter einfach nur die Lichtmenge reduziert und sonst nichts tut. Die Farben bleiben unverfälscht, das Ding sieht aus wie eine dunkle Scheibe Glas und tut auch genau das, was wir von einer dunklen Scheibe Glas erwarten, nämlich weniger Licht durchlassen. ND-Filter bekommst man in verschiedenen Stufen, je nachdem wieviel Licht der Filter noch durchlässt. Üblich sind 1-8 Blendenstufen.<br />
<br />
Stellen wir also fest, dass bei Empfindlichkeit ISO 100, Blende f/2.0 und Verschlusszeit 1/48s immer noch vier Blendenstufen überbelichtet wird, können wir einfach einen ND-Filter '4' vorne auf das Objektiv schrauben und haben das Problem gelöst. Wie wir aus den vorangegangenen Teilen wissen, können wir auch einen ND-Filter '8' nehmen und dafür die Empfindlichkeit auf ISO 1600 (vier Blendenstufen höher) einstellen.<br />
<br />
Um noch etwas flexibler zu werden, kann man man auch sogenannte 'ND-Fader' verwenden. Das sind im Prinzip variable ND-Filter, bei denen man durch Drehung den gewünschten Filterwert einstellen kann. Diese Konstruktion besteht aus zwei Polfiltern, die als Sandwich montiert sind und von denen der obere gedreht werden kann. So kann man das enfallende Licht fast zwischen 0 und 100% regeln.<br />
(Kann man auch ausprobieren, in dem man Gläser von zwei polarisierten Sonnenbrillen mal gegeneinander hält und dann verdreht.) <br />
<br />
Einer der bekannteren ND-Fader kommt von Lightcraftworkshop:<br />
<br />
<a href="http://www.lightcraftworkshop.com/site/page1000.html" target="_blank" rel="nofollow">http://www.lightcraftworkshop.com/site/page1000.html</a><br />
<br />
Hier sieht man, wie man so ein Teil verwendet:<br />
<br />
<a href="http://www.youtube.com/watch?v=Jp353Q_P04c" target="_blank" rel="nofollow">http://www.youtube.com/watch?v=Jp353Q_P04c</a><br />
<br />
Wer jetzt so ein Ding kaufen will, bekommt noch einen Tip: So ein Ding kauft man nur ein Mal und dafür so groß wie nötig (größten Frontlinsendurchmesser der Objektivsammlung ermitteln) und auf alle anderen Objektive schraubt man das große Teil mit einem preiswert erhältlichen Adapter.</blockquote>

]]></content:encoded>
			<dc:creator>eos</dc:creator>
			<guid isPermaLink="true">https://www.r-l-x.de/forum/entry.php/150-24p-der-Abschluss-oder-quot-Wie-wird-denn-nun-der-Lichteinfall-reguliert-quot</guid>
		</item>
		<item>
			<title>Wenn Apple ins Klo greift - Final Cut Pro X</title>
			<link>https://www.r-l-x.de/forum/entry.php/137-Wenn-Apple-ins-Klo-greift-Final-Cut-Pro-X</link>
			<pubDate>Sat, 09 Jul 2011 21:06:59 GMT</pubDate>
			<description>So, heute mal war außerhalb der ohnehin schon verzögerten Reihe und zwar aus aktuellem Anlass. 
 
Ich habe heute zum ersten Mal nach einem App-Kauf...</description>
			<content:encoded><![CDATA[<blockquote class="blogcontent restore">So, heute mal war außerhalb der ohnehin schon verzögerten Reihe und zwar aus aktuellem Anlass.<br />
<br />
Ich habe heute zum ersten Mal nach einem App-Kauf mein Geld von Apple zurück gefordert. Wie schon der Titel dieses Eintrags erahnen lässt, handelt es sich um die Mac App 'Final Cut Pro X', also die neuste Version von Apples NLE Software (NLE = Non Linear Editing, also Videoschnitt).<br />
Der Vorgänger ist eine sehr angesehene, verbreitete und kommerziell stark genutzte Software, kein Magix Paket für den Hobbycutter, sondern was Handfestes, wo der Amateur wie die Sau ins Uhrwerk guckt.<br />
<br />
Wer Apple-Foren verfolgt hat, weiss seit Ende Juni, dass FCP X nicht wirklich gut in der Fachwelt angekommen ist. Beständige Jünger behaupten zwar, dass die Kritiker nur nicht im Stande wären sich auf neue Konzepte einzulassen, aber wenn selbst gestandene Profis und Opinion Leader meinen, dass das Ganze erst reifen muss, dann ist vielleicht etwas 'dran. Ich wollte es selbst herausfinden.<br />
<br />
Also habe ich mir Ende Juni die Software gekauft, die mit 239,- Euro ein echtes Schnäppchen ist, wenn man bedenkt, dass die Konkurrenz i.d.R. 1000,- Euro kostet (Adobe Premiere, Avid Mediacomposer, Edius Neo) und weil es so günstig ist 'Motion 5', ein Addon für Compositing, für 39,- Euro gleich dazu.<br />
Dann habe ich lange in der Anleitung geschmökert und die Webseiten nach Tutorials abgegrast. In den letzten Woche gab es hier ein paar tolle, kostenlose Veröffentlichungen, die man hier gut zusammengefasst hat: <a href="http://www.fcp.co/final-cut-pro/tutorials" target="_blank" rel="nofollow">http://www.fcp.co/final-cut-pro/tutorials</a><br />
Insgesamt gefällt mir der Stil von Larry Jordan am besten, auch wenn man munkelt, dass er von Apple bezahlt wird, er kann es gut erklären und sieht nicht alles schwarz oder weiss.<br />
<br />
Nach Stunden von Tutorials und parallelem Nachvollziehen an FCP X ging es dann ans eingemachte. Ich habe das gesamte Material von den DOT2011 importiert. <br />
Das ganze ging erstmal recht Problemlos, aber bei Bildsequenzen geriet die Sache ins Stocken. Kein Menüpunkt hierzu in FCP X. Seltsam. Das Internet sagt man sollte Quicktime Pro 7 kaufen um Bildsequenzen bearbeiten zu können. Häh, ich hab' Quicktime X auf dem Rechner, wozu brauch ich das QT7Pro? Na zum Vorbearbeiten von Bildsequenzen für Zeitraffer. Aha. Nochmal 30,- Euro? Nee, jetzt mal anders. Also hab' ich die Bildsequenzen in meiner alten Schnittsoftware verarbeitet und als fertige Videos exportiert. Der Import in FCP X wird aber zum Problem, weil Apple zickig ist, was Formate angeht. XDCAM (ein Industriestandard) will es nicht, nur Quicktime geht. Na gut, dann eben Quicktime.<br />
Jetzt kommst das Material aus meiner topaktuellen und hochgelobten Panasonic GH-2 'dran. Geht nicht. Keine *.mts lassen sich importieren (AVCHD), nur wenn die komplette Struktur auf der SD-Karte noch vorhanden ist. Gut, dass ich die Karten damals auf dem Macbook 1:1 gesichert habe. Es funktioniert, aber was für ein Umweg. Meine alte Schnittsoftware macht das ohne Murren.<br />
So, fast fertig mit dem Import, aber da war ja noch was. Richtig, der Mac-Knife hat mir ja noch das Material geschickt, das Maxi gefilmt hat. War in meiner alten Schnittsoftware kein Problem, aber hier - denkste. Also zurück zur alten Software, umkonvertieren und dann rein nach FCP X.<br />
Für ein aktuellen Programm ganz schön viele Umwege.<br />
Jetzt heult mein Mac-Book Pro auf. Die Kerne des Intel Core i7 scheinen richtig heiss zu laufen, der Lüfter erreicht Vmax und bleibt die ganze Nacht dabei. FCP X analysiert mein Material auf Audioprobleme, Farbprobleme und Verwacklung und kodiert die Filme um in ein Zwischenformat, dass auch sehr flüssiges Arbeiten auch auf schwächeren Rechnern erlauben soll. Mein aktuellen i7 MBP ist eigentlich alles andere als schwachbrüstig, die Mindestanforderungen von Apple liegen weit darunter, aber ich will ja, dass es flutscht.<br />
Am nächsten Tag ist alles 'drin. Ich bewege die Maus über die Medienicons, die Vorschau zeigt in Echtzeit, auf welchem Bild der Cursor gerade steht - geil. Dann mache ich mich mal daran ein paar Sachen in chronologischer Reihenfolge in die Timeline - pardon - Storyline zu ziehen. Nanu, was war denn das? Da stockt doch was. Aha, schau' mal einer an, mit 720p läuft die Vorschau flüssig, aber bei 1080p zickt es rum, trotz Proxycodec? Seltsam ...<br />
<br />
Naja, im Laufe der Zeit ist mir das Programm ein paar Mal abgestürzt, ein paar Mal musste ich es neu starten, weil bestimmte Basisfunktionen nicht mehr verfügbar waren (Skimmer weg, keine Selektion von In- und Out Point mehr möglich, etc.) und sobald man Effekte verwendet muss man eigentlich den Finger von der Maus nehmen, damit der Mac erstmal rechnen kann. Jaja, Berechnung im Hintergrund, aber was nutzt das schon, wenn im Vordergrund alles steht? Ich wundere mich wirklich, denn solche Dinge hat meine alte Software besser gemacht, einfach in dem sie nicht so viel versprochen hat. Heute ist mir dann der Geduldsfaden gerissen, nachdem ich mein Projekt erstmal nicht mehr wieder gefunden habe. Ich konnte es zwar wieder rekonstruieren, aber die Kiste ist mir zu heiss und zu nervig.<br />
<br />
Ich habe dann auf die Mail mit der Rechnung geschaut und dort den Button 'Problem melden ...' gedrückt. Dann habe ich denen mal erklärt, was ich von ihrer halbgaren Software halte und um Erstattung des Rechnungsbetrags gebeten. Bin gespannt was jetzt passiert, denn eigentlich gilt im App-Store ja &quot;All Sales are final&quot;.</blockquote>

]]></content:encoded>
			<dc:creator>eos</dc:creator>
			<guid isPermaLink="true">https://www.r-l-x.de/forum/entry.php/137-Wenn-Apple-ins-Klo-greift-Final-Cut-Pro-X</guid>
		</item>
		<item>
			<title>Nicht nur 24p - Die Empfindlichkeit ...</title>
			<link>https://www.r-l-x.de/forum/entry.php/73-Nicht-nur-24p-Die-Empfindlichkeit</link>
			<pubDate>Mon, 23 May 2011 11:30:50 GMT</pubDate>
			<description>So, nachdem wir jetzt wissen, dass Blende und Verschlusszeit beim Filmen nicht dazu dienen die Belichtung zu beeinflussen, sondern stilistische...</description>
			<content:encoded><![CDATA[<blockquote class="blogcontent restore">So, nachdem wir jetzt wissen, dass Blende und Verschlusszeit beim Filmen nicht dazu dienen die Belichtung zu beeinflussen, sondern stilistische Mittel sind, schauen wir uns heute mal an, welche Möglichkeiten wir denn noch so haben um die auf den Sensor fallende Lichtmenge zu regulieren.<br />
<br />
(Eins sei an dieser Stelle noch gesagt: Es geht hier rein ums Filmen und den Film als Kunstform. Es geht nicht um das Video, das Papa vom Kleinsten macht, während er auf der Krabbeldecke rumrobbt. Für solche &quot;Erinnerungsstützen&quot; sollte einem jede Blende Recht sein, solange der Kleine scharf abgebildet wird und auch die Verschlusszeit ist dann mal egal, denn die Hauptsache ist, dass man das Erlebnis eingefangen hat!)<br />
<br />
<br />
ISO - früher für 36 Bilder fest, heute schon bei einem Bild nicht mehr<br />
<br />
Ja, die moderne Technik macht vieles möglich. Während wir früher den 36er Kleinbildfilm in der Drogerie gekauft haben und uns noch fragten, ob es ein 100 ASA Film für den Urlaub sein sollte oder doch ein 400 ASA für die Innenaufnahmen zur Weihnachtszeit, kann man dies heute per Knopfdurck an den meisten Digitalkameras verstellen. Aber nicht nur das, moderne Kameras bieten auch hier mittlerweile eine Automatik an, so wie man es schon von Blende und Zeit gewohnt ist. Man kann dann einen Maximalwert vorgeben (üblicher Weise das, was man als noch recht angenehm hinsichtlich des Rauschen empfindet) und die Kamera wählt die Empfindlichkeit selbst.<br />
<br />
Aber schauen wir uns erstmal an, was es mit der Empfindlichkeit auf sich hat.<br />
Ach nee, das geht so nicht. Bevor man zur Empfindlichkeit kommt, muss man eigentlich in Grundzügen wissen, wie so ein Sensor funktioniert, also fange wir am besten dort mal an.<br />
Ich versuche mal in einfachen Worte zu erkären, was so ein Sensor eigentlich macht (der Einfachheit halber Schwarz/Weiss, Farbe ist etwas komplizierter, aber das Prinzip bleibt das Gleiche). Es geht nur um das Prinzip, die Spannungswerte sind frei erfunden wie auch die 8Bit für den Helligkeitswert. Die interne Verarbeitung ist weitaus komplexer.<br />
<br />
Ein Sensor besteht aus vielen kleinen Zellen (Pixel), die aus auftreffendem Licht eine eletrische Ladung machen, deren Spannung man messen = auslesen kann.<br />
Trifft viel Licht auf den Sensor (offene Blende oder lange Belichtungszeit), ist die gemessene Spannung hoch, trifft wenig Licht auf den Sensor, ist die Spannung niedrig.<br />
Jetzt gibt es natürlich nur einen bestimmten Bereich, in dem wir überhaupt diese Spannung erzeugen können, sagen wir mal von 0V bis 5V, d.h. wir würden für das Bild, das wir später aus den Messerten machen wollen definieren, dass 0V = &quot;schwarz&quot; (im Sinne von ganz dunkel) ist (entspricht dem Dezimalwert 0 bei 8 Bit) und das 5V &quot;weiss&quot; (im Sinne von ganz hell) ist (entspricht dem Dezimalwert 255 bei 8 Bit. Das Ganze nennen wir dann ISO100, weil die Zeiten und Blenden zu dem passen, was wir mit einem ISO100 Negativfilm erreichen würden.<br />
<br />
Wie machen wir jetzt ISO200 daraus, also wie verdoppelt wir die Empfindlichkeit, wie sorgen wir dafür, dass schon bei halber Lichtmenge der Dezimalwert 255 für &quot;Weiss&quot; in unserem Bild autaucht?<br />
Wir definieren einfach 0 = 0V und 255 = 2,5V (statt vorher 255 = 5V). Wir werten also nur den Bereich bis 2,5V aus und sind dadurch doppelt so empfindlich.<br />
Eigentlich ein genialer Trick, den man auch immer weiter fortführen kann:<br />
Für ISO400 definieren wir dann 0 = 0V und 255 = 1,25V und für ISO800 definieren wir 0 = 0V und 255 = 0,625V.<br />
<br />
<div class="bbcode_container">
	<div class="bbcode_description">Code:</div>
	<pre class="bbcode_code" style="height:144px;">ISO100                 ISO200             ISO400

    ^       (d255)     ^                  ^              
5V -|      x          -|                 -|                                    
    |                  |       (d255)     |               
    |                  |      x           |               
    |                  |                  |       (d255)  
    |                  |                  |      x         
0V -+--x---------&gt;    -+--x---------&gt;    -+--x---------&gt;   
        (d0)               (d0)              d(0)</pre>
</div>-&gt; Messgenauigkeit<br />
<br />
In der Theorie kann man dieses Verfahren immer so weiter führen, in der Praxis kommen wir aber irgendwann an die Grenze der Messgenauigkeit.<br />
Bei ISO100 haben wir 5V/255 = ca. 0.02V pro messbare Helligkeitsstufe,<br />
bei ISO800 haben wir 0,625V/255 = ca. 0,002V, also nur noch ein Zehntel.<br />
Wenn unsere Messgenauigkeit z.B. bei 0,005V liegt, dann haben wir bei unserer ISO800 Definition schon ein Problem, denn unsere Messwerte schwanken schon sehr deutlich und die Schwankungen sind im Verhältnis zu den Stufendefinitionen zu groß.<br />
<br />
-&gt; Rauschen<br />
<br />
Die Sensoren haben noch eine weitere Eigenschaft, die zu Einbußen bei der Bildqualität führt: Sie rauschen. Damit ist gemeint, dass die elektrische Ladung auf dem Sensor nicht nur durch Lichteinfall entsteht, sondern zu einem kleinen Betrag auch durch Wärme. Diese Wärme führt dazu, dass wir eigentlich nie wirklich 0V messen, sondern, je nach Temperatur, etwas mehr. Wollten wir das Rauschen ausblenden, müssten wir unsere Referenzspannung für den Dezimalwert 0 von 0V auf einen Wert überhalb des Rauschens erhöhen. Das wiederum führt aber dazu , dass der Bereich in dem wir messen können, immer kleiner wird und wir viel früher in das Problem mit der Messgenauigkeit kommen.<br />
Hinzu kommt, dass sich der Sensor beim Auslesen erwärmt. Bei Langezeitbelichtungen, aber auch beim Filmen wird so das Rauschen noch stärker.<br />
<br />
Trotz aller Probleme sind wir aber heute in der Lage mit vielen Kameras zwischen ISO100 und ISO800 akzeptable Ergebnisse zu produzieren. Mit manch teurer Kamera geht es auch deutlich höher. Es wird oft versucht mit der kamerainternen Software das Rauschen wieder platt zu bügeln, die Ergebnisse sehen aber oft sehr unästhetisch aus. Ein &quot;natürliches&quot; Rauschen hat schon fast die Ästhetik von Filmkorn und ich finde es bei vielen Aufnahmen, die mit hoher Empfindlichkeit gemacht wurden, nicht wirklich störend.<br />
<br />
Nachdem wir nun einen Dritten Parameter haben, mit dem wir die Belichtung steuern, mussten sich die Hersteller etwas einfallen lassen. Statt wie früher die Empfindlichkeit fest einzustellen, kann man sie heute bei vielen Kameras auf 'Automatik' stellen, d.h. wie bei Verschlusszeit oder Blende kann die Kamera entscheiden, ob sie mit der Empfindlichkeit hoch oder runter geht. <br />
Bei der Canon S95 z.B. kann man noch eine obere Grenze einstellen, d.h. festlegen bis wann man den Einfluss auf die Bildqualität verschmerzen kann und wie schnell die Kamera die Empfindlichkeit erhöht, d.h. soll sie erst mit der Belichtungszeit runter gehen oder erst mit der Empfindlichkeit hoch?<br />
<br />
Da ein breiteres Spektrum an nutzbarer Empfindlichkeit noch ziemlich neu ist, fangen die Hersteller gerade erst an dieses neue Paramter in die Bedienung mit einzubauen. Eine feine Sache ist es allemal, denn wenn wir an der Empfindlichkeit drehen, können wir Blende und Zeit fest eigestellt lassen. Eine ideale Lösung fürs Filmen eigentlich. Leider umfasst der Spielraum mit der Empfindlichkeit in der Praxis nur ein paar Blendenstufen, so dass wir uns fürs Filmen noch etwas mehr einfallen lassen müssen.<br />
<br />
<br />
<br />
Mehr dazu beim nächsten Mal!</blockquote>

]]></content:encoded>
			<dc:creator>eos</dc:creator>
			<guid isPermaLink="true">https://www.r-l-x.de/forum/entry.php/73-Nicht-nur-24p-Die-Empfindlichkeit</guid>
		</item>
		<item>
			<title>24p - Blende und Verschlusszeit (die Eulen sind nicht, was sie scheinen ...)</title>
			<link>https://www.r-l-x.de/forum/entry.php/61-24p-Blende-und-Verschlusszeit-(die-Eulen-sind-nicht-was-sie-scheinen-)</link>
			<pubDate>Thu, 28 Apr 2011 13:45:30 GMT</pubDate>
			<description>OK, 24p ist klar, d.h. ich kann meine Urlaubsvideos in Zukunft mit der DSLR drehen und sie sehen dann aus wie Filme von George Lucas? 
 
Nein, leider...</description>
			<content:encoded><![CDATA[<blockquote class="blogcontent restore">OK, 24p ist klar, d.h. ich kann meine Urlaubsvideos in Zukunft mit der DSLR drehen und sie sehen dann aus wie Filme von George Lucas?<br />
<br />
Nein, leider nicht und ganz so leicht ist die Sache auch nicht, denn nur die Bildrate von 24 Bildern/s führt noch nicht zu dem, was wir als Spielfilm empfinden. Dazu gehört außerdem:<br />
<br />
o Die Blende oder &quot;Das Spiel mit der selektiven Schärfe&quot;<br />
Mit großen Blendenöffnungen (kleine Blendenzahlen) sinkt die Ausdehnung der Schärfe in der Tiefe des Raums. Der Effekt ist aus der Fotografie bekannt und kann aufs Filmen 1:1 übertragen werden. Mit solchen Blendeneinstellungen und dem Bewussten Verschieben der Fokusebene beim Dreh, lenkt bzw. führt man den Betrachter.<br />
=&gt; Die gewählte Blende ist keinesfalls beliebig und wird beim Filmen nicht oder nur sehr selten dazu verwendet den Lichteinfall zu regeln!<br />
<br />
o Die Verschlusszeit - &quot;Festgemauert in der Erden ...&quot;<br />
Bei vielen Kameras kann man die Verschlusszeit im Videomodus gar nicht beeinflussen. Die Kamera wählt sie selbst, leider nicht immer optimal, leider oft unterschiedlich, obwohl sie wie in Stein gemauert fest stehen müsste.<br />
Warum eigentlich? Regelt man über die Verschlusszeit nicht den Lichteinfall?<br />
Im Prinzip schon, genau wie beim Fotografieren, aber auch dort hat die Verschlusszeit, vor allem bei Bewegten Objekten, einen Einfluss auf das Bild. Bei langen Belichtungszeiten bekommen bewegte Objekte eine Bewegungsunschärfe, bei kurzen Belichtungszeiten kann man bewegte Objekte knackscharf und ohne Bewegungsunschärfe abbilden.<br />
Beim Film bemerken wir Bewegungsunschärfe auf den einzelnen Frames auch, aber eher unbewusst. Dort ist sie sogar gewollt, denn eine zu scharfe Abbildung von bewegten Objekten führt zu einen deutlich Ruckeln. Quasi ein Stroboskopeffekt, der darin begründet ist, dass die Unterschiede zwischen den aufeinander Folgenden Bildern zu groß ist, als das unser Gehirn den Ablauf in einen Fluß bringen kann. Stellt Euch ein Daumenkino vor, bei dem zwischen den Bildern immer wieder fünf Seiten entfernt. Benutzt man es, stellt man fest, dass es ruckelt. Es fehlen Informationen, damit das Gehirn die Bilder miteinander verknüpfen kann.<br />
Genau so ist, es, wenn wir mit 24fps aufnehmen und z.B. mit 1/4000s belichten. Wir haben am Ende in einer Sekunde 24 Bilder gemacht. Die Information auf den Bildern deckt aber zeitlich gesehen nur 24 * 1/4000s = 0,006s von 1,000s ab. Es werden also 99,4% der Zeit nicht abgedeckt.<br />
Wenn wir mit 1/30s belichten, werden Bewegungen zwar unscharf abgebildet, aber wir decken zeitlich gesehen 24 * 1/30s = 0,8s von 1,0s ab. Es werden also nur noch 20% der Zeit abgedeckt.<br />
<br />
Ich Bilder (hier Video) sagt mehr als Tausend Worte, deshalb hab' ich hier mal eine Demonstration vorbereitet:<br />
<br />
<a href="http://vimeo.com/22862451" target="_blank" rel="nofollow">http://vimeo.com/22862451</a><br />
<br />
Die Verschlusszeit fürs Filmen in 24P sollte also irgendwo zwischen 1/24s und 1/50s liegen, keinesfalls höher. Für 60p gilt entsprechend eine Verschlusszeit zwischen 1/60s und 1/125s.<br />
<br />
Es gibt natürlich Ausnahmen. Gerade in Actionsfilmen wird der Stroboskopeffekt oft bewusst eingesetzt um in Kampfszenen die Härte rüber zu bringen oder solche Szenen werden mit einer wesentlich höheren Framerate aufgenommen und dann mit 24p abgespielt, so dass sich Zeitlupen ergeben.<br />
<br />
=&gt; Die gewählte Verschlusszeit ist keinesfalls beliebig und wird beim Filmen nicht oder nur sehr selten dazu verwendet den Lichteinfall zu regeln!<br />
<br />
<br />
Jetzt wird die Sache langsam spannend, denn womit regeln wir denn nun die Belichtung, wenn Blende und Verschlusszeit wegfallen? Mehr dazu beim nächsten Mal ...<br />
<br />
<br />
<br />
P.S.<br />
<br />
Die meisten Musikvideos, in denen Tänzer zu sehen sind, werden aus Zeitlupen erstellt: Dafür wird die Soundspur genommen und das Tempo erhöht, z.B. 125%. Das klingt schräg, ist dann kürzer und wird dann mittels Software so weit angepasst, dass es halbwegs sauber klingt, aber eben deutlich zu schnell. Auf dieser, eigentlich viel zu schnellen Musik, wird dann die Tanzperformance aufgenommen und das auch mit 125% der Abspielframerate, also z.B. 30fps. Die Tänzer müssen richtig arbeiten und schwitzen, um so eine Choreographie bei dem Tempo hin zu bekommen. Hat man das Material im Kasten, lädt man die Videospur ins Schnittprogramm und macht aus den 30fps einfach 24fps, man spielt die Bildfolge einfach langsamer ab. Die Choreographie dauert jetzt so lange, wie das Musikstück im Original, so dass man einfach den original Song dazu packen kann und fertig. Der Bildeindruck solcher Videos unterscheidet sich geringfügig von denen, die im Originaltempo gedreht wurden. Gerade Flugszenen, Sprünge, wirbelnde Haare, schwingende Ärsche usw. sehen in der Zeitlupenversion irgendwie 'satter' aus.</blockquote>

]]></content:encoded>
			<dc:creator>eos</dc:creator>
			<guid isPermaLink="true">https://www.r-l-x.de/forum/entry.php/61-24p-Blende-und-Verschlusszeit-(die-Eulen-sind-nicht-was-sie-scheinen-)</guid>
		</item>
		<item>
			<title>24p - Teil 1 von ...</title>
			<link>https://www.r-l-x.de/forum/entry.php/55-24p-Teil-1-von</link>
			<pubDate>Mon, 25 Apr 2011 21:59:36 GMT</pubDate>
			<description>So, nachdem ich beim letzten Mal ein bischen auf die Frameraten eingegangen bin, mache ich heute an dieser Stelle gleich mal weiter, und gehe bei den...</description>
			<content:encoded><![CDATA[<blockquote class="blogcontent restore">So, nachdem ich beim letzten Mal ein bischen auf die Frameraten eingegangen bin, mache ich heute an dieser Stelle gleich mal weiter, und gehe bei den Bildwiederholraten mal ins Detail. <br />
<br />
Schauen wir uns mal 24p an. Ein Format, das in letzter Zeit auch bei Amateuren sehr populär geworden ist. Ursprünglich aus dem 35mm analog Film kommend, hat es auch auf digitalen Medien Einzug gehalten, weil es nach wie vor das Format ist, in dem die meisten Kinofilme gedreht und projeziert werden: 24 Vollbilder pro Sekunde.<br />
<br />
Jahre lang haben sich Hobbyvideofilmer nicht für diese Bildwiederholrate interessiert, sondern schlichtweg das akzeptiert was aus dem Camcorder kam und auch genau das auf DVD gebrannt (typischer Weise PAL, also 50i). Im Zeitalter von Internetvideos, Mediastreamern und BluRay sieht die Sache anders aus.<br />
<br />
Warum eigentlich 24 Bilder/s? Dazu gibt es viele Meinungen im Netz, die einfachste und die, die man am einfachsten akzeptieren kann: Es war das Minimum, das man braucht, um dem Auge und dem Gehirn flüssige Bewegungen vorzugaukeln. Naja ... manchmal klappt das auch mit 20 Bildern/s, es hängt halt davon ab, wieviel sich zwischen den einzelnen Bildern ändert.<br />
<br />
(Interessant dabei: Auch wenn so ein Kinofilm digital produziert und projeziert wird, bleiben es 24 Bilder/s. Auch auf dem heimischen Fernseher bleiben z.B. bei BluRay 24 Bilder/s, bei DVDs 25 Bilder/s. Das ist völlig unanhängig von den 100, 200 oder 600Hz Wiederholrate, die Euer Fernseher macht. Wenn er nämlich tatsächlich 600 Bilder/s darstellt, dann zeigt er Euch bei 24p Material jedes Bild genau 25 Mal (25x24). Ein Bildflimmern vom Fernseher sieht man dann also nicht, das Flimmern, dass man ggf. noch sieht, liegt am Filmmaterial.)<br />
<br />
24p ist also ein Relikt aus alten Zeiten, dass wir einfach noch nicht abgelegt und in die digitale Welt übertragen haben? Jein. Das besondere an 24p ist eine gewisse Ästhetik, an die wir uns gewöhnt haben und mit der unser Gehirn &quot;hochwertigen&quot; Film assoziiert[1]. Bewusst ist das den wenigsten Leuten, aber was die meisten Leute kennen ist das Gegenteil: Den Soap-Opera-Effekt. Wir sehen Videomaterial und ohne genau beschreiben zu können warum, wissen wir, dass es sich um Material fürs Fernsehen, für eine &quot;billige&quot; Produktion handelt. Man nimmt es irgendwie anders wahr. Das Material, das uns so &quot;billig&quot; vorkommt, ist typischen 50i oder 60i Material, also Halbbilder, die in schneller Folge abgespielt werden. Technisch keine schlechte Lösung und gerade für die Wiederhabe von Bewegungsabläufen eigentlich besser geeignet, weil zeitlich feiner auflösend, verursacht es bei uns diesen &quot;Hmmm ... das sieht aber komsich aus&quot;-Effekt, wenn wir Spielfilme in diesem Format serviert bekommen.<br />
<br />
Stu Maschwitz hat zum Thema 24p und in der aktuellen Diskussion um höhere Bildraten wie 48p und 60p bei Spielfilmen ein interessantes Interview in englisch gegeben, dass sehr interessant ist: <br />
<br />
<a href="http://www.macvideo.tv/camera-technology/interviews/index.cfm?articleId=3213230" target="_blank" rel="nofollow">http://www.macvideo.tv/camera-techno...icleId=3213230</a><br />
<br />
Lange Zeit waren knappe Schärfentiefe und 24 Vollbilder/s nur Leuten vorbehalten, die mit Profiwerkzeug arbeiten. Mit erscheinen der DSLRs die HD Filme aufnehmen konnten, kam schlagartig die Wende. Der große Sensor der DSLRs erlaubt selbst mit preiswerten Objektiven eine selektive Schärfe (ein Detail scharf, Hintergrund und Vordergrund unscharf), die man mit normalen Videokameras nicht erreichen könnte. Dies ist physikalisch bedingt und liegt an der Sensorgröße (bei DSLR sind die Sensoren deutlich größer als bei üblichen Consumer Videokameras). Canon hat schnell realisiert, wieviel Potential in z.B. der 5D Mark II steckt und im Rahmen eine Firmwareupdates 24p realisiert und schon war eine extrem preiswerte Möglichkeit geboren Kinoqualität auf die Festplatten zu bekommen. Natürlich längst nicht so komfortabel und ausgefeilt wie mit einer ARRI, RED oder anderen typischen Filmkameras, aber mit 5k Euro für Kamera und 1-2 lichtstarke Objektive ließen sich plötzlich Dinge realisieren, die selbst Profis staunen ließen. Fotoreporter konnten plötzlich mit dem Kamerabody, den sie ohnehin dabei hatten, sendefähige und hochauflösende Filmschnipsel aufzeichnen, Dokumentationen und Fernsehserien wurden mit DSLRs gedreht.<br />
<br />
Hier ein paar Bespiele zum stöbern:<br />
<br />
Die Chefärzte der Charite - eine Doku für Arte, gedreht mit einer Canon 7D<br />
<a href="http://www.youtube.com/watch?v=0y3iUMHUhnw" target="_blank" rel="nofollow">http://www.youtube.com/watch?v=0y3iUMHUhnw</a><br />
<a href="http://www.slashcam.de/artikel/Interviews/Erste-90-Minuten-Doku-fuer-arte-u--ARD-auf-Canon-EOS-7D.html" target="_blank" rel="nofollow">http://www.slashcam.de/artikel/Inter...on-EOS-7D.html</a><br />
<br />
Dr. House - das Staffelfinale mit der Canon 5DMkII gedreht<br />
<a href="http://www.petapixel.com/2010/04/09/house-season-finale-filmed-entirely-with-canon-5d-mark-ii/" target="_blank" rel="nofollow">http://www.petapixel.com/2010/04/09/...on-5d-mark-ii/</a><br />
<br />
Philip Bloom zu Gast bei Lucasfilm<br />
<a href="http://philipbloom.net/2009/12/12/skywalker/" target="_blank" rel="nofollow">http://philipbloom.net/2009/12/12/skywalker/</a><br />
<br />
Sehr sehenwert, nicht nur für Filmfans, sondern auch für NY Fans: New York &quot;Undercity&quot;<br />
<a href="http://vimeo.com/18280328" target="_blank" rel="nofollow">http://vimeo.com/18280328</a><br />
<br />
Die Canon 5DMkII war nur der Anfang. Mit der 7D, 60D, 600D und 550D hielt die Möglichkeit HD Filme aufzuzeichnen auch in den Consumerbodies Einzug und war damit für unter 1k Euro erreichbar. Die anderen Hersteller haben in der Zwischenzeit nachgezogen, auch der Major Player Nikon nutzt jetzt die Fähigkeiten seiner Sensoren aus und Panasonic hat mit der GH-2 einen Coup gelandet, der im Fotobereich an moderne DSLR-Bodies herankommt und im Videobereich jede Consumerkamera in die Tasche steckt.<br />
<br />
So, dass war jetzt viel trockener Text zu dem Thema, beim nächsten Mal geht es ans Eingemachte - den &quot;Filmlook&quot;, warum Blende und Verschlusszeit beim Film nicht dazu dienen den Lichteinfall zu regeln und worauf man achten muss, wenn man selbst mit der DSLR hantiert um Videos zu machen.<br />
<br />
<br />
P.S. <br />
Seltsam, das Einbinden von Videos klappt im Blog nicht, obwohl es mir angeboten wird ...</blockquote>

]]></content:encoded>
			<dc:creator>eos</dc:creator>
			<guid isPermaLink="true">https://www.r-l-x.de/forum/entry.php/55-24p-Teil-1-von</guid>
		</item>
		<item>
			<title>Meine Kamera kann Videos aufnehmen, Hurra!</title>
			<link>https://www.r-l-x.de/forum/entry.php/46-Meine-Kamera-kann-Videos-aufnehmen-Hurra!</link>
			<pubDate>Wed, 20 Apr 2011 17:47:54 GMT</pubDate>
			<description><![CDATA[Viele moderne Digitalkameras, sowohl die Kompakten, als auch DSLR können heute Videos aufnehmen. Das geht sogar in "HD", aber nicht immer geht aus...]]></description>
			<content:encoded><![CDATA[<blockquote class="blogcontent restore">Viele moderne Digitalkameras, sowohl die Kompakten, als auch DSLR können heute Videos aufnehmen. Das geht sogar in &quot;HD&quot;, aber nicht immer geht aus der Anleitung hervor, welche Einstellung für was gut ist, die Anzahl der Formate ist verwirrend groß und überhaupt, warum können manche Kameras weder Zoom, noch Autofokus im Videomodus?<br />
<br />
Ich den folgenden Blogeinträgen will ich mal ein paar dieser Dinge beleuchten. Die Hersteller tun dies erfahrungsgemäß in ihren Anleitung relativ dürftig, vermutlich weil die meisten dieser Kameras eigentlich für Fotos gebaut wurden.<br />
<br />
<br />
<b>Thema heute: Formate</b><br />
<br />
<u>Auflösung</u><br />
<br />
Kleine Aufkleber prangen wie glitzernde Swarovski Kristalle auf den Kamerafronten. Auf manchen steht 'HD' auf anderen 'Full-HD', aber was hat das Ganze eigentlich zu bedeuten?<br />
<br />
In der heutigen Umgangssprache steht HD i.d.R. für eine Videoauflösung mit 720 Linien und Full-HD für eine Videoauflösung von 1080 Linien. <br />
Bei einem üblichen Seitenverhältnis von 16:9 ergeben sich daraus die absoluten Auflösungen 1280x720 Pixel für HD und 1920x1080 Pixel für Full-HD.<br />
Zum Vergleich: PAL mit seinem 4:3 Seitenverhältnis, wie man es z.B. auf DVDs findet hat eine absolute Auflösung von 720x576 Pixeln.<br />
 <br />
OK, also Kamera auf Full-HD oder HD gestellt und los geht's? Im Prinzip schon ... aber wer am Ende einen tollen Film für DVD, BluRay oder das Internet machen will, sollte genauer hinschauen, was man da noch so einstellen kann, denn während man Auflösungen ganz gut runter rechnen kann gibt es Dinge, da wird es problematischer:<br />
<br />
<u>Bildwiederholrate</u><br />
<br />
Eigentlich ein etwas missverständlicher Begriff, denn es geht hier nicht in erster Linie darum gleiche Bilder zu wiederholen, sondern unterschiedliche Bilder hintereinander anzuzeigen, aber lassen wir das ...<br />
<br />
Es geht darum, wieviele Bilder die Kamera in einer bestimmten Zeit aufnimmt und auf die Karte schreibt. Damit die Sache nicht ganz so einfach ist, unterscheidet man noch zwischen Halbbildern (Interlaced) und Vollbildern (Progressive) und so kommen dann auch die Bezeichnungen zustande:<br />
<br />
24p = 24 Vollbilder/s (Kinofilmstandard und gemäß BluRay Spezifikation mit Full-HD)<br />
25p = 25 Vollbilder/s (Kann als Teiler von 50 gut mit PAL wiedergegeben werden, DVD &quot;tauglich&quot;)<br />
50i = 50 Halbbilder/s (PAL bzw. DVD-Standard)<br />
60i = 60 Halbbilder/s (NTSC bzw. DVD-Standard)<br />
<br />
Idealer Weise (solange man keine Zeitlupen oder Zeitraffer machen möchte) entspricht die Bildwiederholrate bei der Aufnahme der Bildwiederholrate bei der Wiederhabe, denn so gibt es keine störenden Ruckler.<br />
Logisch eigentlich, aber schon diese scheinbar triviale Erkenntnis führt zum ersten Problem: Womit will ich das Ding eigentlich abspielen? Was können &quot;Renderer&quot; (DVD-Player, BluRay-Player, Apple-TV, Popcorn-Hour, sonstige Mediaplayer) und Wiedergabegerät (Monitor, Fernseher) eigentlich?<br />
<br />
A) Computermonitor - die TFTs auf unseren Schreibtischen laufen in der Regel mit 60 Vollbildern pro Sekunde, ideal wäre also Material in 60p oder aber in 30p (dann wird halt jedes Bild doppelt angezeigt, aber durch die Teilbarkeit führt es nicht zwangsläufig zu Rucklern). 60i eignet sich nicht wirklich, weil digital angeschlossene Monitore nicht mit dem Zeilensprungverfahren arbeiten sondern immer Vollbilder ausgeben. Man könnte 60i Material recht einfach &quot;De-Interlacen&quot;, also die Halbbilder zu Vollbildern zusammenbauen, aber auch das ist nicht ideal und mit der Kirche ums Dorf gefahren.<br />
<br />
B) DVD-Player &amp; Fernseher - wer nach dem Urlaub eine DVD erstellen möchte, die man sich auf einem heimischen Fernseher anschauen kann, der ist mit 50i oder aber 25p bei der Aufzeichnung in Europa am besten bedient. Die Bildraten sind mit der DVD-Spezifikation bezüglich Video konform bzw. lassen sich schnell dazu machen. Auch 60i und 30p und 24p lassen sich ganz gut verarbeiten, allerdings nur in den (etwas kleineren) NTSC Auflösungen.<br />
<br />
C) BluRay-Player &amp; Fernseher - Hier gilt es auf die BluRay Spezifikation zu achten: 29.97i, 25i, 24p, 23.976p, 59.94p, 50p alles schön und gut, aber kein 25p und kein 50i, das bei europäischen Digitalkameras sehr beliebt ist. Keine Ahnung, warum diese Raten bei der Spezifikation rausgenommen wurden, uns Europäern hätte es geholfen sie 'drin zu haben.<br />
<br />
D) Mediaplayer &amp; Fernseher - Können i.d.R. nahezu alle Formate wiedergeben. <br />
<br />
Natürlich kann man mit moderner Software auch Bildwiederholraten &quot;konvertieren&quot; und die meisten günstigen Schnittprogramme machen das schon automatisch irgendwie, aber es ist immer eine Krücke und in manche Richtungen führt es zu unschönen Rucklern bei der Wiedergabe, so dass man lieber andere Wege geht.<br />
Bestes Beispiel ist Kinofilm (24p) auf DVD (25p): Hier wird der ganze Film einfach etwas schneller abgespielt, nämlich genau 1 Bild/s schneller, so dass aus 24p einfach 25p wird (die Tonspur wird natürlich angepasst). Wir nehmen das visuell nicht wirklich wahr, merken höchstens, dass die Spieldauer auf DVD etwas kürzer ist als im Kino. In Heimarbeit ist das ganze nicht so trivial zu bewerkstelligen, weshalb man lieber gleich im richtigen Format aufnehmen sollte.<br />
Wer schnell mal was aufnehmen will, um es bei Youtube einzustellen: Einfach machen, dafür reicht es immer irgendwie.<br />
<br />
Mehr zum Thema Filmen mit Digitalkameras, Belichtungszeit beim Filmen und warum 720p manchmal besser ist als 1080p beim nächsten Mal ...</blockquote>

]]></content:encoded>
			<dc:creator>eos</dc:creator>
			<guid isPermaLink="true">https://www.r-l-x.de/forum/entry.php/46-Meine-Kamera-kann-Videos-aufnehmen-Hurra!</guid>
		</item>
		<item>
			<title>Mac Tool zum Verwalten von Büchern (und anderen Sachen) - Delicious Library 2</title>
			<link>https://www.r-l-x.de/forum/entry.php/27-Mac-Tool-zum-Verwalten-von-Büchern-(und-anderen-Sachen)-Delicious-Library-2</link>
			<pubDate>Fri, 15 Apr 2011 16:35:51 GMT</pubDate>
			<description><![CDATA[Wozu noch ein Buch, ich hab' doch schon eins!  
 
Den meisten von Euch wird es anders gehen und vielleicht habt Ihr wie ich eine ganze Menge...]]></description>
			<content:encoded><![CDATA[<blockquote class="blogcontent restore">Wozu noch ein Buch, ich hab' doch schon eins! <br />
<br />
Den meisten von Euch wird es anders gehen und vielleicht habt Ihr wie ich eine ganze Menge unterschiedliche Bücher an den unterschiedlichsten Plätzen und kennt das: Man verliert irgendwann die Übersicht. Was habe ich überhaupt? Wo ist es denn?<br />
<br />
Wer einen Mac mit iSight Kamera hat und ein paar Euros und etwas Zeit investiert, der kann das Problem ein wenig eingrenzen. Klar es geht auch ohne Mac, zur Not auch mit Papier und Bleistift, aber die Lösung, die ich hier vorstelle ist etwas eleganter und einfacher.<br />
<br />
Die Software heisst 'Delicious Library 2' und Ihr bekommt sie im Mac-App-Store oder direkt auf der Webseite <a href="http://www.delicious-monster.com/" target="_blank" rel="nofollow">http://www.delicious-monster.com/</a>.<br />
<br />
Der Clou: Statt umständich Titel, Autor, und weitere Informationen einzugeben, haltet ihr (bei den meisten Büchern) einfach nur den Barcode vor die iSight Kamera und nach erfolgreichem Scan durchsucht das Programm Amazon nach Details und einer passenden Covergrafik. Alle Attribute lassen sich natürlich auch von Hand eintragen, auch die Covergrafik, falls die Suche bei Amazon nicht erfolgreich sein wollte.<br />
<br />
<img src="http://www.r-l-x.de/forum/attachment.php?attachmentid=3788&amp;d=1302882844" border="0" alt="" /><br />
<br />
Die Bücher Eurer Sammlung könnt Ihr dann noch in unterschiedlichen Regal einordnen, ganz wie es Euch beliebt, ich habe z.B. für die verschiebenen Orte im Haus (Keller, Wohnzimmer) eigene Regale, damit ich weiss, wo was steht.<br />
Es gibt auch eine Ausleih-Funktion, bei der das entsprechende Buch via Drag'n'Drop auf einen 'Freund' gezogen wird und dann aus dem eigenen Regal verschwindet und nur noch als Schatten zu sehen ist. Gar nicht so übel, wenn man daran denkt diese Funktion auch zu nutzen ...<br />
<br />
Die Bibliothek kann nach belieben erweitert werden, iTunes wird automatisch integriert, Ihr könnt aber auch alles andere, was man sammeln kann mit DL2 katalogisieren. Das tollste aber ist das Scannen der Bücher und das automatisierte Einfügen in die Sammlung, für alles andere gibt es sich bessere Tools.<br />
<br />
Leider scheint die Entwicklung etwas ins Stocken geraten zu sein. Vor einiger Zeit munkelte man noch über eine iPhone App, die dann aber leider nicht kam. Schade, so kann man die eigene Sammlung nur in Textform oder über den Webexport/MobileMe mit in die Buchhandlung nehmen. Hier ist noch viel Raum für Verbesserungen. Auch wäre es wünschenswert die iSight-Kamera eines mobilen Geräts zum Scannen nutzen zu können, denn wer vor einem großen Bücherregal steht, das er komplett scannen möchte, der spart sich gern' das Gerenne zum Mac. Ob da noch was kommt ist aber zur Zeit nicht abzusehen.</blockquote>

]]></content:encoded>
			<dc:creator>eos</dc:creator>
			<guid isPermaLink="true">https://www.r-l-x.de/forum/entry.php/27-Mac-Tool-zum-Verwalten-von-Büchern-(und-anderen-Sachen)-Delicious-Library-2</guid>
		</item>
		<item>
			<title>Videoschnitt: Apple Final Cut Pro X vorgestellt</title>
			<link>https://www.r-l-x.de/forum/entry.php/15-Videoschnitt-Apple-Final-Cut-Pro-X-vorgestellt</link>
			<pubDate>Wed, 13 Apr 2011 06:36:42 GMT</pubDate>
			<description>Wie schon in meinem letzten Blog eintrag angekündigt, hat Apple heute die neuste Version sein NLE Videoschnitt Software vorgestellt: 
 
Das Produkt...</description>
			<content:encoded><![CDATA[<blockquote class="blogcontent restore">Wie schon in meinem letzten Blog eintrag angekündigt, hat Apple heute die neuste Version sein NLE Videoschnitt Software vorgestellt:<br />
<br />
Das Produkt heisst 'Final Cut Pro X' läuft wie die Adobe CS5 auf 64Bit und kann mehr als 4GB Hauptspeicher nutzen.<br />
<br />
Unklar ist, das mit den zum 'Final Cut Pro Studio' gehörenden Modulen COLOR und MOTION passiert ist und ob diese in der Pro X Version enthalten sind. Sollte dies der Fall sein, ist die folgende Info noch revolutionärer:<br />
<br />
FCPX wird ab Juni für 299,-USD im Mac App Store erhältlich sein. Der Preis ist deshalb unglaublich, weil die Vorgängerversion und alle Mitbewerber (Adobe CS5, Avid Media Composer, etc.) in dieser Klasse über 1000,-USD kosten. <br />
<br />
Während Adobe noch gestern für die CS5.5 ein Lizenzmodell für Monatsabrechnung vorgestellt hat, senkt Apple massiv die Preise? Das würde einen deutlichen Ruck in der Landschaft geben, was für den Endverbraucher ja wünschenwert wäre.</blockquote>

]]></content:encoded>
			<dc:creator>eos</dc:creator>
			<guid isPermaLink="true">https://www.r-l-x.de/forum/entry.php/15-Videoschnitt-Apple-Final-Cut-Pro-X-vorgestellt</guid>
		</item>
		<item>
			<title>NAB 2011</title>
			<link>https://www.r-l-x.de/forum/entry.php/8-NAB-2011</link>
			<pubDate>Sun, 10 Apr 2011 22:13:08 GMT</pubDate>
			<description>Es ist NAB in Las Vegas: http://www.nabshow.com/2011/index.asp Eine der wichtigsten Messen zum Thema Verarbeitung digitaler Medien.  
 
Interessant...</description>
			<content:encoded><![CDATA[<blockquote class="blogcontent restore">Es ist NAB in Las Vegas: <a href="http://www.nabshow.com/2011/index.asp" target="_blank" rel="nofollow">http://www.nabshow.com/2011/index.asp</a> Eine der wichtigsten Messen zum Thema Verarbeitung digitaler Medien. <br />
<br />
Interessant wird vor allem die Frage sein, in welche Richtung sich der Film bezüglich der Frameraten entwickelt. Während bisher alles in 24p (also 24 Vollbilder/s) aufgenommen und wiedergegeben wird (OK, es gibt Ausnahmen, aber die sind doch sehr selten) wagen James Cameron und Peter Jackson den Schritt nach vorn und werden kommende Produktionen mit 48 bzw 60fps aufnehmen. <br />
Die Frage ist, wie das Material dann beim Zuschauer ankommt. Die eigentlich recht langsame Bildrate 24p hat offensichtlich eine sehr spezielle Ästhetik, die beim Zuschauer das Film-Gefühl aufkommen lässt, während wir Fernsehproduktionen (50i) sehr schnell erkennen und als weniger wertig empfinden (Soap-Effekt = Alles sieht aus wie eine Daily Soap Opera). Stu Maschwitz hat zum Thema 24p und Filme ein interessanten Interview gegeben, in der er erklärt, warum aus seiner Sicht 24p das Maß der Dinge ist: <a href="http://www.macvideo.tv/camera-technology/interviews/index.cfm?articleId=3213230" target="_blank" rel="nofollow">http://www.macvideo.tv/camera-techno...icleId=3213230</a><br />
<br />
Für die Apple Benutzer noch ganz interessant, weil die Videoschnitt Software 'Final Cut Pro' ja auch bei Profis eines der beliebtesten Werkzeuge ist:<br />
Das Final Cut Pro User Group Supermeet findet am Dienstag, d. 12. April um 16:30 Ortszeit statt. Da Apple für die Veranstaltung die gesamte Bühne für sich beansprucht (und Firmen wie Canon vom Bühnenprogramm genommen wurden) gehen viele Leute davon aus, dass Apple eine neue Version von Final Cut Pro vorstellen wird.<br />
<br />
Interessante Blogs zum dem Thema:<br />
Philip Bloom: <a href="http://philipbloom.net/blog/" target="_blank" rel="nofollow">http://philipbloom.net/blog/</a><br />
Stu Maschwitz: <a href="http://prolost.com/" target="_blank" rel="nofollow">http://prolost.com/</a><br />
<br />
<br />
Wer eine moderne DSLR (Canon 550D/600D/60D/7D, Panasonic GH1/GH2 oder was vergleichbares von Nikon) hat, bisher nur Fotos damit gemacht hat und mal in die Welt des Filmens einsteigen möchte, für den gibt es hier ein paar schöne Video Tutorials als Einstieg in die ganze Sache:<br />
<br />
<a href="http://vimeo.com/videoschool/lesson/11/introduction-to-dslr-cameras" target="_blank" rel="nofollow">http://vimeo.com/videoschool/lesson/...o-dslr-cameras</a> (Ja, die Dame ist nicht so der Bringer, dafür ist Philip Bloom jemand, der weiss, wovon er redet.)<br />
<a href="http://www.learningdslrvideo.com/" target="_blank" rel="nofollow">http://www.learningdslrvideo.com/</a> (Kein Profikameramann, aber angenehm authentisch)</blockquote>

]]></content:encoded>
			<dc:creator>eos</dc:creator>
			<guid isPermaLink="true">https://www.r-l-x.de/forum/entry.php/8-NAB-2011</guid>
		</item>
		<item>
			<title>First cut is the deepest ...</title>
			<link>https://www.r-l-x.de/forum/entry.php/2-First-cut-is-the-deepest</link>
			<pubDate>Sun, 10 Apr 2011 14:46:50 GMT</pubDate>
			<description>So, erstmal schauen, wie das hier alles funktioniert. 1000PN sind ja alleine schon den Beitrag wert. Ich habe noch kurz vor dem...</description>
			<content:encoded><![CDATA[<blockquote class="blogcontent restore">So, erstmal schauen, wie das hier alles funktioniert. 1000PN sind ja alleine schon den Beitrag wert. Ich habe noch kurz vor dem Executor-Premium-Upgrade ins Forum geschaut und muss sagen: Es sieht gruselig aus. Die eingeblendete Werbung ist echt penetrant und ich bin sehr gespannt, wie sich die Lage hier weiter entwickelt.</blockquote>

]]></content:encoded>
			<dc:creator>eos</dc:creator>
			<guid isPermaLink="true">https://www.r-l-x.de/forum/entry.php/2-First-cut-is-the-deepest</guid>
		</item>
	</channel>
</rss>
