L’iPhone 4S représentait probablement le plus grand bond en avant des performances de la caméra pour Apple dans la progression de l’iPhone. La combinaison d’un CMOS de 8 mégapixels avec des pixels carrés de 1,4 micron, de l’optique F / 2,4 et du propre fournisseur de services Internet d’Apple s’est soldée par un excellent rendement global pour sa classe. Nous avons fait la prédiction dès le début que la performance optique resterait à peu près la même avec le prochain iPhone, et cela s’est avéré être largement le cas. Avec l’iPhone 5, la ligne directrice principale de conception d’Apple semble avoir réduit le profil de z, et probablement l’un des plus grands obstacles pour atteindre cet objectif était de réduire l’épaisseur de l’ensemble du système de caméra. En fait, arriver à un système optique plus mince avec les mêmes caractéristiques de performance est tout un défi.
Apple prétend qu’il s’agit d’un ISP entièrement nouveau, curieusement, j’ai trouvé que l’interface s’appelle toujours le même (AppleH4CamIn ISP) que ce que j’ai trouvé sur le 4S, mais je doute qu’il y ait eu au moins quelques tweaks, malheureusement est encore relativement opaque sans beaucoup de creusement. Au cours de la keynote, Apple a affirmé que la capture d’image est maintenant 44% plus rapide que la 4S grâce à ce FAI amélioré. L’amélioration est en fait difficile à mesurer, l’iPhone 5 n’a pas de mode rafale, au lieu de capturer rapidement nécessite de taper aussi vite que possible. La latence du tir à la prise de vue est essentiellement nulle sur l’iPhone 5, bloquée uniquement par la vitesse à laquelle je peux taper. J’ai mis en place une courte vidéo comparant les 4S et 5.
Apple est de nouveau parti avec un Sony CMOS pour la caméra arrière, mais cette fois (grâce à Chipworks) nous savons qu’il a abandonné les marquages IMX145. Apple est souvent en mesure de demander à ses fournisseurs de faire des changements spécifiques pour eux-mêmes, il est fort probable que le cas ici. Je n’ai presque aucun doute que les changements apportés à IMX145 supportent cet ISO extrêmement élevé (3200 est presque inconnu pour cette taille de pixels dû au bruit) avec quelques ajustements à l’amplificateur dans chaque pixel actif (ce que nous voulons vraiment dire quand nous parlons à propos d’un CMOS par rapport à un CCD). De toute façon je n’ai aucun doute que le temps dira que c’est un dérivé IMX145 avec quelques ajustements à la fois aide le mode de faible luminosité, et peut-être aussi à Apple si l’IMX145 ne pouvait pas le faire déjà. Malheureusement comme beaucoup dans l’espace smartphone il y a très peu de documentation ouverte pour IMX145.
Apple prétend aligner les éléments optiques avec des tolérances encore plus serrées maintenant, ce qui fait une grande différence dans les types de tolérances de conception optique disponibles. Il y a aussi une fenêtre avant en saphir à la place de ce qui était auparavant juste du verre optique. Le saphir a bien sûr une dureté de surface extrêmement élevée juste derrière le diamant, en plus d’une excellente résistance chimique et d’une bonne transmittance. Le vrai avantage ici est encore une d’épaisseur, vous pouvez exécuter des fenêtres de saphir plus minces à la place des fenêtres en verre standard et obtenir une meilleure transmittance. Les fenêtres en saphir dans les systèmes optiques sont incolores et composées chimiquement d’oxyde d’aluminium monocristallin (Al2O3). Lors de l’inspection, le saphir de l’iPhone 5 semble en effet avoir également un revêtement antireflet.
L’histoire sur la caméra frontale est en fait une amélioration spectaculaire. L’iPhone 4 a été le premier iPhone à intégrer une caméra frontale VGA, qui est restée la même sur l’iPhone 4S. Ce système était sans doute assez bon pour FaceTime qui semblait être sa raison d’être, accessoire samsung galaxy s6 edge mais il est finalement mis à jour à 1280 x 960 sur l’iPhone 5. Ce CMOS est une pièce OmniVision avec 1,75 micron de pixels et un système optique F / 2.4. Les images capturées sur la caméra frontale sont nettement meilleures, et la vidéo est maintenant 720p.
Avant que nous parlions de la qualité d’image bien que j’aime faire une brève mention au sujet de l’expérience d’utilisateur sur l’appareil-photo de l’iPhone 5. J’ai abordé la question de savoir comment l’interface est encore plus rapide que la 4S grâce notamment au silicium A6 plus rapide et à l’ISP amélioré, et Apple continue à rendre les choses très minimalistes avec pratiquement aucune option pour modifier manuellement les modes de prise de vue. De plus, chaque image prise sur une caméra Apple est toujours au mode de résolution et de compression le plus élevé. Essentiellement toute cette fonctionnalité est abstraite de l’utilisateur laissant l’expérience de tir entièrement automatique tout le temps. Cela inclut le mode de faible luminosité qui se déclenche en dessous d’un certain seuil.
Ce qui dérange à propos de l’expérience utilisateur de l’iPhone 5 est que le rapport d’aspect de la fenêtre d’affichage ne correspond plus au format de l’image CMOS ou des images finales. Cela est fait purement pour des raisons esthétiques autant que je peux dire, à cause de la boîte aux lettres extrême qui se produirait avec une taille d’image 16: 9 et 4: 3. Au lieu d’aller de l’avant et de vous donner un aperçu du champ de vision à 100%, Apple place à la place le haut et le bas et présente une image d’environ 3: 2 dans l’écran d’aperçu.
J’ai rencontré cela de façon inattendue en prenant des images du tableau ISO12233 et en essayant d’aligner le graphique avec le CMOS 4: 3, pour être complètement confus au point de remettre en question mes compétences de base en mathématiques jusqu’à ce que je réalise que l’aperçu était une zone d’image. Au moment d’écrire ces lignes dans iOS 6.0, il n’y a aucun moyen de doubler l’aperçu et d’obtenir un aspect correct, prévisualisation à 100 pour cent avec letterboxing comme vous le feriez avec la vidéo 16: 9 en mode de capture vidéo. Au lieu de cela, vous avez toujours verrouillé à un recadrage 3: 2 absurde samsung galaxy j6 2016 d’une image 4: 3. Cela n’a absolument aucun sens pour moi et entraînera toujours la composition de l’image dans l’écran de prévisualisation qui ne ressemble en rien au résultat final. J’espère sincèrement qu’une mise à jour ajoutera un double geste qui donnera un aperçu réel 4: 3. Une autre chose que j’ai remarquée sur l’iPhone 5 est que si vous laissez le téléphone trop chaud, il va désactiver le flash LED jusqu’à ce que l’appareil refroidisse. Je n’ai jamais vu ce comportement sur le 4 ou 4S.
Enfin, iOS 6 ajoute un mode panorama à la fois à l’iPhone 5 et à l’iPhone 4S qui se cache derrière iOS depuis un certain temps. Le mode Panorama dans iOS s’intègre continuellement sur le champ de vision, d’abord pour le champ complet, ensuite sur une petite bande centrale jusqu’à la fin. Le mode produit des résultats d’une largeur maximale de 10800 pixels et d’environ 2590 pixels, selon que vous avez balayé le champ de vision horizontal sans aucun décalage. En outre, le mode prend en charge les panoramas portrait si vous faites pivoter la caméra de 90 degrés et balayez vers le haut.
Galerie: Comparaison Panorama iPhone 5
J’ai coincé mon iPhone 4S, mon iPhone 5, mon HTC One X et mon Samsung Galaxy S 3 dans le double support de caméra et j’ai pris un certain nombre de panoramas à des fins de comparaison. Il y a une différence étonnante entre les approches que les vendeurs de combinés prennent pour le panorama. Le One X prend quelques expositions et les assemble, le Galaxy S 3 s’intègre continuellement mais produit des résultats étrangement blocables. iOS assemble continuellement une petite bande centrale comme je l’ai déjà mentionné.
Évaluation de la qualité des images fixes
Pour évaluer la qualité de l’image fixe, nous nous sommes tournés vers notre série standard de tests qui semble continuer de croître. Cela consiste en une scène dans un caisson lumineux avec éclairage contrôlé constant de 1000 lux en utilisant les caméras avant et arrière avec le champ de vision le plus proche possible, des images d’une grille de distorsion, une carte GretagMacbeth ColorChecker pour la balance des blancs et un Tableau de test ISO12233 pour évaluer la résolution spatiale de manière encore plus contrôlée. Parce que j’ai déménagé les maisons et l’éclairage ne sera jamais exactement le même, j’ai décidé de déplacer les trois tableaux de test dans ma visionneuse au lieu de les mettre sur un mur et les éclairer avec des lampes de studio. Cela justifie un tout nouveau jeu d’images de comparaison, d’où le banc d’appareils photo smartphone 2012 pour les trois cartes et la caméra frontale.
Commençons par ce qui est le plus objectif en premier lieu, les cultures spatiales tangentielles et sagittales. Vous pouvez vraiment voir ici que l’équipe de conception d’appareils photo Apple a maintenu la performance à peu près la même entre les 4S et 5, je peux compter jusqu’à environ 16,5 (100x lignes par hauteur d’image) sur les deux appareils. Le Samsung Galaxy S 3 semble être aussi autour de 16, avec le HTC One X. L’iPhone 4 et le Galaxy Nexus sont à un énorme désavantage avec leur CMOS 5 MP, je peux voir jusqu’à 15 ou plus avant qu’il y ait un retournement de contraste de notre part traversant la MTF de 0. Le PureView 808 élimine en fait la carte de test en taille réelle et au suréchantillonnage de 8 MP sur le périphérique, évidemment vous pouvez battre ce périphérique avec juste un CMOS de 8 MP.
Les cultures à fréquence tangentielle racontent essentiellement la même histoire qui n’est pas une surprise. Cela choque à quel point l’iPhone 4S et 5 sont ici. Je soupçonne fortement que l’équipe a essentiellement reçu l’ordre de garder la même MTF et de réduire l’épaisseur du système optique de l’ère 4S. Vous pouvez aussi regarder les versions à 100% des cultures tangentielles et sagittales plutôt que celles qui sont redimensionnées à 600 pixels de large maximum pour s’adapter en ligne.
Du reste des tableaux de test, nous pouvons voir l’iPhone 5 a légèrement plus de distorsion en coussinet que le 4S dans le tableau de distorsion, mais pas beaucoup. Il est également évident à partir du graphique GMB et d’autres photos que j’ai prises au cours de mon temps avec l’iPhone 5 que le FAI révisé a également une meilleure balance des blancs automatique.
Le reste des tests bien éclairés racontent la même histoire. Dans l’éclairage extérieur (avec les deux caméras sélectionnant automatiquement le même ISO et le temps d’exposition), je peux trouver une différence majeure dans les performances de la caméra entre le 5 et 4S, ils sont très proches. Apple a également changé la conception du diffuseur LED avec l’iPhone 5, il est visiblement différent et se traduit maintenant par un champ d’éclairage beaucoup plus uniforme dans le test des lumières hors de la lumière.
C’est en basse lumière que les 4S et 5 divergent radicalement grâce au mode low light boost qui se déclenche automatiquement à un seuil préréglé sur l’iPhone 5. On peut dire quand cela se passe juste en regardant l’aperçu car il y a un décalage dramatique d’une soudaine exposition. L’iPhone 5 fait un bin 2×2 pixel, puis augmente cette image à la même résolution en taille normale que la capture 8 MP normale (3264 x 2448). Le résultat est un compromis dans la résolution spatiale pour un bruit plus faible et une exposition sans temps d’intégration excessivement long. Selon EXIF, l’iPhone 4 fera un ISO maximum de 1000 et 1 / 15ème de seconde, le 4S fera un maximum de 800 ISO et 1 / 15ème de seconde, et enfin l’iPhone 5 fera entre 1600 ISO et ISO 3200 et 1 / 15e de seconde. La différence est assez dramatique comme prévu.
J’ai pris des échantillons dans la visionneuse à un niveau contrôlé de 4 lux avec les téléphones que j’ai sélectionnés pour la prise de vue avec la cible de test et j’ai sélectionné les modes de lumière faible dans la mesure du possible dans l’interface utilisateur de la caméra. Sur le PureView 808, j’ai manuellement forcé l’ISO maximum de 1600 car il n’y a pas de présélection de lumière faible. L’image résultante de la PureView est une erreur, que ce qu’elle ressemble réellement en mode complet et PureView. C’est intéressant de voir comment les différentes caméras gèrent cette lumière extrêmement basse. Le Samsung Galaxy S 3 tourne à ISO 640 et intègre plus d’une demi-seconde pour produire son résultat, PureView 808 prend ISO 1600 que je règle et intègre sur une seconde (selon EXIF), le One X passe à ISO 1200 et ne signaler combien de temps il intègre, pendant ce temps, tous les trois iPhones sélectionner un temps d’exposition maximale de 1 / 15ème de seconde et leur maximum ISO respectifs. Considérant que les temps d’exposition de certains de ces appareils sont trop longs à tenir à la main (j’utilise un trépied pour ces comparaisons) je dirais qu’Apple en réglant un maximum de 1 / 15ème de seconde fait beaucoup de sens.
Galerie: Basse lumière iPhone 5 vs 4S
La dernière chose dont je parle à propos de la capture d’images fixes sur l’iPhone 5 est le soi-disant brume violet qui apparaît parfois avec une source de lumière brillante placée juste en dehors du champ de vision de la caméra. Quand cela a commencé à attirer l’attention du public, beaucoup ont supposé que c’était le résultat de la lumière ramassant le violet du verre de couverture de saphir. Je suppose que cette hypothèse était celle que les gens se sont installés rapidement parce que la plupart des pierres précieuses de saphir sont d’apparence mauve Quoi qu’il en soit, la réalité que j’ai évoquée plus tôt est que les fenêtres en saphir de qualité optique pour les montres-bracelets ou les systèmes de caméras coûteux ne donnent aucune couleur à la lumière qui les traverse. En fait, quand j’ai vu cela, j’ai immédiatement tweeté que c’était juste une question de lumière parasite qui rebondissait à l’intérieur du module de la caméra et qui prenait probablement une fonte pourpre en fluorure de magnésium (Mag Flouride est un choix AR semble violet) ou autre revêtement antireflet. Notez que ces revêtements sont conçus pour travailler sur une plage limitée d’angles d’acceptation, sous certains angles, ils peuvent en effet refléter, malgré le nom.
Galerie: iPhone 5 Purple Haze
L’iPhone 5 présente cela un peu plus que le 4S, mais il faut s’y attendre étant donné le champ de vision plus large et l’angle de rayon principal plus grand. La plupart des photographes ont l’habitude d’utiliser un pare-soleil ou simplement de camoufler des caméras avec leur main pour empêcher la lumière parasite de refléter à l’intérieur d’un système optique et créer ce type d’éblouissement, et évidemment dans le cas d’un smartphone. vont fixer soit des chicanes ou un pare-soleil (peut-être là un marché pour cela, cependant). Notez qu’il n’est pas correct d’appeler cela une coque personnalisable samsung galaxy a3 2016 aberration chromatique, dans la mesure où c’est juste de la lumière qui a pris de la couleur.
J’ai capturé deux superbes photos qui prouvent de façon concluante qu’il s’agit d’une réflexion interne quelconque (au cas où vous ne croyez pas la déclaration de soutien d’Apple qui perroque ce que j’ai déjà dit). La première photo montre la lumière pourpre la plus visible, dans la deuxième photo, j’ai légèrement incliné le téléphone et le violet apparaît maintenant comme deux cercles qui, à mes yeux d’ingénierie optique, ressemblent instantanément à deux reflets visibles. J’allais en fait mettre en place un banc optique et suivre l’angle jusqu’à ce que je suis tombé sur cela tout en jouant avec l’appareil photo lors d’un voyage de fin de nuit à CVS. Encore une fois, tout ceci est facilement atténué en bloquant la lumière parasite.
hapkiman mardi 16 octobre 2012 lien
J’ai un iPhone 5 et ma femme a un Samsung Galaxy S III.
Son Galaxy S III dispose d’un écran Super AMOLED 1280×720.
Et oui, mon iPhone 5 ‘seulement’ a un écran 1136 x 640.
Mais devinez ce que je tiens les deux téléphones côte à côte en ce moment en regardant exactement le même jeu et il n’y a pas de différence perceptible. Je l’ai regardé, mon fils l’a regardé, et ma femme l’a regardé. Sur environ cinq ou six jeux différents, des vidéos, des applications et quelques photos. La différence est académique. Vous ne pouvez pas faire la différence à moins d’avoir un œil bionique..