Les iPhone 13 et 14 auraient les mêmes lentilles que l’iPhone 12, pas d’innovation avant 2023
Apple devrait continuer de proposer un ou plusieurs capteurs photo avec un système de lentilles 7P. TF international estime que Apple ne délivrera aucune innovation majeure en la matière avant 2023.
Apple se reposerait-il sur ses lauriers ? Cette année, les améliorations photo des iPhone 12 semblent assez marginales par rapport aux iPhone 11. Ce qui peut sembler assez étonnant : après tout, avec l'iPhone 12, Apple a tout de même implémenté une poignée d'innovations dans ses capteurs photo.
Il y a d'abord l'arrivée d'un capteur LiDAR, et de capteurs plus larges sur les iPhone 12 Pro et 12 Pro Max. Mais aussi un ensemble de 7 lentilles au-dessus du capteur grand angle. Ce nouveau système doit améliorer la captation de lumière tout en gommant les aberrations chromatiques.
Apple profite d'une forte demande en optiques 7P et de la compétition entre ses sous-traitants
Alors que l'ensemble de 6 lentilles sur les générations précédentes délivrait une ouverture de f/1.8, la nouvelle optique permet une ouverture f/1.6. Or dans une note aux investisseurs TF international estime que Apple n'innovera pas beaucoup dans les deux prochaines générations.
A en croire l'analyste Ming-Chi Kuo il faudra attendre 2022 voire 2023 avant de découvrir une nouvelle innovation majeure en photo chez Apple. Il faut dire que les fournisseurs, notamment Largan et Genius Electronics, comptent bien capitaliser sur leurs capacités de production actuelles.
D'autant que Apple n'est pas la seule firme à leur acheter des ensembles optiques 7P, qui devraient rapidement déferler chez la concurrence Android. Les fournisseurs se mènent dès lors une véritable guerre des prix, qui devrait se poursuivre en 2021. La situation incite ainsi Apple à poursuivre son utilisation de lentilles 7P en attendant qu'une autre technologie ne devienne viable.
Ainsi les capteurs photo ne devraient pas trop changer jusqu'à l'iPhone de 2023. A l'exception peut-être d'un téléobjectif périscopique, comme le font de nombreux concurrents Android depuis quelques années – mais aussi de nouvelles techniques de photographie computationnelle via iOS et la future puce de ces smartphones.
Apple devrait en outre davantage tirer parti du capteur LiDAR : pour l'heure et selon plusieurs tests indépendants, ce capteur exclusif aux modèles Pro, ne sert pas encore à grand chose. Tout juste s'active-t-il pour aider l'autofocus dans l'obscurité et rendre les expériences en réalité augmentée plus précises.
Lire également : iPhone 12 – il est 21% plus cher à produire que l'iPhone 11
On attend encore que ce capteur LiDAR délivre ses promesses, notamment la mesure précise de la profondeur de champ pour éviter les erreurs de détourage, par exemple lors de l'application de l'effet Bokeh.
Source : Apple Insider