Passer au contenu

Big Lens, une application qui donne de la profondeur de champ à votre iPhone

Depuis l’iPhone 4, on sait que le smartphone d’Apple fait de bien jolies photos. Et c’est encore beaucoup mieux avec l’iPhone 4S parait-il. Mais quid de la profondeur de champ ?

Depuis l’iPhone 4, on sait que le smartphone d’Apple fait de bien jolies photos. Et c’est encore beaucoup mieux avec l’iPhone 4S parait-il.

Mais une photo faite avec un mobile, comme avec un compact, n’égalera jamais la même photo faite avec un reflex. Pourquoi ? A cause – entre autres – d’une caractéristique propre à ces derniers appareils et à leur objectif, qui tient en trois mots : profondeur de champ. Vous savez, cet effet qui rend n’importe-quel cliché “artistique” en mettant en avant le sujet principal net devant un fond flouté. Pour les experts (il y en a beaucoup dans la chasse gardée de la photo), ce n’est peut-être pas la caractéristique la plus importante, mais pour le quidam c’est en tout cas la plus visible, et la plus spectaculaire.

Big Lens, une nouvelle application pour iPhone, permet justement de faire cela. Ce n’est pas la première app qui permet d’appliquer un flou sur une partie de la photo (TiltShiftGen le fait déjà, entre autres), mais celle-ci offre des réglages intuitifs et un peu plus sophistiqués qui sont exclusivement dédiés à cette fonction. Et selon votre degré de précision, le résultat est plutôt intéressant. L’application permet de sélectionner une photo de sa bibliothèque ou d’en prendre une pour la travailler ensuite. Il est alors possible de sélectionner manuellement le sujet que l’on souhaite mettre en avant, avec un cercle préformaté ou en traçant le contour manuellement, puis de définir l’ouverture de focale et le niveau de flou de l’arrière-plan. Si vous prenez un peu de temps pour travailler en finesse vous obtenez des photos qui ressemblent beaucoup à celles prises avec un reflex. L’application propose également une série de filtres de type Instagram qui permettent de donner un style différent à vos clichés. Autre avantage, vous pouvez travailler la profondeur de champ quelque soit le sujet et la surface de la scène, et sa profondeur réelle. Voici un exemple vite fait avec une photo prise de mon iPhone le week-end dernier. En haut l’original non retouché, en bas la photo modifiée en quelques secondes avec Big Lens.

Après, chacun ses goûts (certains préfèreront la première) et il n’y a certainement pas de quoi se taper le derrière par terre, mais ça fait son petit effet quand même n’est-ce pas ? Bien sûr on peut faire ça aussi après avec un outil de traitement d’image genre Photoshop mais l’idée ici est celle de l’immédiateté, de la facilité et de la mobilité : shooter et appliquer l’effet directement en deux temps trois mouvements sur son iPhone avant de partager la photo.

Big Lens est disponible sur l’App Store à un prix un peu inférieur à celui d’un objectif pour reflex (0.79 euros)

A ce sujet, je me pose depuis quelque temps cette question, et comme mes connaissances en la matière sont limitées je n’ai pas la réponse : puisque d’une part certaines applications permettent d’appliquer des effets en temps réel au moment de la capture aux photos prises avec un mobile (la dernière version d’Instagram par exemple et ses filtres live), et que par ailleurs d’autres applications permettent déjà d’ajouter des filtres et effets spéciaux aux photos, et notamment des effets de profondeur de champ, pourquoi ne serait-il pas possible de créer ce type d’effet à la prise de vue, comme avec un reflex ? Je ramasse les copies dans deux heures.

📍 Pour ne manquer aucune actualité de Presse-citron, suivez-nous sur Google Actualités et WhatsApp.

Opera One - Navigateur web boosté à l’IA
Opera One - Navigateur web boosté à l’IA
Par : Opera
16 commentaires
16 commentaires
  1. Bonjour,

    En fait cette application permet de réduire artificiellement la profondeur de champ mais il faut sélectionner la zone concerné, ce qui est facile si c’est un rond. Mais sur un portrait par exemple, les cheveux sont quasiment impossible à détourer manuellement et encore moins automatiquement par un logiciel. Donc impossible de le faire en temps réel lors de la prise de vue. Un reflex n’a pas besoin de faire ça, seulement les objets exactement à la distance de mise au point (+ ou – la profondeur de champ) apparaîtront nets sur la photo, d’où l’effet de flou tout autour du sujet.

    Voilà! On peut sortir quand on a fini Monsieur?

  2. Sur un reflex la profondeur de champs est déterminée par trois facteurs : le facteur de reproduction l’ouverture et la taille du capteur. Se sont des paramètres physiques (et non logiciels) qui sont quasiment impossible à simuler correctement. L’exemple de l’article montre bien que c’est assez laid, par ailleurs un tel calcul serait bien lourd pour les petits cpu des iphones et autres smartphones, la délai entre 2 photos serait grandement impacté. Il y a bien un Plug-in photoshop qui le fait un peu mieux (sur le coup la je ne me souvient pas du nom) mais des cas encore bien précis sinon cela reste assez vilain.

  3. En photo on fait la mise au point sur un sujet (qu’on va appeler A). Tous les objets qui ne sont pas dans le même plan que A sont flous et ils le sont d’autant plus qu’ils sont loin de A.

    Sur le reflex, le flou qui crée ce joli effet de “profondeur de champ” nous vient d’une caractéristique optique alors que celui dont tu parles dans l’article et une simulation logiciel.

    Pour avoir un aperçus en temps réel sur un smartphone et ajouter du flou à la prise de vue, il faudrait que le capteur détecte la distance de chacun des objets de la scène pour les flouter en conséquences. C’est pas inimaginable mais ça demande pas mal de puissance de calcul et l’ajout d’un peu de technique (un télémètre pour mesurer les distances notamment). Le reflex fait ça très bien car il n’a rien a calculer (c’est l’optique qui fait tout le boulot).

    P.S: pour être pointilleux par rapport au titre de l’article: cette application “réduit” la profondeur de champ (plus la profondeur de champ est faible, plus le flou est visible).

    1. @Antoine | 1point2vue : “cette application « réduit » la profondeur de champ (plus la profondeur de champ est faible, plus le flou est visible)”. Je suis d’accord avec cette définition, malheureusement on dit tout et son contraire à ce sujet. Pour le grand public, l’effet de profondeur de champ est celui que je décris, et même certains spécialistes ou constructeurs entretiennent la confusion.

  4. D’ailleurs le plan de netteté que l’on voit dans l’exemple est plus le résultat d’un objectif à décentrement / Bascule que d’une profondeur de champs courte à proprement parlé

  5. Pour moi cette application s’occupe juste d’appliquer un effet de flou à partir d’un point.

    Il suffit de regarder le bâtiment pour se rendre compte que l’effet de profondeur n’est pas du tout naturel.

    L’idée est bonne, mais pas le résultat. Dommage…

    Pour ce qui est de l’application en temps réel, peut-être que les performances de l’iPhone sont trop faibles, que l’appli fait appel à un serveur pour les traitements (je ne fais que supposer, n’ayant pas d’iPhone pour le savoir), ou tout simplement parce que cet effet de profondeur est rendu sur un reflex par l’objectif, pas par le capteur…

  6. Sans vouloir jouer mon rabat-joie, et tu le sais sans-doute… mais ce n’est pas de la profondeur de champs qui est appliquée ici, mais bien un flou (à gauche et à droite du sujet).

    S’il s’agissait d’une réelle profondeur de champs, la porte de l’entrepôt se trouvant dans l’axe de la voiture serait, elle aussi, floue…

    Hormis, avec les nouveaux appareils Lytro, la profondeur de champs ne peut en théorie pas être modifiée après la prise de vue.

  7. pour ta question finale, je pense que la réponse tient dans l’argument suivant : il y a une différence entre un filtre total (tous les pixels passe au filtre = Instagram) et il y a un calcul nécessaire à faire pour déterminer les zones où appliquer le filtre. Hors, appliquer le filtre en temps réel nécessiterait peut être trop de calculs (pré traitement de reconnaissance de la zone où appliquer le filtre) pour pouvoir l’appliquer à chaque frame, en temps réel.

  8. Pour le reste, oui, pour la quidam, l’effet est “clairement” pas mal.

    Sauf pour le connaisseur où par exemple, pour le flou du bâtiment, la partie de bâtiment la plus près (bâtiment avec balcon et larges fenêtres rectangulaires) est beaucoup plus floue que la partie la plus proche “géométriquement” au dessus de la voiture (à droite des fenêtres carrées). Et là, sauf à essayer de m’expliquer ça à cause de neutrinos supraluminique, ça brûle un peu les yeux.

  9. D’accord pour le côté “irréel” de l’effet, très visible sur le bâtiment. Je rappelle que j’ai fait ça en quelques secondes et 3 clics. Autrement dit avec un peu plus d’application l’effet aurait été bien plus réaliste et conforme à celui d’un reflex

  10. Moi ça me fait penser à du Tilt Shift, effet à la mode en ce moment, que beaucoup d’appli photo Iphone embarquent d’office ( y/c Instagram). Alors juste une appli pour ça … je trouve ça un peu cher… même à 0,79 E.

  11. bon effectivement ca ne veut pas reflex+objectif mais c’est une appli intérréssante… l’exemple fait par eric a un petit côté cheap “maquette”, mais il faut voir ce qu’on peut obtenir avec un peu plus de 3 clicks.. je vais essayer en tout cas.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *