Pourquoi la résolution du moniteur de résolution verticale est-elle si souvent un multiple de 360?
Regardez une liste de résolutions d'écran assez longue et vous remarquerez peut-être un motif: de nombreuses résolutions verticales, en particulier celles des jeux ou des écrans multimédias, sont des multiples de 360 (720, 1080, 1440, etc.). Mais pourquoi est-ce exactement cela? Cas? Est-ce arbitraire ou y at-il quelque chose de plus au travail?
La séance de questions et réponses d'aujourd'hui nous est offerte par SuperUser, une sous-division de Stack Exchange, un groupe de sites Web de questions-réponses dirigé par la communauté..
La question
Le lecteur de SuperUser, Trojandestroy, a récemment remarqué quelque chose à propos de son interface d'affichage et a besoin de réponses:
YouTube a récemment ajouté une fonctionnalité 1440p et, pour la première fois, je me suis rendu compte que toutes les résolutions verticales (la plupart?) Sont des multiples de 360.
Est-ce simplement parce que la plus petite résolution commune est 480 × 360 et qu'il est pratique d'utiliser des multiples? (Ne doutant pas que les multiples sont commodes.) Et / ou était la première résolution lisible / de taille appropriée, donc le matériel (téléviseurs, moniteurs, etc.) s'est développé avec 360 en tête?
Pour aller plus loin, pourquoi ne pas avoir une résolution carrée? Ou quelque chose d'autre inhabituel? (En supposant que c'est assez habituel que c'est visible). Est-ce simplement une situation agréable?
Alors, pourquoi l’affichage est-il un multiple de 360??
La réponse
SuperUser contributor User26129 ne nous fournit pas seulement une réponse sur l’existence du modèle numérique, mais également un historique de la conception de l’écran:
D'accord, il y a quelques questions et beaucoup de facteurs ici. Les résolutions sont un domaine très intéressant du marketing de réunion psychooptique.
Tout d’abord, pourquoi les résolutions verticales sur youtube sont-elles des multiples de 360? C’est bien entendu arbitraire, il n’ya pas de vraie raison pour que ce soit le cas. La raison en est que la résolution ici n'est pas le facteur limitant pour les vidéos Youtube - la bande passante l'est. Youtube doit recoder chaque vidéo téléchargée plusieurs fois et essaie d'utiliser le moins possible de formats / débits / résolutions de recodage pour couvrir tous les cas d'utilisation. Ils ont 360 × 240 pour les appareils mobiles à basse résolution, 480p en haute résolution, et 360p pour la masse informatique, pour les lignes fixes 2xISDN / multi-utilisateurs, 720p pour DSL et 1080p pour Internet à haut débit. Pendant un certain temps, il y avait d'autres codecs que le h.264, mais ceux-ci sont progressivement supprimés, le h.264 ayant essentiellement gagné la guerre des formats et tous les ordinateurs équipés de codecs matériels à cette fin..
Maintenant, il y a aussi une psychooptique intéressante. Comme je l'ai dit: la résolution ne fait pas tout. 720p avec une compression très forte peut et aura l'air pire que 240p à très haut débit. Mais de l’autre côté du spectre: lancer plus de bits à une certaine résolution ne l’améliorera pas comme par magie au-delà d’un certain point. Il existe ici un optimum, qui dépend bien sûr de la résolution et du codec. En général: le débit optimal est en fait proportionnel à la résolution.
La question suivante est donc la suivante: quel type d’étape de résolution a un sens? Apparemment, les gens ont besoin d’une résolution environ deux fois plus grande pour vraiment voir (et préférer) une différence marquée. Rien de moins que cela et beaucoup de gens ne se soucieront tout simplement pas des débits plus élevés, ils préfèrent utiliser leur bande passante pour d’autres tâches. Cela a été étudié il y a assez longtemps et c'est la raison principale pour laquelle nous sommes passés de 720 × 576 (415kpix) à 1280 × 720 (922kpix), puis de 1280 × 720 à 1920 × 1080 (2MP). Les données intermédiaires ne constituent pas une cible d'optimisation viable. Et encore une fois, 1440P est d'environ 3,7 MP, une autre augmentation de 2x plus sur HD. Vous verrez une différence là-bas. 4K est la prochaine étape après cela.
La prochaine étape est ce nombre magique de 360 pixels verticaux. En réalité, le nombre magique est 120 ou 128. Toutes les résolutions sont un type de multiple de 120 pixels de nos jours, à l'époque où elles étaient multiples de 128. C'est quelque chose qui vient de sortir de l'industrie des écrans LCD. Les écrans LCD utilisent ce qu'on appelle des drivers de ligne, de petites puces situées sur les côtés de votre écran LCD qui contrôlent la luminosité de chaque sous-pixel. Parce qu'historiquement, pour des raisons que je ne connais pas vraiment avec certitude, probablement des contraintes de mémoire, ces résolutions multi-de-128 ou plusieurs de-120 existaient déjà, les drivers de ligne standard de l'industrie sont devenus des drivers avec 360 sorties de ligne (1 par sous-pixel). . Si vous vouliez démolir votre écran 1920 × 1080, je gagnerais de l’argent sur 16 pilotes de lignes en haut / bas et 9 sur l’un des côtés. Oh, hé, c'est 16: 9. Devinez à quel point le choix de la résolution était évident lorsque 16: 9 a été «inventé».
Ensuite, il y a la question du ratio d'aspect. C'est un domaine complètement différent de la psychologie, mais cela se résume à ceci: historiquement, les gens ont cru et ont mesuré que nous avions une sorte de vision du monde à l'écran. Naturellement, les gens pensaient que la représentation la plus naturelle des données sur un écran serait une vue grand écran. C’est de là que la grande révolution anamorphique des années 60 a vu le jour lorsque les films ont été tournés dans des formats de plus en plus larges..
Depuis lors, ce type de connaissances a été affiné et en grande partie réduit à néant. Oui, nous avons une vue grand angle, mais la zone dans laquelle nous pouvons voir nettement - le centre de notre vision - est assez ronde. Légèrement elliptique et écrasé, mais pas plus de 4: 3 ou 3: 2. Ainsi, pour une visualisation détaillée, par exemple pour lire du texte sur un écran, vous pouvez utiliser la majeure partie de votre vision détaillée en utilisant un écran presque carré, un peu comme les écrans jusqu'au milieu des années 2000..
Cependant, encore une fois, ce n’est pas ainsi que le marketing l’a pris. Autrefois, les ordinateurs étaient principalement utilisés pour la productivité et le travail de précision, mais à mesure qu'ils se banalisaient et que l'ordinateur en tant que dispositif de consommation de média évoluait, les gens n'utilisaient pas nécessairement leur ordinateur pour travailler la plupart du temps. Ils l'utilisaient pour regarder du contenu multimédia: films, séries télévisées et photos. Et pour ce type de visionnage, vous obtenez le plus de «facteur d'immersion» si l'écran remplit le plus possible votre vision (y compris votre vision périphérique). Ce qui signifie écran large.
Mais il y a encore plus de marketing. Lorsque le travail de détail était encore un facteur important, les gens se préoccupaient de la résolution. Autant de pixels que possible sur l'écran. SGI vendait des tubes cathodiques presque 4K! Le moyen le plus optimal d’obtenir le maximum de pixels d’un substrat de verre est de le découper aussi carré que possible. Les écrans 1: 1 ou 4: 3 ont le plus grand nombre de pixels par pouce diagonal. Mais avec les écrans de plus en plus consommés, la taille en pouces est devenue plus importante que la quantité de pixels. Et ceci est une cible d'optimisation complètement différente. Pour obtenir les pouces les plus diagonaux d’un substrat, vous devez élargir l’écran au maximum. Nous avons d’abord eu 16h10, puis 16h09 et il ya eu des fabricants de panneaux modérément performants qui fabriquaient des écrans 22h09 et 2h01 (comme Philips). Même si la densité de pixels et la résolution absolue ont diminué pendant quelques années, la taille en pouces a augmenté et c'est ce qui s'est vendu. Pourquoi acheter un 19 "1280 × 1024 alors que vous pouvez acheter un 21" 1366 × 768? Euh…
Je pense que cela couvre tous les aspects principaux ici. Il y a plus bien sûr; Les limites de bande passante de HDMI, DVI, DP et bien sûr de VGA ont joué un rôle important. Si vous revenez aux années 2000, la mémoire graphique, la bande passante informatique et simplement les limites des RAMDAC disponibles dans le commerce jouent un rôle important. Mais pour les considérations d'aujourd'hui, c'est à peu près tout ce que vous devez savoir.
Avez-vous quelque chose à ajouter à l'explication? Sound off dans les commentaires. Voulez-vous lire plus de réponses d'autres utilisateurs de Stack Exchange doués en technologie? Découvrez le fil de discussion complet ici.