Dell lève le voile sur deux nouveaux moniteurs UltraSharp, les U2723QE et U3223QE. Ils disposent tous les deux d’une dalle IPS Black de LG Display.
Les moniteurs UltraSharp U2723QE et U3223QE s’équipent d’une dalle de 27 et de 32 pouces IPS Black. Cette appellation souligne une solution capable de proposer des noirs 35% plus profonds que ceux des écrans IPS classiques (Selon LG).
Dédiés à la productivité et la bureautique ils embarquent un HUB USB 3.2 Gen 2 (10 Gbps) à six ports tandis que le port USB-C principal est capable de fournir une puissance maximale de 90 Watts (via USB-PD). Nous avons également la prise en charge du mode Alt DP 1.4. Concrètement le connecteur USB-C peut transmet des flux vidéos .
Ce HUB USB fonctionne également en mode KVM une fonction de plus en plus courante sur les moniteurs haut de gamme du moment. Du coté des entrées vidéo nous avons de l’HDMI, du DP 1.4 est une sortie pour le « chaînage ».
Enfin, nous retrouvons aussi un port réseau RJ45 (ordinateur portable) et une prise audio 3,5 mm pour la sortie audio.
La dalle assure un taux de contraste de 2000: 1, une fréquence de rafraichissement de 60 Hz et une luminosité maximale de 400 cd / m². Nous retrouvons la couverture à 100% de l’espace colorimétrique sRGB et Rec 709 et 98% du DCI-P3. Enfin Le temps de réponse est évalué à 8 ms. Cette valeur n’est pas condamnable sachant que ces moniteurs ne se positionnent pas sur le segment du gaming.
Le modèle 27 pouces s’accompagne d’une consommation de 25,9W contre 29,4W pour le modèle 32 pouces. La demande peut cependant grimper jusqu’à 220 Watts si de nombreux périphériques USB sont connectés.
L’U2723QE est affiché à 779,99 $ et l’U3223QE à 1 149,99 $ US.
A l'occasion des 20 ans de Half-Life 2, NVIDIA s’est associé à Orbifold Studios pour… Lire d'avantage
La mise à jour Windows 11 KB5046633 introduit un bug perturbant. Suite à son installation… Lire d'avantage
La GeForce RTX 3050 est une carte graphique d’entrée de gamme et bien qu'elle soit… Lire d'avantage
Depuis plusieurs années le programme Windows Insider donne rendez-vous aux fans de l'OS de Microsoft.… Lire d'avantage
AMD a dévoilé des résultats intéressant autour de son processeur Ryzen AI 9 HX 370.… Lire d'avantage
Microsoft a publié la première image ISO de Windows 11 ARM. Elle permet de faire… Lire d'avantage
Voir commentaires
Dalle LG IPS Faux-UHD (RGBW) thanks but no thanks!
Pour ma part je reste en l'attente d'un moniteur LCD 27" UHD VA non
gaming (cf. taxe G-SYNC) pour un usage purement bureautique/multimédia.
Celui-ci est en 32" mais correspond à la doléance :
https://iiyama.com/fr_fr/produits/prolite-xb3288uhsu-b1/
Merci pour la proposition cependant ce moniteur Iiyama 32" UHD VA était
déjà dans mon viseur à défaut d'en trouver un parfaitement adapté à mon
usage. ;-)
En effet, je ne suis pas particulièrement friand d'installer un
pare-brise de 32" sur mon bureau au risque de subir un torticolis
quotidien et je n'imagine pas acquérir une dalle autre que VA qui me
semble être le meilleur compromis entre réactivité et colorimétrie
malgré le marketing des promoteurs asiatiques de l'IPS qui se sont
détournés du VA pour raison purement financière (cf. brevets du CEA
possiblement invalidés avec le temps).
De rien.
Concernant la taille je n'ai pas eu l'occasion d'essayer mais j'ai comme préjugé qu'un 32" est plus adapté pour de l'UHD non HiDPI (taille des icônes et surface d'affichage). Un 24" pour de l'HiDPI serait parfait mais personne n'en fait (y'a une référence Dell de souvenir)...
Avec du 27", je présent que c'est trop petit pour du non HiDPI et trop grand pour du HiDPI (cela reviendrait à du 1080p sur un 27", ce qui me semble être une hérésie).
27" c'est 5K (1440p HiDPI) ou rien mais là on rentre dans le produit inachetable...
Après je le répète, ce sont des préjugé. Les boutiques comme Surcouf ayant disparut du paysage Français, il est devenu impossible de tester du matos et de se faire une idée (à part sur de l'Apple)...
Pour ma part je vise un moniteur 27" UHD surtout pour gagner en
définition à ~164 px/pc (i.e. mise à l'échelle à ~171 %) car j'estime
qu'il vaut mieux corriger une vision défaillante via une paire
d'optiques plutôt que s'encombrer d'objets pour malvoyant
(e.g. calculatrice à grosses touches).
Idéalement il me faudrait un moniteur 25+" UHD pour être capable
d'afficher côte à côte en mode portrait 2 pages A4 pour une lecture
confortable de documents vectoriels type PDF cependant les fabricants
de matrice LCD ne semblent pas tailler de dalle pour cette diagonale
dont la plus proche est 27"... hélas tout sauf VA.
@Purizuna
Je comprends le point de vu.
"surtout pour gagner en
définition à ~164 px/pc"
Je chipote mais c'est une résolution dont vous parlez (ne vous laissez pas avoir par l’amateurisme de la branche FR de Nvidia et Microsoft) ;)
Les mises à l'échelle non multiples de 100 occasionnent souvent du flou par endroit malheureusement.
Je ne sais pas pourquoi les constructeurs d'écrans fonts des choix étranges. Ne serais-ce que la connectique. Tous imposent 2 ports HDMI et un seul Displayport alors que toutes les cartes graphiques ont 3 Displayport et 1 seul HDMI... Cherchez l'erreur. Ils confondent moniteur et téléviseur de toute évidence.
"Je chipote mais c'est une résolution dont vous parlez (ne vous laissez
pas avoir par l'amateurisme de la branche FR de Nvidia et Microsoft)"
Je m'attendais à ce genre de remarque pseudo-élitiste infondée mais
tellement prévisible! :-P
N'importe quel francophone comprendra sans difficulté que du point de
vue d'un observateur une image mieux définie comporte plus de points
par unité de surface pour atteindre une sensation de réalisme tandis
qu'une densité de points plus faible n'apportera pas une meilleur
définition de celle-ci. ;-)
Ainsi la définition d'affichage d'un moniteur est liée à sa résolution
variable.
Une preuve par l'absurde serait de projeter une image UHD sur une toile
de plusieurs mètres de diagonale (e.g. cinéma) et sur un moniteur
informatique puis de demander à son observateur lambda de la qualifier
pour une distance fixée.
Il est fort probable que le terme "résolution" ne lui vienne pas à
l'esprit. :-D
Par ailleurs, la force d'une langue est dans son usage et ce débat
linguistique entre définition/résolution est du même ordre que celui
du cryptage/chiffrement dont le groupe Canal Plus a initié l'usage du
terme "cryptage" associé à son algorithme de brouillage de lignes à
l'opposé du "chiffrement" associé au codage numérique donc il n'est pas
erroné de parler de résolution pour la quantité de points d'une image
dont l'usage informatique (ou standard de facto) a été initié par
Microsoft tant apprécié dans le milieu. ^_^
Cela fait bien longtemps que je ne lutte plus contre les moulins à vent
et si je me souviens bien il y a eu un débat houleux sur l'usage du
terme "cryptage" par Canal Plus tandis que l'image n'est pas
véritablement cachée (cf. la légende de la technique de la passoire le
1er samedi du mois :-D ).
En fait la distinction entre définition et résolution est plutôt simple.
L'académie Française propose les définitions suivantes :
Définition :
"Nombre de lignes dont est formée une image de télévision"
https://www.dictionnaire-academie.fr/article/A9D0806
Résolution :
"Nombre de points par unité de longueur ou nombre de pixels que comporte une image, et qui détermine sa qualité, sa netteté"
https://www.dictionnaire-academie.fr/article/A9R2069
La définition c'est un nombre de points sur une surface (peut importe qu'elle face 10cm ou 230cm). La résolution est le résultat de la définition par rapport à la taille de la surface d'affichage exprimée en points par pouces (noté en dpi ou ppp).
Une définition de 1920x1080p sur un écran de 10cm aura une meilleur résolution que sur un écran de 230cm (les points ou pixels seront plus écartés les uns des autres).
Microsoft et Nvidia confondent les deux notions car "résolution" est un anglicisme issu du même terme anglais signifiant justement "définition" en Français. En somme, c'est une erreur de traduction. Si Windows était sur une forge Git, cela aurait probablement fait l'objet d'un ticket d'ailleurs (sous Gnome il est bien noté "définition" pour la même fonction).
Pour le mot cryptage, c'est effectivement une autre erreur linguistique (anglicisme de "to crypt") et est une aberration mathématique : https://chiffrer.info/
Face à l'abondance de l'usage, l’académie Française a tout de même validé l'utilisation du mot pour l'audiovisuel.
L'académie française... il faut vraiment être désespéré pour se réferer
au dictionnaire de vieux croulant de la ponction publique responsables
d'abominations abracadabrantesques de la langue française dont
l'autorité linguistique est nulle (cf. usage) depuis plusieurs
décennies notamment dans le domaine des technologies avec des termes
aussi absurdes que ridicules tels que "cédérom", "infox" ou encore
"pourriel".
Ainsi l'académie française est à l'image de la France, un pays aux
normes aussi abondantes que futiles avec l'espoir de préserver le rang
social d'une pseudo-élite effrayée par le déclassement de la
mondialisation.
C'est un peu dommage de vous lire sur ce sujet. On dirait que vous avez renoncé à l'autodétermination du destin Français.
Qu'auriez-vous proposé en lieu et place de ces termes ? Je les trouves plutôt bon et les utilises régulièrement.
Nous avons traduit dans toutes les langues les noms d'animaux, de plantes, mathématiques et autres sciences alors pourquoi ne devrions-nous pas toucher à l'informatique/technologies (à laquelle nous avons de plus fortement contribué) ?
Il est bien plus agréable et sain d'avoir une culture nationale (et plus largement francophone) dans la ligne de ce qui nous a fait que d'abandonner toute évolution à d'autres qui n'ont pas, à raison, à se soucier de nous.
Pour les normes, c'est une plaie qui touche toute structure de grande taille et âgée. Le fait est qu'il est important d'en avoir sinon il n'y aurait aucune interopérabilité dans aucun domaines que ce soit (et en informatique dieu sait que nous avons des normes).
L'Académie Française a ses défauts mais elle a le mérite d'être cohérente et d'agir sur le long terme (plusieurs siècles). Cela peut être déroutant dans une société de l’immédiateté mais c'est un pré-requis à l'établissement d'une culture pérenne et solide à travers les âges (ça a plutôt fait ses preuves par le passé).
De plus, l'exactitude des termes est importante avec cet exemple de définition/résolution. Des termes qui se confondent dans leurs usages malgré leur différence réelles finissent par disparaître et on perd en précision dans la transmission de l'information (sujette à interprétation). Le même phénomène étendu à tout le vocabulaire et il devient difficile d'articuler une pensée complexe.
Je finirais par dire que je ne vois (et ne souhaite) pas que le français de demain parle le franglais couramment. Il est quand même largement admis qu'un langage pauvre engendre une pensée pauvre (même s'il est vrai que la tendance suis malheureusement ce chemin).
"Ce HUB USB fonctionne également en mode KVM une fonction de plus en
plus courante sur les moniteurs haut de gamme du moment."
Une fonctionnalité indispensable pour tous moniteurs "modernes" pour
un surcoût négligeable puisqu'un commutateur vidéo est déjà intégré
sur tous les moniteurs du marché disposant de plusieurs entrées vidéo
(DVI, HDMI, DisplayPort) dont il ne reste qu'à intégrer un commutateur
de clavier/souris.
Ainsi le moniteur peut s'assimiler à une forme "moderne" de terminal.
A noter que pour un usage bureautique, il vaut mieux éviter la
connectivité HDMI et privilégier la connectivité DVI ou DisplayPort
afin de conserver un flux RGB tandis que le HDMI est plus adapté
aux sources vidéos type lecteur de Blu-ray Vidéo au flux YUV ce qui
implique une conversion RGB vers YUV pour les sorties vidéos HDMI
des cartes graphiques.