Почему существует разрешение 1366x768? [Дубликат]

    

У этого вопроса уже есть ответ:

    

Я знаю, что есть предыдущий вопрос об этом но у него нет реальных ответов, несмотря на то, что они были просмотрены 12 400 раз, и тот факт, что он был закрыт. Имея это в виду ...

Почему в мире есть разрешение 1366x768? Он имеет соотношение сторон 683: 384, что является самым странным из того, что я когда-либо слышал, живя в мире 16: 9.

Все экраны и разрешения, с которыми я знаком, имеют соотношение сторон 16: 9. Мой экран, 1920x1080, составляет 16: 9. 720p, с которым я знаком, - 1280x720, также 16: 9. 4K, с которым я знаком, 3840x2160, тоже 16: 9. Тем не менее, 1366x768 - это 683: 384, по-видимому, безумный разрыв со стандартом.

Я знаю, что во всем мире есть много других решений, но 1366x768, по-видимому, доминирует над большинством недорогих ноутбуков, а также кажется уникальным для мира ноутбуков. Почему ноутбуки не используют 1280x720 или что-то еще в качестве стандарта?

144 голоса | спросил meed96 28 J000000Tuesday15 2015, 01:14:01

4 ответа


181

Согласно Википедии (внимание мое):

  

Основа для этой иначе нечетной кажущейся резолюции аналогична   других «широких» стандартов - скорость сканирования линии (обновления)   хорошо зарекомендовавший себя стандарт «XGA» (1024x768 пикселей, 4: 3)   дать квадратные пиксели на все более популярном широкоэкранном 16: 9   коэффициент отображения без необходимости изменения основных сигналов   чем более быстрые пиксельные часы или производственные изменения, отличные от   ширину панели на 1/3 . Поскольку 768 не делит ровно на 9,   соотношение сторон не совсем 16: 9 - для этого потребуется горизонтальная   ширина 1365.33 пикселя. Однако только при 0,05% полученная ошибка   является незначительным.

Цитаты не предусмотрены, но это разумное объяснение: это самое близкое к 16: 9, которое они могут получить, сохраняя разрешение 768 по вертикали от 1024x768, которое широко использовалось для изготовления ранних ЖК-дисплеев 4: 3. Возможно, это помогло сократить расходы.

ответил mtone 28 J000000Tuesday15 2015, 01:43:34
63

В то время, когда популярны первые широкоэкранные экраны компьютера, обычное разрешение на панелях 4: 3 составляло 1024x768 (стандарт отображения XGA). Таким образом, для простоты и обратной совместимости разрешение XGA было сохранено в качестве основы для разрешения WXGA, так что XGA-графика могла легко отображаться на экранах WXGA. Просто расширение ширины и сохранение одной и той же высоты было также более простым технически, потому что вам нужно было только настроить горизонтальную частоту обновления, чтобы достичь этого. Однако стандартное соотношение сторон для широкого дисплея было 16/9, что невозможно с 768 пикселями по ширине, поэтому было выбрано ближайшее значение 1366x768.

WXGA также может ссылаться на разрешение 1360x768 (а некоторые другие менее распространены), что было сделано для снижения затрат в интегральных схемах. 1366x768 8bit пикселей будут занимать чуть выше 1MiB, чтобы быть сохраненным (1024.5KiB), так что это не поместилось бы в 8-мегабитный чип памяти, вам нужно было бы взять 16-мегабитный один, чтобы сохранить несколько пикселей. Вот почему что-то немного ниже, чем 1366. Почему 1360? Потому что вы можете разделить его на 8 (или даже 16), что намного проще в обработке при обработке графики и может привести к оптимизации алгоритмов.

ответил piernov 28 J000000Tuesday15 2015, 02:08:29
21

У меня был тот же вопрос в 2007 году, потому что мой компьютер не поддерживал мое разрешение по умолчанию 1366x768 по умолчанию, и я нашел это:

  

ПОЧЕМУ 1366 x 768 существуют?

     

Это связано с 1-мегапиксельной границей обработки легко доступных наборов микросхем для VRAM (видеопамять) и драйверов отображения видео обработки. Его стандартная память важна для производителей чипов. Делает для экономически выгодных конфигураций, где системы ввода /вывода построены на уже имеющихся OEM-устройствах, поэтому в основном Производитель больше занимается бизнесом плоских панелей, а также панелями и динамиками на большом дисплее. Функциональная базовая математика:

     

1 мегапиксель

     

1024 x 1024 = 1048576 пикселей

     

1366 x 768 = 1049088 пикселей Изображение размером 16 на 9

     

720p = 1280 x 720 = 921600 пикселей. Стандарт 16 на 9 HD.

     

720p составляет чуть менее 1 мегапикселя данных на экран.

     

Если бы они действительно хотели сделать 720p конкретный дисплей, это было бы 1280 x 720 пикселей, но они решили получить каждый последний бит, который они могли бы в видимом пространстве пикселей, и это то, что делает для 16 на 9 чисел, чтобы стать 1366 поперек и 768 по вертикали. На самом деле 768 является общей границей памяти с вертикальным разрешением. Зачем получать больше пикселей в стекло и использовать 1366 x 768? ... потому что больше пикселей - лучшее разрешение изображения.

Я рекомендую прочитать полную статью здесь:

http://hd1080i.blogspot.com.ar/2006 /12/1080i-on-1366x768-resolution-problems.html

ответил Facundo Pedrazzini 28 J000000Tuesday15 2015, 17:58:15
17

768 - сумма двух степеней 2 (512 + 256), а 1366 - 16/9 раз 768, округленная до следующего целого. Но только тот, кто выбрал эту резолюцию, может ответить «почему». Некоторые люди так же, как и силы 2.

Кроме того, 768 раз 1366 находится чуть более одного мебипикселя (2 ^ 20), что составляет около 1,05 мегапикселя (1,05 * 10 6). 768 раз 1365 находится под этим, поэтому маркетинг, вероятно, тоже вступил в игру.

ответил Glenn Randers-Pehrson 28 J000000Tuesday15 2015, 01:29:55

Похожие вопросы

Популярные теги

security × 330linux × 316macos × 2827 × 268performance × 244command-line × 241sql-server × 235joomla-3.x × 222java × 189c++ × 186windows × 180cisco × 168bash × 158c# × 142gmail × 139arduino-uno × 139javascript × 134ssh × 133seo × 132mysql × 132