Вопрос по информатике:
Как вы думайте, почему частота обновления изображения на экране монитора должна быть больше, чем частота кадров в кино?
Трудности с пониманием предмета? Готовишься к экзаменам, ОГЭ или ЕГЭ?
Воспользуйся формой подбора репетитора и занимайся онлайн. Пробный урок - бесплатно!
- 03.01.2015 16:44
- Информатика
- remove_red_eye 9630
- thumb_up 5
Ответы и объяснения 1
По правде, она не должна быть больше, хотя на практике она получается именно так. Дело в другом.
Давным-давно, когда только-только возникало кино, экспериментально было выяснено, что человек худо-бедно воспринимает последовательность кадров с движением как непрерывный процесс при частоте 24 кадра в секунду. По разным причинам, не в последнюю очередь экономическим (плёнка - штука дорогая), было решено снимать кино именно с такой частотой. В кинотеатрах, чтобы движение получалось ещё более реалистичным, картинку перекрывали заслонкой на полкадра, эффективно частота получалась в два раза больше - 48 кадров в секунду. Для тех времен это давало неплохое качество.
Однако было ясно, что чем больше становятся экраны, чем меньше было помех на записи, тем всё более прерывистым выглядит движение. В современных кинотеатрах это заметно особенно сильно: за время между кадрами изображение предмета на экране успевает пройти до полуметра. Есть простое решение - просто увеличить частоту обновления кадров. Но это сделать не так-то просто, ведь надо сохранить совместимость с уже отснятыми фильмами. С развитием телевидения стандарт частоты немного поменялся - до 25 кадров в секунду, это означает, что старые фильмы ускорились на 1/24, что заметить практически невозможно. Но ускорить фильмы в 2 раза незаметно для зрителя практически невозможно, поэтому оборудование по-прежнему поддерживает частоты до 50 Гц, несмотря на то, что цифровые камеры могут снимать со значительно большей частотой.
С компьютерными мониторами таких проблем нет. Поэтому, чтобы изображение в видеоиграх было более плавным и чётким, курсор можно было выставлять быстро и точно, картинка на экране перерисовывается чаще. Современный стандарт частоты обновления экрана - 60 Гц, тоо есть изображение перерисовывается 60 раз в секунду. Разница между 24/25 Гц и 60 Гц значительная, её легко увидеть невооружённым взглядом. Некоторые мониторы уже могут работать на частоте 120 Гц, что тоже очень заметно улучшает качество.
Обобщая, можно сказать: никаких объективных причин, кроме инертности в обновлении стандаров и оборудования, для того, чтобы мониторы должны были иметь большую частоту обновления картинки по сравнению с кино, нет. При большей частоте качество изображения улучшается, появляется большая плавность движений, достигается большая четкость.
- 04.01.2015 04:16
- thumb_up 18
Знаете ответ? Поделитесь им!
Есть сомнения?
Не нашли подходящего ответа на вопрос или ответ отсутствует? Воспользуйтесь поиском по сайту, чтобы найти все ответы на похожие вопросы в разделе Информатика.
Трудности с домашними заданиями? Не стесняйтесь попросить о помощи - смело задавайте вопросы!
Информатика — наука о методах и процессах сбора, хранения, обработки, передачи, анализа и оценки информации с применением компьютерных технологий, обеспечивающих возможность её использования для принятия решений.