Как система понимает какие глифы шрифта нужно вывести на экран для представления двоичного числа? Допустим, что в памяти хранится двоичное число 10111111100 (1532 в десятичной системе счисления). Но это число нужно вывести на экран, используя глифы (какого-либо шрифта), соответствующие цифрам 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. То есть каждый из этих глифов имеет определенный код символа, но как все-таки компьютерная система понимает, что нужно выбрать именно глифы 1, 5, 3 и 2? Это является загадкой для меня.

15 Фев 2020 в 19:51
171 +1
0
Ответы
1

Когда компьютер отображает символы на экране, он использует таблицу символов, такую как ASCII или Unicode, где каждому символу соответствует определенный числовой код. Например, символ "1" имеет код 49, символ "5" - код 53, символ "3" - код 51, символ "2" - код 50 и так далее.

Когда компьютеру необходимо отобразить двоичное число на экране, он просто идентифицирует, каким символам соответствуют биты этого числа в соответствующей таблице символов. Например, если двоичное число 10111111100 должно быть отображено на экране, компьютер просто определит, что первый бит соответствует символу "1", второй - символу "0", третий - символу "1" и так далее.

Таким образом, компьютер просто преобразует двоичное число в соответствующие символы, используя таблицу символов.

18 Апр в 17:14
Не можешь разобраться в этой теме?
Обратись за помощью к экспертам
Название заказа не должно быть пустым
Введите email
Бесплатные доработки
Гарантированные бесплатные доработки
Быстрое выполнение
Быстрое выполнение от 2 часов
Проверка работы
Проверка работы на плагиат
Интересные статьи из справочника
Поможем написать учебную работу
Название заказа не должно быть пустым
Введите email
Доверьте свою работу экспертам
Разместите заказ
Наша система отправит ваш заказ на оценку 83 722 авторам
Первые отклики появятся уже в течение 10 минут
Прямой эфир