sonyps4.ru

Понятия бита, байта. Понятие информации

Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение. Несмотря на широкое распространение этого термина, понятие информации является одним из самых дискуссионных в науке.

В "Большом энциклопедическом словаре" информация определяется как "общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму (генетическая информация). В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация , но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

· в обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. "Информировать" в этом смысле означает "сообщить нечто , неизвестное раньше" ;

· в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;

· в кибернетике под информацией понимает ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы (Н. Винер).

Понятие данные более общее чем информатика, в нем смысловые свойства сообщения как бы отступают на второй план. Когда нет необходимости подчеркнуть разницу между понятиями данные (вся совокупность сведений) и информация (новые полезные сведения) эти слова используют как синонимы .

В соответствии с этим для оценки количества информации используются разные единицы.

При передаче информации важно обратить внимание на то, какое количество информации пройдет через передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях (как от сложения двух яблок и трех яблок переходят к сложению чисел вообще: 2+3).

1.2.2 Свойства информации

К важнейшим свойствам информации относятся:

  • полнота;
  • ценность;
  • своевременность (актуальность);
  • понятность;
  • доступность;
  • краткость;
  • и др.

Адекватность информации может выражаться в трех формах: семантической, синтаксичес-кой, прагматической.

Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной.

Информация становится понятной , если она выражена языком, на котором говорят те, кому предназначена эта информация.

Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по-разному излагаются в школьных учебниках и научных изданиях.

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях.

1.2.1. Информатизация и компьютеризация общества. Информационные ресурсы.

Информационные процессы (сбор, обработка и передача информации) всегда играли важную роль в жизни общества. В ходе эволюции человечества просматривается устойчивая тенденция к автоматизации этих процессов.

Средства обработки информации — это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер — универсальная машина для обработки информации.

Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов.

Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.

Человечество занималось обработкой информации тысячи лет. Существует мнение, что мир пережил несколько информационных революций.

Первая информационная революция связана с изобретением и освоением человеческого языка, который, точнее устная речь, выделила человека из мира животных. Это позволило человеку хранить, передавать, совершенствовать, увеличивать приобретенную информацию.

Вторая информационная революция заключалась в изобретении письменности. Прежде всего, резко возросли (по сравнению с предыдущим этапом) возможности по хранению информации. Человек получил искусственную внешнюю память. Организация почтовых служб позволила использовать письменность и как средство для передачи информации. Кроме того, возникновение письменности было необходимым условием для начала развития наук (вспомним Древнюю Грецию , например). С этим же этапом, по всей видимости, связано и возникновение понятия натуральное число . Все народы, обладавшие письменностью, владели понятием числа и пользовались той или иной системой счисления.

Все-таки, зафиксированное в письменных текстах знание было ограниченным, и, следовательно, мало доступным. Так было до изобретения книгопечатания .

Что обосновало третью информационную революцию. Здесь наиболее очевидна связь информации и технологии. Книгопечатание можно смело назвать первой информационной технологией. Воспроизведение информации было поставлено на поток, на промышленную основу. По сравнению с предыдущим этот этап не столько увеличил возможности по хранению (хотя и здесь был выигрыш: письменный источник - часто один-единственный экземпляр, печатная книга - целый тираж экземпляров, а следовательно, и малая вероятность потери информации при хранении (вспомним "Слово о полку Игореве ")), сколько повысил доступность информации и точность ее воспроизведения. Механизмом этой революции был печатный станок, который удешевил книгу и сделал информацию более доступной.

Четвертая революция, плавно переходящая в пятую , связана с созданием современных информационных технологий. Этот этап связан с успехами точных наук (прежде всего математики и физики) и характеризуется возникновением таких мощных средств связи, как телеграф (1794г. - первый оптический телеграф , 1841г. - первый электромагнитный телеграф), телефон (1876г.) и радио (1895г.), к которым по завершению этапа добавилось и телевидение (1921г.). Кроме средств связи появились новые возможности по получению и хранению информации - фотография и кино. К ним также очень важно добавить разработку методов записи информации на магнитные носители (магнитные ленты, диски). Но самым поразительным было создание современных компьютеров и средств телекоммуникаций.

В настоящее время термин "информационная технология" употребляется в связи с использованием компьютеров для обработки информации. Информационные технологии охватывают всю вычислительную технику и технику связи и, отчасти, — бытовую электронику, телевидение и радиовещание.

Они находят применение в промышленности, торговле, управлении, банковской системе , образовании, здравоохранении, медицине и науке, транспорте и связи, сельском хозяйстве, системе социального обеспечения, служат подспорьем людям различных профессий и домохозяйкам.

Народы развитых стран осознают, что совершенствование информационных технологий представляет самую важную, хотя дорогостоящую и трудную задачу.

В настоящее время создание крупномасштабных информационно-технологических систем является экономически возможным, и это обусловливает появление национальных исследовательских и образовательных программ, призванных стимулировать их разработку.

После решения задачи обработки информации результат должен быть выдан конечным пользователям в требуемом виде. Эта операция реализуется в ходе решения задачи выдачи информации. Выдача информации , как правило, производится с помощью внешних устройств вычислительной техники в виде текстов, таблиц, графиков и т.д.

Стержнем любой информационной технологии является выбор и реализация наиболее рационального информационного процесса, который можно определить как совокупность процедур по преобразованию и обработке информации.

В свою очередь информационной процедурой принято считать совокупность однородных операций, воздействующих определенным образом на информацию. Основными информационными процедурами являются: регистрация, сбор, передача, кодирование, хранение и обработка информации.

Реализация любой задачи конкретного пользователя требует создания системы информационного обслуживания, которую чаще называют информационной системой.

Пусть А={а1, а2, …, аn} - алфавит некоторого языка. А* - множество всевозможных последовательностей символов этого языка.

Язык - это подмножество А*, которое удовлетворяет двум системам правил: синтаксическим (голубая штриховка) и семантическим (штриховка бордо), причем семантическим правилам могут удовлетворять только те конструкции, которые удовлетворяют синтаксическим правилам.

Пример: ббсе - не удовлетворяет синтаксису русского языка

Петя съел трактор - все синтаксические правила соблюдены, но предложение не удовлетворяет семантике русского языка

Таким образом, знание языка означает

1. Знание его алфавита,

2. Знание синтаксических правил

3. Знание семантических правил

В этом случае вы сможете общаться и будете правильно поняты.

Преобразование конструкций одного языка в последовательность букв другого алфавита называется кодированием.

Если говорить о кодировании, то сначала надо определить, какую конструкцию языка будем рассматривать в качестве символа, т.е. некоторой неделимой конструкции.

Рассмотрим некоторое предложение языка Q. Предложение состоит из слов, которые в свою очередь состоят из букв. Возможны 3 варианта определения символа (неделимой конструкции языка):

1. символ = буква: предложение - последовательность букв алфавита. Такой подход используется при письменной записи.

2. символ = слово. Такое представление предложений используется в стенографии.

3. символ = предложение. Такая ситуация возникает при переводе с одного языка на другой, причем особенно ярко это проявляется при переводе пословиц, шуток, поговорок.

Проблемой кодирования начал заниматься великий немецкий математик Готфрид Вильгельм Лейбниц ; он доказал, что минимальное количество букв, необходимое для кодирования любого алфавита, равно 2.

Пример. Русский язык: 33 буквы*2 (прописные, строчные)-2(ъ,ь) + 10 знаков препинания +10 цифр = 84 символа. Обязательным условием правильного кодирования является возможность однозначного преобразования АÛВ. Сколько двоичных символов необходимо, чтобы закодировать один символ русского языка?

буква код
а
А
б
Б
в
В
м
М

Предположим, надо закодировать слово Мама. Закодируем его: 10011 0 10010 0. Сделайте обратное преобразование (декодирование). Возникают проблемы, т.к. не понятно, где заканчивается одна буква и начинается другая. Основное правило однозначного преобразования из А в В и обратно нарушено, причина - использование кода переменной длины, следовательно необходимо выбрать код одинаковой заранее определенной длины. Какой?

Вывод: чем меньше букв в алфавите, тем длиннее символ. В русском языке 33 буквы, слова в среднем состоят из 4-6 букв. В японском языке около 3000 иероглифов, в среднем 1 предложение ~ 1 иероглиф.

В вычислительных машинах используется двоичное кодирование информации любого типа: программы, текстовые документы, графические изображения , видеоклипы, звуки и т.д. Удивительно, но все это богатство информации кодируется с помощью всего двух состояний: включено или выключено (единица или ноль). Формирование представления информации называется ее кодированием . В более узком смысле под кодированием понимается переход от исходного представления информации, удобного для восприятия человеком, к представлению, удобному для хранения, передачи и обработки. В этом случае обратный переход к исходному представлению называется декодированием .

При любых видах работы с информацией всегда идет речь о ее представлении в виде определенных символических структур. Наиболее распространены одномерные представления информации, при которых сообщения имеют вид последовательности символов. Так информация представляется в письменных текстах, при передаче по каналам связи, в памяти ЭВМ . Однако широко используется и многомерное представление информации, причем под многомерностью понимается не только расположение элементов информации на плоскости или в пространстве в виде рисунков, схем, графов, объемных макетов и т.п., но и множественность признаков используемых символов, например цвет, размер, вид шрифта в тексте.

Драйвер - это программа-посредник между оборудованием и другими программами.

Таким образом, тексты хранятся на диске или в памяти в виде чисел и программным способом преобразовываются в изображения символов на экране.

1.2.5. Кодирование изображений

В 1756 году выдающийся русский ученый Михаил Васильевич Ломоносов (1711 -1765) впервые высказал мысль, что для воспроизведения любого цвета в природе достаточно смешать в определенных пропорциях три основных цвета: красный, зеленый, синий. Теория трехкомпонентности цвета утверждает, что в зрительной системе человека возникают нервные возбуждения трех типов, каждое из которых независимо от остальных.

Компьютерное кодирование изображений также построено на этой теории. Картинка разбивается вертикальными и горизонтальными линиями на маленькие прямоугольники. Полученная матрица прямоугольников называется растром , а элементы матрицы - пикселями (от англ. Picture"s element - элемент изображения). Цвет каждого пикселя представлен тройкой значений интенсивности трех основных цветов. Такой метод кодирования цвета называется RGB (от англ. red - красный, green - зеленый, blue - синий). Чем больше битов выделено для каждого основного цвета, тем большую гамму цветов можно хранить про каждый элемент изображения. В стандарте, называемом true color (реальный цвет), на каждую точку растра тратится 3 байта, по 1 байт на каждый основной цвет. Таким образом, 256 (=2 8) уровней яркости красного цвета, 256 уровней яркости зеленого цвета и 256 уровней яркости синего цвета дают вместе примерно 16,7 млн различных цветовых оттенков, это превосходит способность человеческого глаза к цветовосприятию.

Чтобы хранить всю картинку, достаточно записывать в некотором порядке матрицу значений цветов пикселей, например, слева направо и сверху вниз. Часть информации о картинке при таком кодировании потеряется. Потери будут тем меньше, чем мельче пиксели. В современных компьютерных мониторах с диагональю 15 -17 дюймов разумный компромисс между качеством и размером элементов картинки на экране обеспечивает растр в 768х1024 точки.

Информация относится к фундаментальным, неопределяемым понятиям науки информатика. Тем не менее смысл этого понятиядолжен быть разъяснен. Предпримем попытку рассмотреть это понятие с различных позиций.

Термин информация происходит от латинского слова informatio , что означает сведения, разъяснения, изложение . В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

    в быту информацией называют любые данные, сведения, знания, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.;

    в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов (в этом случае есть источник сообщений, получатель (приемник) сообщений, канал связи);

    в кибернетике под информацией понимают ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;

    в теории информации под информацией понимают сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Информация может существовать в виде:

    текстов, рисунков, чертежей, фотографий;

    световых или звуковых сигналов;

    радиоволн;

    электрических и нервных импульсов;

    магнитных записей;

    жестов и мимики;

    запахов и ощущений;

    хромосом, посредством которых передаются по наследству признаки и свойства организмов, и т.д.

Свойства информации

Свойства информации (с точки зрения бытового подхода к определению);

    релевантность - способность информации соответствовать нуждам потребителя;

    полнота;

    своевременность;

    достоверность;

    доступность;

    защищенность;

    эргономичность - свойство, характеризующее удобство формы или объема информации с точки зрения данного потребителя.

С этой точки зрения свойства информации:

    запоминаемость;

    передаваемость;

    воспроизводимость

    преобразуемость

    стираемость.

Фундаментальное свойство информации - преобразуемость. Оно означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором ее количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может. Высшей формой информации, проявляющейся - в управлении в социальных системах, являются знания.

Информационные процессы

Под информационным понимают процесс, связанный с определенными операциями над информацией в ходе которого может измениться содержание информации или форма ее представления.

В информатике к таким процессам относят:

получение,

хранение,

передачу,

обработку,

использование информации.

Определение количества информации

Вероятностный подход к измерению информации

Любая информация может рассматриваться как уменьшение неопределенности наших знаний об окружающем мире (в теории информации принято говорить именно об уменьшении неопределенности, а не об увеличении объема знаний). Случайность события заключается в том, что реализация того или иного исхода имеет некоторую степень неопределенности. Пусть, например, абсолютно незнакомый нам ученик сдает экзамен, результатом которого может служить получение оценок 2, 3, 4 или 5. Поскольку мы ничего не знаем о данном ученике, то степень неопределенности всех перечисленных результатов сдачи экзамена совершенно одинакова. Напротив, если нам известно, как он учится, то уверенность в некоторых исходах будет больше, чем в других: так, отличник скорее всего сдаст экзамен на пятерку, а получение двойки для него - это нечто почти невероятное. Наиболее просто определить количество информации в случае, когда все исходы события могут реализоваться с равной долей вероятности . В этом случае для вычисления информации используется формула Хартли .

В более сложной ситуации, когда исходы события ожидаются с разной степенью уверенности, требуются более сложные вычисления по формуле Шеннона , которую обычно выносят за рамки школьного курса информатики. Очевидно, что формула Хартли является некоторым частным случаем более общей формулы Шеннона.

Формула Хартли была предложена в 1928 году американским инженером Р.Хартли. Она связывает количество равновероятных состояний N с количеством информации I в сообщении о том, что любое из этих состояний реализовалось.

Наиболее простая форма для данной формулы зафиксируется следующим образом:

2 I = N

Причем обычно значение N известно, а I приходится подбирать, что не совсем удобно. Поэтому те, кто знает математику получше, предпочитают преобразовать данную формулу так, чтобы сразу выразить искомую величину I в явном виде:

I = log 2 N

Единица информации носит название бит (от англ. Вinary digiT - двоичная цифра); таким образом, 1 бит - это информация о результате опыта с двумя равновероятными исходами.

Чем больше возможных исходов, тем больше информации в сообщении о реализации одного из них.

Пример 1. Из колоды выбрали 16 карт (все “картинки” и тузы) и положили на стол рисунком вниз. Верхнюю карту перевернули (дама пик). Сколько информации будет заключено в сообщении о том, какая именно карта оказалась сверху? Все карты одинаковы, поэтому любая из них могла быть перевернута с одинаковой вероятностью. В таких условиях применима формула Хартли. Событие, заключающееся в открытии верхней карты, для нашего случая могло иметь 16 возможных исходов. Следовательно, информация о реализации одного из них равняется

I = log 2 16 = 4 бита

Примечание. Если вы не любите логарифмы, можно записать формулу Хартли в виде 2 i = 16 и получить ответ, подбирая такое I , которое ей удовлетворяет.

Алфавитный (объемный) подход к измерению информации

Он заключается в определении количества информации в каждом из знаков дискретного сообщения с последующим подсчетом количества этих знаков в сообщении. Пусть сообщение кодируется с помощью некоторого набора знаков. Заметим, что если для данного набора установлен порядок следования знаков , то он называется алфавитом . Пусть алфавит, с помощью которого записываются все сообщения, состоит из N символов . Для простоты предположим, что все они появляются в тексте с одинаковой вероятностью. Тогда применима формула Хартли для вычисления информации

- «Беспроводные информационные технологии» ООО Москва, организация, техн. Источник: http://www.vedomosti.ru/newspaper/article.shtml?2004/10/29/82849 БИТ безопасные информационые технологии кафедра СПбГИТМО образование и наука, Санкт Петербург, техн … Словарь сокращений и аббревиатур

бит - а; мн. род. бит и ов; м. [от англ. сокращения BInary digiT двоичный знак] Минимальная единица измерения количества информации и объёма памяти компьютера (равна одной ячейке или одному двоичному знаку типа да нет). * * * бит (англ. bit, от… … Энциклопедический словарь

Бит/с - Бит в секунду, бит/с (англ. bits per second, bps) базовая единица измерения скорости передачи информации, используемая на физическом уровне сетевой модели OSI или TCP/IP. На более высоких уровнях сетевых моделей, как правило, используется более… … Википедия

БИТ - (исп.). То же, что реал, монета ценностью в 16 1/2 коп. Словарь иностранных слов, вошедших в состав русского языка. Чудинов А.Н., 1910. БИТ 1 [англ. beat бить] муз. выдержанная в равномерном темпе танцевальная и легкая музыка в размере 4/4 с… … Словарь иностранных слов русского языка

БИТ - (англ. bit от binary двоичный и digit знак), двоичная единица, в теории информации единица количества информации. Бит в вычислительной технике двоичная цифра, двоичный разряд. число бит памяти ЭВМ определяет максимальное количество двоичных цифр … Большой Энциклопедический словарь

бит - двоичная единица информации, двоичный знак Словарь русских синонимов. бит сущ., кол во синонимов: 2 биг бит (2) е … Словарь синонимов

Бит - (bit) Аббревиатура понятия двоичный разряд. См.: двоичная запись (binary notation). Бизнес. Толковый словарь. М.: ИНФРА М, Издательство Весь Мир. Грэхэм Бетс, Барри Брайндли, С. Уильямс и др. Общая редакция: д.э.н. Осадчая И.М.. 1998. Бит … Словарь бизнес-терминов

бит - бит, а; р. мн. ов, счётн. ф.бит (единица количества информации) … Русское словесное ударение

БИТ - БИТ, а, муж. (спец.). Единица измерения количества информации (в 1 знач.). Толковый словарь Ожегова. С.И. Ожегов, Н.Ю. Шведова. 1949 1992 … Толковый словарь Ожегова

бит - единица количества информации, которая содержится в сообщении типа «да» – «нет». Бит в вычислительной технике – двоичная цифра, двоичный разряд, принимающий только два значения – 0 или 1. Одним битом можно выразить только два числа – 0 и 1.… … Энциклопедия техники

БИТ - (бит, bit) (от англ. binary двоичный и digit знак, цифра), единица кол ва информации в двоичной системе. Обычно последовательность из восьми Б. наз. байтом. Физический энциклопедический словарь. М.: Советская энциклопедия. Главный редактор А. М.… … Физическая энциклопедия

– Игорь (Администратор)

В данной статье я рассмотрю вопрос что такое бит, зачем он нужен и какое ему отведено место в мире информационных технологий. Материал ориентирован в первую очередь на новичков и обычных пользователей, которым просто интересно узнать что такое бит. Так что если вы матерый компьютерщик, то эта статья не для вас, хотя решать вам.

Сегодня практически вся информационная индустрия, включая технику, базируется на термине "бит", который образован от словосочетания "binary digit" или по русски двоичный знак (число). Так что такое бит? Чисто технически, под словом "бит" подразумевает единицу информации, которая может принимать всего лишь два значения 0 или 1. Если говорить более простыми словами и приводить аналогию из жизни, то это обычный выбор между "Да" или "Нет". Не трудно заметить, что такой подход очень прост для восприятия и понимания, даже теми людьми, которые с техническими науками плохо ладят (практически каждый день миллиарды людей так или иначе взаимодействуют с электронными приборами, включая будильники, компьютеры и прочее).

Примечание : В интернете можно найти упоминания о других методиках подсчета и создания электроники. Однако, из-за своей сложности в массовом производстве и создании соответствующего программного обеспечения они так и не прижились.

Что позволяет бит? Биты позволяют с легкостью выстраивать более сложные конструкции, такие как описание алгоритма действий, системы классификации, хранилища данных и многое другое. Другими словами, используя биты можно в едином стиле как хранить данные, так и создавать программные коды для управляющих устройств. К примеру, если обращали внимание, то документы и программы - это просто файлы на жестком диске. Кроме того, такая двоичная логика используется и при производстве самой техники (создании тех же плат).

В техничке, обычно, за 0 принимается либо отсутствие тока, либо низкий уровень сигнала, а за 1 воспринимается высокий уровень сигнала. Другими словами, есть ток на контактах - значит 1, нет тока - значит 0. Просто, легко, понятно и нет проблем с интеграцией различных устройств и блоков.

В целом, под "что такое бит" можно подразумевать всю сегодняшнюю информационную индустрию, а не только два значения 0 и 1. Поэтому это слово вы можете встретить практически в любой технической статье, будь то она посвящена аппаратуре или же программным кодам.

Примечание : Стоит знать, что под словом "бит" могут подразумеваться и другие определения. К примеру, в теории вероятности, бит - это двоичный логарифм вероятности равновероятных событий.

- «Беспроводные информационные технологии» ООО Москва, организация, техн. Источник: http://www.vedomosti.ru/newspaper/article.shtml?2004/10/29/82849 БИТ безопасные информационые технологии кафедра СПбГИТМО образование и наука, Санкт Петербург, техн … Словарь сокращений и аббревиатур

А; мн. род. бит и ов; м. [от англ. сокращения BInary digiT двоичный знак] Минимальная единица измерения количества информации и объёма памяти компьютера (равна одной ячейке или одному двоичному знаку типа да нет). * * * бит (англ. bit, от… … Энциклопедический словарь

Бит в секунду, бит/с (англ. bits per second, bps) базовая единица измерения скорости передачи информации, используемая на физическом уровне сетевой модели OSI или TCP/IP. На более высоких уровнях сетевых моделей, как правило, используется более… … Википедия

- (исп.). То же, что реал, монета ценностью в 16 1/2 коп. Словарь иностранных слов, вошедших в состав русского языка. Чудинов А.Н., 1910. БИТ 1 [англ. beat бить] муз. выдержанная в равномерном темпе танцевальная и легкая музыка в размере 4/4 с… … Словарь иностранных слов русского языка

- (англ. bit от binary двоичный и digit знак), двоичная единица, в теории информации единица количества информации. Бит в вычислительной технике двоичная цифра, двоичный разряд. число бит памяти ЭВМ определяет максимальное количество двоичных цифр … Большой Энциклопедический словарь

Двоичная единица информации, двоичный знак Словарь русских синонимов. бит сущ., кол во синонимов: 2 биг бит (2) е … Словарь синонимов

- (bit) Аббревиатура понятия двоичный разряд. См.: двоичная запись (binary notation). Бизнес. Толковый словарь. М.: ИНФРА М, Издательство Весь Мир. Грэхэм Бетс, Барри Брайндли, С. Уильямс и др. Общая редакция: д.э.н. Осадчая И.М.. 1998. Бит … Словарь бизнес-терминов

Бит, а; р. мн. ов, счётн. ф.бит (единица количества информации) … Русское словесное ударение

БИТ, а, муж. (спец.). Единица измерения количества информации (в 1 знач.). Толковый словарь Ожегова. С.И. Ожегов, Н.Ю. Шведова. 1949 1992 … Толковый словарь Ожегова

Единица количества информации, которая содержится в сообщении типа «да» – «нет». Бит в вычислительной технике – двоичная цифра, двоичный разряд, принимающий только два значения – 0 или 1. Одним битом можно выразить только два числа – 0 и 1.… … Энциклопедия техники

- (бит, bit) (от англ. binary двоичный и digit знак, цифра), единица кол ва информации в двоичной системе. Обычно последовательность из восьми Б. наз. байтом. Физический энциклопедический словарь. М.: Советская энциклопедия. Главный редактор А. М.… … Физическая энциклопедия



Загрузка...