Слово «информация» происходит от лат. informatio – разъяснение, изложение. Под данным понятием понимали различного рода сообщения, сведения о чем-либо, которые получали или передавали люди. Как утверждает А. Д. Урсул, первоначальные идеи об информации были преимущественно связаны с речью людей, со сведениями, которые человек получает в результате производственной, познавательной и иной деятельности.[44] В Толковом словаре русского языка дается следующая трактовка информации: «1. Сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством (спец.). Теория информации (раздел кибернетики, изучающий способы измерения и передачи информации). 2. Сообщения, осведомляющие о положении дел, о состоянии чего-нибудь. Научно-техническая информация. Газетная информация. Средства массовой информации (печать, радио, телевидение, кино). Генетическая информация (спец.) – совокупность наследственных признаков, передаваемых от клетки к клетке, от организма к организму».[45] В определении обозначены несколько видов информации, которые в различных областях знаний имеют свое специфическое значение.
В изучении данного феномена ученых интересовало все, начиная от особенностей возникновения информации и заканчивая каналами их передачи.
Таким образом, «информация» из термина обыденного языка стала превращаться, как считают многие исследователи, в одну из ведущих категорий общефилософского тезауруса.[46] Например, неотомисты (Васмут, Фессар) прямо заявляли, что информация по своей природе божественна. Экзистенциалисты (Ипполит) полагали, будто идеи теории информации созвучны философии существования. Позитивисты (Геру, Уилкинсон, Маккей) считали, что теория информации отрицает объективность закономерностей природы и доказывает их творение познающим субъектом.[47] Разнородность этих мнений говорит о том, что ученые разных философских школ и направлений искали различные методологические основы анализа понятия «информация».
С возникновением такого научного знания, как кибернетика, связаны другие подходы к изучению данного феномена (с применением математических методов анализа). Специалисты в области кибернетики одними из первых попытались выяснить сущностные признаки информации. В кибернетике это понятие стало обозначать величину, обратно пропорциональную степени вероятности события, о котором идет речь в сообщении. Но, чтобы подойти к данному пониманию, в 1928 г. Д. Хартли предложил в качестве анализа информации логарифмическую меру количества информации. Через 20 лет К. Шеннон математически обосновал и определил понятие количества информации как меры уменьшения неопределенности, что, собственно говоря, и стало переводом слова «информация»