Размер шрифта
-
+

Теория и практика массовой информации. Учебник для вузов - стр. 20

). 2. Сообщения, осведомляющие о положении дел, о состоянии чего-нибудь. Научно-техническая информация. Газетная информация. Средства массовой информации (печать, радио, телевидение, кино). Генетическая информация (спец.) – совокупность наследственных признаков, передаваемых от клетки к клетке, от организма к организму».[45] В определении обозначены несколько видов информации, которые в различных областях знаний имеют свое специфическое значение.

В изучении данного феномена ученых интересовало все, начиная от особенностей возникновения информации и заканчивая каналами их передачи.

Таким образом, «информация» из термина обыденного языка стала превращаться, как считают многие исследователи, в одну из ведущих категорий общефилософского тезауруса.[46] Например, неотомисты (Васмут, Фессар) прямо заявляли, что информация по своей природе божественна. Экзистенциалисты (Ипполит) полагали, будто идеи теории информации созвучны философии существования. Позитивисты (Геру, Уилкинсон, Маккей) считали, что теория информации отрицает объективность закономерностей природы и доказывает их творение познающим субъектом.[47] Разнородность этих мнений говорит о том, что ученые разных философских школ и направлений искали различные методологические основы анализа понятия «информация».

С возникновением такого научного знания, как кибернетика, связаны другие подходы к изучению данного феномена (с применением математических методов анализа). Специалисты в области кибернетики одними из первых попытались выяснить сущностные признаки информации. В кибернетике это понятие стало обозначать величину, обратно пропорциональную степени вероятности события, о котором идет речь в сообщении. Но, чтобы подойти к данному пониманию, в 1928 г. Д. Хартли предложил в качестве анализа информации логарифмическую меру количества информации. Через 20 лет К. Шеннон математически обосновал и определил понятие количества информации как меры уменьшения неопределенности, что, собственно говоря, и стало переводом слова «информация» в разряд научных терминов.[48] Заслуга К. Шеннона заключалась в том, что он разработал статистическую теорию информации. Доклад о своем открытии он сделал в 1948 г.

В чем суть данной теории? До К. Шеннона информацию, как правило, связывали только с человеческой речью, посредством которой передаются и циркулируют в обществе различные сведения и знания, полученные человеком в результате производственной или познавательной деятельности. По мнению К. Шеннона, информацию несет не только человеческая речь, но и вообще любые объекты и процессы, которые подчиняются статистическим закономерностям.

Страница 20