Информационный взрыв
Авторы

Информационный взрыв XX века

06.01.2019

Общаясь люди получают информацию — иногда ценную, иногда бесполезную. Но если человек не общается, то он вообще ничего не узнает. Следовательно, единственный путь к знаниям  — только через контакт с другим человеком, с книгой, со всем тем, что может оказаться источником информации.

Люди так всегда и делали. Но вот недавно они стали с тревогой замечать, что сведений во всех отраслях знаний накапливается множество и усваивать их полностью человек не успевает. Было подсчитано, что если, например, биолог или физик не будет даже спать, а станет только читать всю выходящую в мире литературу по его специальности, то и тогда он сможет усвоить не более 1/10 всех сообщаемых новостей.

Вы наверняка уже встречались с таким выражением, как информационный взрыв. Оно означает , что производство информации идёт сейчас колоссальными темпами — каждые 10 лет они удваиваются.

Ориентироваться в этом океане информации одному человеку становится не под силу. Сравнивая информационный взрыв 20 столетия со старыми добрыми временами. Учёные полушутя говорят, что последним человеком, который знал всё, был Лейбниц — крупнейший немецкий философ 17 века.

Но то, с чем уже не может сегодня справиться один человек, вполне под силу информационной технике.

Посмотрим ещё раз, как размышляли учёные над этой проблемой. Во первых, научной информации много.  Один человек удержать её в своей голове не в состоянии. Во-вторых, даже искать научную информацию сегодня очень трудно. Где же выход? И тогда возникла идея: а может быть, он не должен в одиночку и искать необходимые сведения? Пускай научные знания накапливаются, надо иметь только хороший путеводитель по маршрутам современной науки.

Мера информации

Настоящая наука начинается тогда, когда в игру вступают точные количественные соотношения. Эта истина известна всем. Но как оценить количество информации, которое может храниться в человеческой памяти?

Специалисты пытаются оценивать информативную ёмкость нашей памяти с помощью математического аппарата теории информации. Это не лучший выход из положения. Теория информации разработана специально для электрических систем связи,а не для биологических объектов. Человеческий же мозг не машина. Умственное напряжение и скорость переработки информации человеком зависят не столько от её количества, сколько от качества. Машина же  имеет дело только с количеством информации. Однако пока другой теории нет, приходится пользоваться машинными методами для оценки человеческих способностей. Конечно, при этом надо вводить кое-какие поправки.

Информация

Прежде всего, что означает само слово информация? В обычной жизни определение его такое: Информация — осведомление; сообщение о положение дел или о чьей-то деятельности, сведения о чём-либо. И всё! Просто и понятно. Иначе дело обстоит с понятием об информации в науке. Ведь ни радиопередатчик, ни вычислительная машина не интересуются ценностью перерабатываемой информации: новые это сведения или старые, есть в них смысл или нет. Для машин не важно количество. А как его  определить?

Некогда отец кибернетики Норберт Винер предложил: За единицу количество информации принимается количество информации, передаваемое при выборе равновероятных альтернатив. Иными словами, такое количество информации,  которое из двух равно возможных состояний позволяет выбрать одно. Называется такая единица бит. Слово составное, образованное сжатие английского словосочетания binari digit, что означает двоичная единица или двоичная цифра.

Информационный взрыв

Ёмкость нашей памяти

Какой объём информации может удержать в памяти средний человек — не гений, не выдающийся учёный и даже не полководец? В этом вопросе среди специалистов наблюдается очень большое расхождение во мнениях. Минимальное количество информации в памяти нормального человека равно примерно миллиону или десяти миллионам бит. Но Это очень мало. Возьмите в качестве эквивалента хотя бы таблицу умножения. На первый взгляд может показаться, что выучить около тысячи таблиц — работа гигантская, непосильная. Но тут нужно иметь в виду, что в общее количество информации входит всё, абсолютно всё: и знание того, что небо голубое, и сахар сладкий, и имена друзей и родных. Одним словом, всё, всё! Если всё это сложить, только тогда можно понять каким ничтожным количеством оказывается миллион бит. В прочим есть и другие цифры.

Американский физиолог Купер считает, что каждый нейрон головного мозга может удерживать до ста тысяч единиц информации. Если умножить эту цифру на количество нейронов (возьмём для простоты их число равным десяти миллиардам), то получаем объём 1017  бит. Это совсем другое дело. Порядок такой величины подтверждается и другими исследованиями.

В памяти человека сохраняются информация двух видов. Во-первых, та, которую сама природа закодировала в генах. Одна определяет структуру сложных макромолекул, из которых построен наш организм. Она же диктует характер и особенности биохимических реакций, протекающих в организме. Иными словами, она обеспечивает биохимическую несхожесть людей.

Во-вторых, мозг сохраняет информацию, полученную в процессе обучения и накопления жизненного опыта. Это как раз то, что нас сейчас интересует.