Меню Рубрики

Определение информации с точки зрения нейрофизиологии

Наверное, самый сложный вопрос в информатике — это «Что такое информация?». На него нет однозначного ответа. Смысл этого понятия зависит от контекста (содержания разговора, текста), в котором оно употребляется.

В курсе информатики основной школы информация рассматривалась в разных контекстах. С позиции человека, информация — это содержание сообщений, это самые разнообразные сведения, которые человек получает из окружающего мира через свои органы чувств. Из совокупности получаемой человеком информации формируются его знания об окружающем мире и о себе самом.

Рассказывая о компьютере, мы говорили, что компьютер — это универсальный программно управляемый автомат для работы с информацией. В таком контексте не обсуждается смысл информации. Смысл — это значение, которое придает информации человек. Компьютер же работает с битами, с двоичными кодами. Вникать в их «смысл» компьютер не в состоянии. Поэтому правильнее называть информацию, циркулирующую в устройствах компьютера, данными. Тем не менее в разговорной речи, в литературе часто говорят о том, что компьютер хранит, обрабатывает, передает и принимает информацию. Ничего страшного в этом нет. Надо лишь понимать, что в «компьютерном контексте» понятие «информация» отождествляется с понятием «данные».

В Толковом словаре В. И. Даля нет слова «информация». Термин «информация» начал широко употребляться с середины XX века.

В наибольшей степени понятие информации обязано своим распространением двум научным направлениям: теории связи и кибернетике. Автор теории связи Клод Шеннон, анализируя технические системы связи: телеграф, телефон, радио, рассматривал их как системы передачи информации. В таких системах информация передается в виде последовательностей сигналов: электрических или электромагнитных. Развитие теории связи послужило созданию теории информации, решающей проблему измерения информации.

Основатель кибернетики Норберт Винер анализировал разнообразные процессы управления в живых организмах и в технических системах. Процессы управления рассматриваются в кибернетике как информационные процессы. Информация в системах управления циркулирует в виде сигналов, передаваемых по информационным каналам.

В XX веке понятие информации повсеместно проникает в науку.

Нейрофизиология (раздел биологии) изучает механизмы нервной деятельности животного и человека. Эта наука строит модель информационных процессов, происходящих в организме. Поступающая извне информация превращается в сигналы электрохимической природы, которые от органов чувств передаются по нервным волокнам к нейронам (нервным клеткам) мозга. Мозг передает управляющую информацию в виде сигналов той же природы к мышечным тканям, управляя, таким образом, органами движения. Описанный механизм хорошо согласуется с кибернетической моделью Н. Винера.

В другой биологической науке — генетике используется понятие наследственной информации, заложенной в структуре молекул ДНК, присутствующих в ядрах клеток живых организмов (растений, животных). Генетика доказала, что эта структура является своеобразным кодом, определяющим функционирование всего организма: его рост, развитие, патологии и пр. Через молекулы ДНК происходит передача наследственной информации от поколения к поколению.

Понятие информации относится к числу фундаментальных, т. е. является основополагающим для науки и не объясняется через другие понятия. В этом смысле информация встает в один ряд с такими фундаментальными научными понятиями, как вещество, энергия, пространство, время. Осмыслением информации как фундаментального понятия занимается наука философия.

Согласно одной из философских концепций, информация является свойством всего сущего, всех материальных объектов мира. Такая концепция информации называется атрибутивной (информация — атрибут всех материальных объектов). Информация в мире возникла вместе со Вселенной. С такой предельно широкой точки зрения, информация проявляется в воздействии одних объектов на другие, в изменениях, к которым такие воздействия приводят.

Другую философскую концепцию информации называют функциональной. Согласно функциональному подходу, информация появилась лишь с возникновением жизни, так как связана с функционированием сложных самоорганизующихся систем, к которым относятся живые организмы и человеческое общество. Можно еще сказать так: информация — это атрибут, свойственный только живой природе. Это один из существенных признаков, отделяющих в природе живое от неживого.

Третья философская концепция информации — антропоцентрическая, согласно которой информация существует лишь в человеческом сознании, в человеческом восприятии. Информационная деятельность присуща только человеку, происходит в социальных системах. Создавая информационную технику, человек создает инструменты для своей информационной деятельности.

Делая выбор между различными точками зрения, надо помнить, что всякая научная теория — лишь модель бесконечно сложного мира, поэтому она не может отражать его точно и в полной мере.

Можно сказать, что употребление понятия «информация» в повседневной жизни происходит в антропоцентрическом контексте. Для любого из нас естественно воспринимать информацию как сообщения, которыми обмениваются люди. Например, СМИ — средства массовой информации предназначены для распространения сообщений, новостей среди населения.

Вопросы и задания

1. Какие существуют основные философские концепции информации?
2. Какая, с вашей точки зрения, концепция является наиболее верной?
3. Благодаря развитию каких наук понятие информации стало широко употребляемым?
4. В каких биологических науках активно используется понятие информации?
5. Что такое наследственная информация?
6. К какой философской концепции, на ваш взгляд, ближе употребление понятия информации в генетике?
7. Если под информацией понимать только то, что распространяется через книги, рукописи, произведения искусства, средства массовой информации, то к какой философской концепции ее можно будет отнести?
8. Согласны ли вы, что понятие информации имеет контекстный смысл? Если да, то покажите это на примерах.

Из курса основной школы вам известно:

• Историческое развитие человека, формирование человеческого общества связано с развитием речи, с появлением и распространением языков. Язык — это знаковая система для представления и передачи информации.
• Люди сохраняют свои знания в записях на различных носителях. Благодаря этому знания передаются не только в пространстве, но и во времени — от поколения к поколению.
• Языки бывают естественные, например русский, китайский, английский, и формальные, например математическая символика, нотная грамота, языки программирования.

Под словом «кодирование» понимают процесс представления информации, удобный для ее хранения и/или передачи. Следовательно, запись текста на естественном языке можно рассматривать как способ кодирования речи с помощью графических элементов (букв, иероглифов). Записанный текст является кодом, заключающим в себе содержание речи, т. е. информацию. Процесс чтения текста — это обратный по отношению к письму процесс, при котором письменный текст преобразуется в устную речь. Чтение можно назвать декодированием письменного текста. Схематически эти два процесса изображены на рис. 1.1.

Схема на рис. 1.1 типична для всех процессов, связанных с передачей информации.

Теперь обратим внимание на то, что может существовать много способов кодирования одного и того же текста на одном и том же языке. Например, русский текст мы привыкли записывать с помощью русского алфавита. Но то же самое можно сделать, используя латинский алфавит. Иногда так приходится поступать, отправляя SMS по мобильному телефону, на котором нет русских букв, или электронное письмо на русском языке за границу, если у адресата нет русифицированного программного обеспечения. Например, фразу «Здравствуй, дорогой Саша!» приходится писать так: «Zdravstvui, dorogoi Sasha!».

Существует множество способов кодирования. Например, стенография — быстрый способ записи устной речи. Стенография появилась во времена, когда не существовало техники звукозаписи. Ею владели лишь немногие специально обученные люди — стенографисты. Они успевали записывать текст синхронно с речью выступающего человека. В стенограмме один значок обозначает целое слово или сочетание букв. Расшифровать (декодировать) стенограмму мог только сам стенографист.

Посмотрите на текст стенограммы на рис. 1.2. Там написано следующее: «Говорить умеют все люди на свете. Даже у самых примитивных племен есть речь. Язык — это нечто всеобщее и самое человеческое, что есть на свете».

Можно придумать и другие способы кодирования.

Приведенные примеры иллюстрируют следующее важное правило: для кодирования одной и той же информации могут быть использованы разные способы; их выбор зависит от ряда обстоятельств: цели кодирования, условий, имеющихся средств.

Если надо записать текст в темпе речи, делаем это с помощью стенографии; если надо передать текст за границу, пользуемся латинским алфавитом; если надо представить текст в виде, понятном для грамотного русского человека, записываем его по правилам грамматики русского языка.

Еще одно важное обстоятельство: выбор способа кодирования информации может быть связан с предполагаемым способом ее обработки. Обсудим это на примере представления чисел — количественной информации. Используя русский алфавит, можно записать число «тридцать пять». Используя же алфавит арабской десятичной системы счисления, пишем: 35. Пусть вам надо произвести вычисления. Скажите, какая запись удобнее для выполнения расчетов: «тридцать пять умножить на сто двадцать семь» или «35 х 127»? Очевидно, что для перемножения многозначных чисел вы будете пользоваться второй записью.

Заметим, что эти две записи, эквивалентные по смыслу, используют разные языки: первая — естественный русский язык, вторая — формальный язык математики, не имеющий национальной принадлежности. Переход от представления на естественном языке к представлению на формальном языке можно также рассматривать как кодирование. Человеку удобно использовать для кодирования чисел десятичную систему счисления, а компьютеру — двоичную систему.

Широко используемыми в информатике формальными языками являются языки программирования.

В некоторых случаях возникает потребность засекречивания текста сообщения или документа, для того чтобы его не смогли прочитать те, кому не положено. Это называется защитой от несанкционированного доступа. В таком случае секретный текст шифруется. В давние времена шифрование называлось тайнописью. Шифрование представляет собой процесс превращения открытого текста в зашифрованный, а дешифрование — процесс обратного преобразования, при котором восстанавливается исходный текст.

Шифрование — это тоже кодирование, но с засекреченным методом, известным только источнику и адресату. Методами шифрования занимается наука криптография.

С появлением технических средств хранения и передачи информации возникли новые идеи и приемы кодирования. Первым техническим средством передачи информации на расстояние стал телеграф, изобретенный в 1837 году американцем Сэмюэлем Морзе. Телеграфное сообщение — это последовательность электрических сигналов, передаваемая от одного телеграфного аппарата по проводам к другому телеграфному аппарату. Эти технические обстоятельства привели Морзе к идее использования всего двух видов сигналов — короткого и длинного — для кодирования сообщения, передаваемого по линиям телеграфной связи.

Такой способ кодирования получил название азбуки Морзе. В ней каждая буква алфавита кодируется последовательностью коротких сигналов (точек) и длинных сигналов (тире). Буквы отделяются друг от друга паузами — отсутствием сигналов.

В таблице на рис. 1.3 показана азбука Морзе применительно к русскому алфавиту. Специальных знаков препинания в ней нет. Их обычно записывают словами: «тчк» — точка, «зпт» — запятая и т. п.

Самым знаменитым телеграфным сообщением является сигнал бедствия «SOS» (Save Our Souls — спасите наши души). Вот как он выглядит в коде азбуки Морзе:

Три точки обозначают букву S, три тире — букву О. Две паузы отделяют буквы друг от друга.

Характерной особенностью азбуки Морзе является переменная длина кода разных букв, поэтому код Морзе называют неравномерным кодом. Буквы, которые встречаются в тексте чаще, имеют более короткий код, чем редкие буквы. Например, код буквы «Е» — одна точка, а код буквы «Ъ» состоит из шести знаков. Зачем так сделано? Чтобы сократить длину всего сообщения. Но из-за переменной длины кода букв возникает проблема отделения букв друг от друга в тексте. Поэтому приходится для разделения использовать паузу (пропуск). Следовательно, телеграфный алфавит Морзе является троичным, так как в нем используется три знака: точка, тире, пропуск.

Равномерный телеграфный код был изобретен французом Жаном Морисом Бодо в конце XIX века. В нем использовалось всего два вида сигналов. Неважно, как их назвать: точка и тире, плюс и минус, ноль и единица.

Это два отличающихся друг от друга электрических сигнала.

В коде Бодо длина кодов всех символов алфавита одинакова и равна пяти. В таком случае не возникает проблемы отделения букв друг от друга: каждая пятерка сигналов — это знак текста.

Код Бодо — это первый в истории техники способ двоичного кодирования информации. Благодаря идее Бодо удалось автоматизировать процесс передачи и печати букв. Был создан клавишный телеграфный аппарат. Нажатие клавиши с определенной буквой вырабатывает соответствующий пятиимпульсный сигнал, который передается по линии связи. Принимающий аппарат под воздействием этого сигнала печатает ту же букву на бумажной ленте.

Из курса информатики основной школы вам известно, что в современных компьютерах для кодирования текстов также применяется равномерный двоичный код. Проблемы кодирования информации в компьютере и при передаче данных по сети мы рассмотрим несколько позже.

Вопросы и задания

1. Чем отличаются естественные языки от формальных?
2. Как вы думаете, латынь — это естественный или формальный язык?
3. С каким формальным языком программирования вы знакомы? Для чего он предназначен?
4. Что такое кодирование и декодирование?
5. От чего может зависеть способ кодирования?
6. В чем преимущество кода Бодо по сравнению с кодом Морзе?
7. В чем преимущество кода Морзе по сравнению с кодом Бодо?

Цель работы: знакомство с простейшими приемами шифрования и дешифрования текстовой информации.

Шифр Цезаря. Этот шифр реализует следующее преобразование текста: каждая буква исходного текста заменяется следующей после нее буквой в алфавите, который считается написанным по кругу.
Используя шифр Цезаря, зашифровать следующие фразы:
а) Делу время — потехе час
б) С Новым годом
в) Первое сентября

Используя шифр Цезаря, декодировать следующие фразы:
а) Лмбттоьк шбт
б) Вёмпё тпмочё рфтуьой

Шифр Виженера. Это шифр Цезаря с переменной величиной сдвига. Величину сдвига задают ключевым словом. Например, ключевое слово ВАЗА означает следующую последовательность сдвигов букв исходного текста: 3 1 9 1 3 1 9 1 и т.д. Используя в качестве ключевого слово ЗИМА, закодировать слова: АЛГОРИТМИЗАЦИЯ, КОМПЬЮТЕР, ИНТЕРНЕТ.

Слово ЖПЮЩЕБ получено с помощью шифра Виженера с ключевым словом БАНК. Восстановить исходное слово.

С помощью табличного процессора Excel автоматизировать процесс кодирования слов с использованием ключевого слова bank (предполагается, что слова будут состоять только из строчных латинских букв и их длина не будет превышать 10 символов). Для решения задачи использовать текстовые функции СИМВОЛ и КОДСИМВОЛ. Каждая буква должна храниться в отдельной ячейке. Величина сдвига должна определяться автоматически (код буквы ключевого слова минус код буквы «а» плюс единица). Попробовать с помощью вашей таблицы зашифровать слова: algebra, geometry, english.

Используя в качестве ключа расположение букв на клавиатуре вашего компьютера, декодировать сообщение:
D ktce hjlbkfcm `kjxrf?
D ktce jyf hjckf?

Используя в качестве ключа расположение букв на клавиатуре вашего компьютера, закодировать сообщение:
Москва — столица России.

Шифр перестановки. Кодирование осуществляется перестановкой букв в слове по одному и тому же правилу. Восстановить слова и определить правило перестановки:
НИМАРЕЛ, ЛЕТОФЕН, НИЛКЙЕА, НОМОТИР, РАКДНАША.

Используя приведенный выше шифр перестановки, закодировать следующие слова: ГОРИЗОНТ, ТЕЛЕВИЗОР, МАГНИТОФОН.

Определить правило шифрования и расшифрования слова:
КЭРНОЦЛИТКЭЛУОНПИЕЖДАИФЯ
УКРОГРЕОШЛАЕКВИСЧТЕВМО

Используя приведенный ниже ключ, расшифровать сообщения.
Ключ: РА ДЕ КИ МО НУ ЛЯ
Сообщения:
а) АКБМУНИЯДКУМВРЛ ИКСЯМТР
б) ТДЯДФМУУЫЙ АРЗГМВМА

С помощью ключа из задания 11 закодировать пословицы:
а) Рыбак рыбака видит издалека
б) Сделал дело — гуляй смело

Придумать свой ключ шифрования и закодировать с помощью него сообщение:
Бит — это минимальная единица измерения информации.

источник

Первое, что отмечает врач, подходя к больному, это его сознание, без которого невозможно оценить другие про­явления психической деятельности. Человек обладает созна­нием находясь в состоянии бодрствования, однако понятия бодрствования и сознания не идентичны. Бодрствование — это физиологическое состояние активации мозга, которое можно определить на ЭЭГ по характерным α- и β-волнам. Сознание во время бодрствования может отсутствовать, например, во время сомнамбулизма у психически здорового человека или при идиотизме. В то же время в отсутствие бодрствования сознание отсутствует всегда, например, у здорового человека — во время сна. Каждый раз после сна сознание само восста­навливается.

С точки зрения нейрофизиологии можно наметить не­которые условия для возникновения «сознательной» нервной системы:

1. Сознание возникает лишь тогда, когда сигнал про­ходит через определенные части мозга. Так, мы осознаем зрительный сигнал, когда он проходит по зрительному тракту. Если мы делаем что-то новое (например, учимся во­дить машину), то это действие очень информативно, так как выполняется впервые. Но стоит нам научиться, как действия становятся автоматическими и по существу являются реф­лексами и не осознаются. Таким образом, сигналы, прохо­дящие по одним путям, достигают сознания, а по другим — не достигают.

2. Система становится «сознательной», если наблюдает себя самое. Модель подобной системы уже существует.

Видеокамера «наблюдает» то, что находится в поле ее зрения, и передает изображение на телевизионный экран. Если ви­деокамера наблюдает этот же телевизионный экран, то это уже система самонаблюдения. Рисунок, который создается на экране подобной системой, носит следы упорядоченности. Аналогично мозг наблюдает сам себя и отдает отчет во всех текущих событиях.

3. Возможным коррелятом сознания являются ритмы бодрствующего мозга. В частности, считается, что α-ритм является ритмом самосканирования мозга. Все нарушения ритма, вызванные его десинхронизацией в связи с приемом информации, отражают процессы восприятия, памяти, эмо­ции.

Поиски т.н. «центра сознания» пока безрезультатны. И. П. Павлов считал, что сознание — это участок оптималь­ного возбуждения определенного участка коры больших по­лушарий. Напротив, У.Пэнфилд (W.Penfield) приводил суще­ственные факты в пользу того, что сознание зарождается в подкорковых и даже стволовых структурах мозга (мезенце-фалическая ретикулярная формация). Это очень необычно, так как сознание помещается в самую недифференцирован­ную область мозга — в ретикулярную формацию. Представле­ния У.Пэнфилда известны как «центрэнцефалон» или «центрэнцефалическая система».

4. Одним из ключевых моментов в понимании физио­логии сознания является разделенность на сферы внешнего и внутреннего мира — «Я» и «не-Я». Поиски нейрофизиологиче­ ского «гомункулюса» — подобия человечка внутри мозга, от­
вечающего за наше «Я», — совершенно бесплодны (Ф.Крик, 1982). Наше «Я» — это информационная динамическая система, и поэтому бесполезно искать ее точную локализацию.
Однако достаточно «прикоснуться» к коре мозга сенсорным сигналом, и «Я» в виде памяти о прошлых событиях само придет на встречу с этим сигналом, обнаруживая тем самым себя.

Такая точка зрения практически совпадает с нейрофи­зиологическими исследованиями В.Маунткастла (V.Mount-castle). Согласно его исследованиям, нейроны коры собраны в функциональные объединения — вертикальные колонки и модули (см. рис. 4), которые могут получать прямую информацию от органов чувств, а также повторную, внут­реннюю информацию от подкорковых центров. Сознание, таким образом, это распределенная по всей коре система нейронов, которая непрерывно производит сравнение теку­щей информации о внешнем мире с информацией внутрен­ней, извлеченной из памяти. Подобная распределенность имеет очень важное значение, поскольку даже обширное по­вреждение коры не способно разрушить все связи, и у боль­ного может сохраниться сознание и интеллект.

Сигнал внешней среды, даже если он дошел до сен­сорной коры, пока еще не создает ощущения. Образ сигнала из сенсорной коры отправляется в структуры, отвечающие за память, где происходит сравнение пришедшего стимула с аналогами, которые хранятся в памяти. В этот момент и соз­дается субъективный образ стимула (ощущение). Далее центр интеграции перемещается в лобные области коры, где возни­кает опознание стимула и отнесение его к определенной ка­тегории. Важную роль в процессе сознания играет межполу -шарное взаимодействие и участие речевых зон коры.

Сенсорный приток необходим для нормальной психи­ческой деятельности и сознания (события, новая информа­ция). Исследование Д.Хэбба (D.Habb) показало, что полное лишение ощущений может привести к нарушению сознания. В его исследовании студентам предлагалось провести в по стели (тепловой комфорт) несколько часов при полном от­сутствии звуков и света. Выяснилось, что у большинства сту­дентов уже через несколько часов появились галлюцинации. В исследовании Дж.Спрага (J.Sprague) у животных с перере­занными лемнисковыми путями усиливалась двигательная активность (для поиска информации). Это свидетельствует о том, что сознание поддерживается притоком информации.

В настоящее время предпринимаются попытки созда­ния теории сознания и психических функций в целом на ос­нове аналогии с иммунными реакциями (А.М.Иваницкий и др., 1984). Иммунная система способна различать «свои» и «чужие» белки, оберегая постоянство химической среды ор­ганизма. Аналогично система сознания должна быть в со­стоянии различать «Я» и «не-Я» для сохранения относитель­ного постоянства личностных характеристик. Это постоян­ство должно иметь устойчивое мозговое обеспечение. Связь нашего «Я» с памятью, с прошлым опытом обусловливает распределенностъ сознания по всем структурам мозга. Наше «Я» закреплено в миллионах синапсов, индивидуальной ней-рохимии мозга и его ритмах.

Согласно современным представлениям, у новорож­денного сознания нет, хотя психическая деятельность безус­ловно есть. То, что ребенок кричит, двигается, осуществляет простейшие рефлексы, говорит не о сознании, а о бодрст­вующем состоянии мозга. Наблюдения за анэнцефалами, у которых имеется врожденное отсутствие больших полуша­рий, показало, что они могут прожить до нескольких меся­цев, нормально питаться, обладают хватательным рефлексом, стволовыми рефлексами. Отличие заключается в том, что у анэнцефалов реакции не меняются со временем, тогда как у нормального ребенка характер двигательной и психической деятельности постепенно усложняется и существенно упоря дочивается. Таким образом, у новорожденного есть генетиче­ски обусловленная возможность формирования сознания, ко­торое должно появиться под действием сенсорной информа­ции. Именно богатая сенсорная среда формирует индивиду­альные связи между нейронами мозга. Подробную дискуссию о значении врожденных факторов и жизненного (сенсорного) опыта в формировании сознания у ребенка можно найти в книге Х.Дельгадо «Мозг и сознание» (1971).

Сознание и его нарушения имеют важное клиническое значение. Нарушения сознания в виде его постепенного вы­ключения выстраиваются в следующий континуум: ясное сознание — ступор (оглушение) — сопор (бесчувственность при сохранении болевых, зрачковых и корнеальных рефлексов) —кома (отсутствие всех рефлексов). Временным отключением сознания является также обморок вследствие нарушения кро­воснабжения мозга. Нарушения сознания могут также проте­кать в виде его помрачения — аменция, делирий, онейроид и т.д.

Не нашли то, что искали? Воспользуйтесь поиском:

источник

Подать заявку

Для учеников 1-11 классов и дошкольников

Тестирование №1 «Информация. Измерение информации»

1. С точки зрения нейрофизиологии, информация – это:

а) символы; б) сигналы; в) содержание генетического кода; г) интеллект.

2. С точки зрения алфавитного (объемного) подхода 1 бит — это …

3. Переведите в Килобайты: а) 10240 бит, б) 20 Мбайт

Ста­тья, на­бран­ная на ком­пью­те­ре, со­дер­жит 8 стра­ниц, на каж­дой стра­ни­це 40 строк, в каж­дой стро­ке 64 сим­во­ла. Ин­фор­ма­ци­он­ный объём ста­тьи со­став­ля­ет 25 Кбайт. Опре­де­ли­те, сколь­ко бит па­мя­ти ис­поль­зу­ет­ся для ко­ди­ро­ва­ния каж­до­го сим­во­ла, если из­вест­но, что для пред­став­ле­ния каж­до­го сим­во­ла в ЭВМ от­во­дит­ся оди­на­ко­вый объём па­мя­ти.

5. В не­ко­то­рой стра­не ав­то­мо­биль­ный номер дли­ной 7 сим­во­лов со­став­ля­ют из за­глав­ных букв (за­дей­ство­ва­но 26 раз­лич­ных букв) и де­ся­тич­ных цифр в любом по­ряд­ке.

Каж­дый такой номер в ком­пью­тер­ной про­грам­ме за­пи­сы­ва­ет­ся ми­ни­маль­но воз­мож­ным и оди­на­ко­вым целым ко­ли­че­ством байт (при этом ис­поль­зу­ют по­сим­воль­ное ко­ди­ро­ва­ние и все сим­во­лы ко­ди­ру­ют­ся оди­на­ко­вым и ми­ни­маль­но воз­мож­ным ко­ли­че­ством бит).

Опре­де­ли­те объем па­мя­ти, от­во­ди­мый этой про­грам­мой для за­пи­си 40 но­ме­ров.

1) 120 байт 2) 160 байт 3) 200 байт 4) 240 байт

Тестирование №1 «Информация. Измерение информации»

С точки зрения генетики, информация – это:

а) символы; б) сигналы; в) содержание генетического кода; г) интеллект.

2. С точки зрения содержательного подхода 1 бит — это …

3. Переведите в байты: а) 1024 бита, б) 2,5 Мбайта

4. Ста­тья, на­бран­ная на ком­пью­те­ре, со­дер­жит 64 стра­ни­цы, на каж­дой стра­ни­це 40 строк, в каж­дой стро­ке 64 сим­во­ла. Опре­де­ли­те раз­мер ста­тьи в ко­ди­ров­ке КОИ-8, в ко­то­рой каж­дый сим­вол ко­ди­ру­ет­ся 8 би­та­ми.

1) 160 Кбайт 2) 320 Кбайт 3) 1280 байт 4) 2560 байт

5. В ма­ра­фо­не участ­ву­ют 300 ат­ле­тов. Спе­ци­аль­ное устрой­ство ре­ги­стри­ру­ет про­хож­де­ние каж­дым из участ­ни­ков про­ме­жу­точ­но­го фи­ни­ша, запи­сывая его номер с ис­поль­зо­ва­ни­ем ми­ни­маль­но воз­мож­но­го ко­ли­че­ства бит, оди­на­ко­во­го для каж­до­го спортс­ме­на. Каков ин­фор­ма­ци­он­ный объем со­об­ще­ния, за­пи­сан­но­го устрой­ством, по­сле того как про­ме­жу­точ­ный финиш про­шли 160 спортс­ме­нов?

1) 1600 бит 2) 140 байт 3) 160 байт 4) 180 байт

Тестирование №1 «Информация. Измерение информации»

С точки зрения кибернетического подхода, информация – это:

а) символы (сигналы); б) буквы и цифры в) знания; г) интеллект.

2. С точки зрения алфавитного (объемного) подхода 1 бит — это …

3. Переведите в байты: а) 10240 бит, б) 2,5 Кбайта

4. Глав­ный ре­дак­тор жур­на­ла от­ре­дак­ти­ро­вал ста­тью, и её объём умень­шил­ся на 2 стра­ни­цы. Каж­дая стра­ни­ца со­дер­жит 32 стро­ки, в каж­дой стро­ке 64 сим­во­ла. Ин­фор­ма­ци­он­ный объём ста­тьи до ре­дак­ти­ро­ва­ния был равен 2 Мбайт. Ста­тья пред­став­ле­на в ко­ди­ров­ке Unicode, в ко­то­рой каж­дый сим­вол ко­ди­ру­ет­ся 2 бай­та­ми. Опре­де­ли­те ин­фор­ма­ци­он­ный объём ста­тьи в Кбай­тах в этом ва­ри­ан­те пред­став­ле­ния Unicode после ре­дак­ти­ро­ва­ния.

5. При ре­ги­стра­ции в ком­пью­тер­ной си­сте­ме каж­до­му поль­зо­ва­те­лю выдаётся па­роль, со­сто­я­щий из 14 сим­во­лов и со­дер­жа­щий толь­ко сим­во­лы Е, Г, Э, 2, 0, 1, 4. Каж­дый такой па­роль в ком­пью­тер­ной про­грам­ме за­пи­сы­ва­ет­ся ми­ни­маль­но воз­мож­ным и оди­на­ко­вым целым ко­ли­че­ством байт (при этом ис­поль­зу­ют по­сим­воль­ное ко­ди­ро­ва­ние и все сим­во­лы ко­ди­ру­ют­ся оди­на­ко­вым и ми­ни­маль­но воз­мож­ным ко­ли­че­ством бит).

Опре­де­ли­те объём па­мя­ти, от­во­ди­мый этой про­грам­мой для за­пи­си 30 па­ро­лей.

1) 150 байт 2) 180 байт 3) 210 байт 4) 240 байт

Тестирование №1 «Информация. Измерение информации»

1. С точки зрения генетики, информация – это:

а) символы; б) сигналы; в) содержание генетического кода; г) интеллект.

2. С точки зрения алфавитного (объемного) подхода N — это …

3. Переведите в биты: а) 2048 байта, б) 1,5 Мбайта

4. В одном из из­да­ний книги М.А. Бул­га­ко­ва «Ма­стер и Мар­га­ри­та» 256 стра­ниц. Какой объём па­мя­ти (в Мбай­тах) за­ня­ла бы эта книга, если бы Ми­ха­ил Афа­на­сье­вич на­би­рал её на ком­пью­те­ре и со­хра­нял текст в одном из пред­став­ле­ний Unicode, в ко­то­ром каж­дый сим­вол за­ни­ма­ет 16 бит па­мя­ти? На одной стра­ни­це по­ме­ща­ет­ся 64 стро­ки, а в стро­ке 64 сим­во­ла.

5. В не­ко­то­рой стра­не ав­то­мо­биль­ный номер со­сто­ит из 6 сим­во­лов. В ка­че­стве сим­во­лов ис­поль­зу­ют 33 раз­лич­ные буквы и де­ся­тич­ные цифры в любом по­ряд­ке.

Каж­дый такой номер в ком­пью­тер­ной про­грам­ме за­пи­сы­ва­ет­ся ми­ни­маль­но воз­мож­ным и оди­на­ко­вым целым ко­ли­че­ством бай­тов, при этом ис­поль­зу­ют по­сим­воль­ное ко­ди­ро­ва­ние и все сим­во­лы ко­ди­ру­ют­ся оди­на­ко­вым и ми­ни­маль­но воз­мож­ным ко­ли­че­ством битов. Опре­де­ли­те объем па­мя­ти, от­во­ди­мый этой про­грам­мой для за­пи­си 125 но­ме­ров.

1) 375 байт 2) 750 байт 3) 500 байт 4) 625 байт

Тестирование №1 «Информация. Измерение информации»

С точки зрения теории информации информация – это:

а) символы; б) сигналы; в) содержание генетического кода; г) интеллект.

2. С точки зрения содержательного подхода N – это…

3. Переведите в Килобайты: а) 20480 бит, б) 10 Мбайт

4. Ста­тья, на­бран­ная на ком­пью­те­ре, со­дер­жит 32 стра­ни­цы, на каж­дой стра­ни­це 40 строк, в каж­дой стро­ке 48 сим­во­лов. Опре­де­ли­те раз­мер ста­тьи в ко­ди­ров­ке КОИ-8, в ко­то­рой каж­дый сим­вол ко­ди­ру­ет­ся 8 би­та­ми.

1) 120 Кбайт 2) 480 байт 3) 960 байт 4) 60 Кбайт

5. Для ре­ги­стра­ции на сайте не­ко­то­рой стра­ны поль­зо­ва­те­лю тре­бу­ет­ся при­ду­мать па­роль. Длина па­ро­ля — ровно 6 сим­во­лов. В ка­че­стве сим­во­лов могут быть ис­поль­зо­ва­ны де­ся­тич­ные цифры и 27 раз­лич­ных букв мест­но­го ал­фа­ви­та, причём все буквы ис­поль­зу­ют­ся в двух на­чер­та­ни­ях: как строч­ные, так и про­пис­ные (ре­гистр буквы имеет зна­че­ние!). Под хра­не­ние каж­до­го та­ко­го па­ро­ля на ком­пью­те­ре от­во­дит­ся оди­на­ко­вое и ми­ни­маль­но воз­мож­ное целое ко­ли­че­ство бай­тов. При этом ис­поль­зу­ет­ся по­сим­воль­ное ко­ди­ро­ва­ние, и все сим­во­лы ко­ди­ру­ют­ся оди­на­ко­вым и ми­ни­маль­но воз­мож­ным ко­ли­че­ством битов. Опре­де­ли­те объём па­мя­ти, ко­то­рый ис­поль­зу­ет­ся для хра­не­ния 55 па­ро­лей.

1) 220 байт 2) 275 байт 3) 330 байт 4) 385 байт

Тестирование №1 «Информация. Измерение информации»

С точки зрения кибернетического подхода, информация – это:

а) символы (сигналы); б) буквы и цифры; в) знания; г) интеллект.

2. Расположите алфавиты в порядке убывания их мощности.

2) алфавит таблицы Unicode

3) алфавит записи целых чисел в шестнадцатеричной системе счисления

4) алфавит записи целых чисел в десятичной системе счисления

3. Переведите в байты: а) 2560 бит, б) 2,5 Мбайта

4. Ста­тья, на­бран­ная на ком­пью­те­ре, со­дер­жит 64 стра­ни­цы, на каж­дой стра­ни­це 40 строк, в каж­дой стро­ке 40 сим­во­лов. Опре­де­ли­те раз­мер ста­тьи в ко­ди­ров­ке КОИ-8, в ко­то­рой каж­дый сим­вол ко­ди­ру­ет­ся 8 би­та­ми.

1) 100 Кбайт 2) 1600 байт 3) 800 байт 4) 200 Кбайт

5. В не­ко­то­рой стра­не ав­то­мо­биль­ный номер дли­ной 7 сим­волов со­став­ля­ют из за­глав­ных букв (ис­поль­зу­ют­ся толь­ко 25 раз­лич­ных букв) и де­ся­тич­ных цифр в любом по­ряд­ке. Каж­дый такой номер в ком­пью­тер­ной про­грам­ме за­пи­сы­ва­ется ми­ни­маль­но воз­мож­ным и оди­на­ко­вым целым ко­ли­чест­вом бай­тов (при этом ис­поль­зу­ют по­сим­воль­ное ко­ди­ро­ва­ние и все сим­во­лы ко­ди­ру­ют­ся оди­на­ко­вым и ми­ни­маль­но воз­мож­ным ко­ли­че­ством битов). Опре­де­ли­те объём па­мя­ти, от­во­ди­мый этой про­грам­мой для за­пи­си 50 но­ме­ров.

1) 150 байт 2) 350 байт 3) 250 байт 4) 300 байт

источник

Нейрофизиология – это раздел физиологии, который занимается изучением функций нервной системы и нейронов, являющихся её основными структурными единицами. Она тесным образом связана с психологией, этологией, нейроанатомией, а также со многими другими науками, изучающими мозг. Впрочем, это общее определение. Стоит его расширить и обратить внимание на другие аспекты, касающиеся данной темы. А их немало.

Именно в XVII веке были выдвинуты первые представления о таком (ещё не существовавшем тогда) научном разделе, как нейрофизиология. Развития её могло и не быть, если бы не накопления сведений о гистологическом и анатомическом строении нервной системы. Эксперименты по изучению нового медицинского раздела начались в XIX веке – до этого были лишь теории. Первые из которых выдвигал Р. Декарт.

Правда, изначально эксперименты были не особо гуманными. Первым делом учёным (Ч. Беллу и Ф. Мажанди) удалось выяснить, что после перерезки задних спинномозговых корешков пропадает чувствительность. А если то же самое проделать и с передними – пропадёт способность двигаться.

Но наиболее известный нейрофизиологический эксперимент (который, кстати, известен каждому из нас) провёл И. П. Павлов. Именно он открыл условные рефлексы, что дало доступ к объективной регистрации тех нервных процессов, которые протекают в коре головного мозга. Всё это – нейрофизиология. Высшая нервная деятельность, о которой сейчас и шла речь, была определена в ходе экспериментов, проводимых в рамках данного медицинского раздела.

У нейрофизиологии, в отличие от неврологии, нейробиологии и всех других наук, с которыми она имеет связь, есть одно отличие. И заключается оно в следующем: данный раздел занимается непосредственно теоретической разработкой всей неврологии в целом.

В наше время наука, как и медицина, шагнула очень далеко. И на современном этапе все функции нейрофизиологии выстраиваются на изучении и понимании интегративной деятельности нашей нервной системы. Что происходит при помощи вживлённых и поверхностных электродов, а также температурных раздражителей ЦНС.

Вместе с тем продолжается развитие изучения клеточных механизмов – оно тоже подразумевает использование современной микроэлектродной техники. Это довольно-таки сложный и кропотливый процесс, ведь для того чтобы начать исследование, необходимо «вживить» микроэлектрод внутрь нейрона. Только так на них будет поступать информация, касающаяся развития процессов торможения и возбуждения.

Она также используется учеными в наше время. Электронная микроскопия даёт возможность изучить, как именно кодируется и передаётся информация в нашем мозгу. Основы нейрофизиологии изучены, и благодаря современным технологиям уже существуют целые центры, в которых ученые моделируют отдельные нервные сети и нейроны. Соответственно, сегодня нейрофизиология – это ещё и наука, связанная с кибернетикой, химией и бионикой. И прогресс очевиден — в наши дни диагностика и последующее лечение эпилепсии, рассеянного склероза, инсульта и нарушений двигательного аппарата являются реальностью.

Нейрофизиология мозга человека (как головного, так и спинного) исследует его специфические функции с помощью электрофизиологических методов измерения. Процесс экспериментальный – только благодаря внешним воздействиям, можно добиться появления вызванных потенциалов. Это биоэлектрические сигналы.

Данный метод даёт возможность получить информацию о функциональном состоянии мозга и деятельности его глубинных отделов, причем в них можно даже не внедряться. На сегодняшний день этот метод широко применяет клиническая нейрофизиология. Цель заключается в выяснении информации, касающейся состояния разных сенсорных систем, таких как осязание, слух, зрение. При этом исследуются как периферические нервы, так и центральные.

Польза этого метода очевидна. Врачи получают объективную информацию непосредственно от организма. Пропадает необходимость опрашивать пациента. Что особенно хорошо в случае с маленькими детьми или людьми с нарушением сознания, которые в силу своего возраста или состояния не могут выразить ощущения словами.

Вниманием стоит отметить и данную тему. Существует такое понятие, как хирургическая нейрофизиология. Это, говоря иными словами, «прикладная» сфера. Практикуется она хирургами-нейрофизиологами, которые прямо во время операции наблюдают за тем, как функционирует нервная система их пациента. Данный процесс, чаще всего, сопровождается электрофизиологическим исследованием определённых участков ЦНС оперируемого. Это, к слову, имеет отношение к обширной клинической дисциплине, называющейся нейромониторингом.

Про него стоит рассказать более подробно. Нейрофизиология – это дисциплина, позволяющая выяснить немало важной информации, которая может поспособствовать лечению пациента. И метод вызванных потенциалов применяется по отношению к зрительной, акустической, слуховой, соматосенсорной и транскраниальной функциям.

Суть его заключается в следующем: врач выделяет и усредняет самые слабые потенциалы биоэлектрической мозговой активности, что является ответом на афферентные стимулы. Методика надёжна, поскольку она подразумевает использование единого алгоритма трактовки.

Благодаря таким исследованиям получается выявить у пациента неврологические расстройства разной степени, а также расстройства, которые поразили сенсомоторную кору мозга, проводящие пути сетчатки, функцию слуха и т. д. Более того, возможность просчитывать влияние наркоза на человеческий организм стала реальной. Теперь, с помощью данного метода, получается оценить кому, спрогнозировать её развитие и вычислить вероятную смерть мозга.

Врачи-нейрофизиологи являются не только медиками, но ещё и аналитиками. Посредством различных исследований специалист может определить, насколько сильно поражена ЦНС. Это даёт путь к установлению точного диагноза и назначению грамотного, правильного лечения.

Взять, к примеру, обычную головную боль — она может быть последствием сосудистых спазмов и повышенного внутричерепного давления. Но нередко это ещё симптом развивающейся опухоли или даже судорожного синдрома. К счастью, в наше время есть несколько методов, посредством которых врачи выясняют, что именно происходит с пациентом. О них можно рассказать напоследок.

Итак, первое – это ЭЭГ, или реоэнцефалография, как её называют врачи. Посредством ЭЭГ диагностируют эпилепсию, опухоли, травмы, воспалительные и сосудистые заболевания мозга. Показанием для реоэнцефалографии являются припадки, судороги, разговоры и блуждания во время сна, а также недавно перенесённое отравление ядами. ЭЭГ является единственным исследованием, которое можно провести, даже если пациент находится без сознания.

РЭГ (электроэнцефалография) помогает выявить причины сосудистых патологий мозга. Благодаря данному исследованию получается изучить церебральный кровоток. Исследование осуществляется посредством пропускания через ткани головного мозга слабого высокочастотного тока. Рекомендовано при повышенном или пониженном давлении и мигренях. Процедура безболезненная и безопасная.

ЭНМГ – последнее популярное исследование. Это электронейромиография, за счет которой исследуются поражения, затронувшие нейромоторный периферический аппарат. Показаниями является миостения, миотония, остеохондроз, а также дегенеративные, токсические и воспалительные заболевания.

источник

Существует множество определений и взглядов на понятие «информация». Так, например, наиболее общее философское определение звучит следующим образом: «Информация есть отражение реального мира. Информация — отраженное разнообразие, то есть нарушение однообразия. Информация является одним из основных универсальных свойств материи». В узком, практическом толковании определение понятия «информация» представляется так: «Информация есть все сведения, являющееся объектом хранения, передачи и преобразования».

Автор теории информации К. Шеннон (1916) определил понятие информации как коммуникацию, связь, в процессе которой устраняется неопределенность. Шеннон предложил в к. 40-х годов единицу измерения информации — бит. Каждому сигналу в теории приписывалась априорная вероятность его появления. Чем меньше вероятность появления того или иного сигнала, тем больше информации он несет для потребителя (т.е. чем неожиданнее новость, тем больше ее информативность).

Информация равна нулю, когда возможно только одно событие. С ростом числа событий она увеличивается и достигает максимального значения, когда события равновероятны. При таком понимании информация — это результат выбора из набора возможных альтернатив. Однако математическая теория информации не охватывает все богатство содержания информации, поскольку она не учитывает содержательную сторону сообщения.

Дальнейшее развитие математического подхода к понятию «информация» отмечается в работах логиков (Р. Карнап, И. Бар-Хиллел) и математиков (А.Н. Колмогоров). В этих теориях понятие информации не связано ни с формой, ни с содержанием сообщений, передаваемых по каналу связи. Понятие «информация» в данном случае определяется как абстрактная величина, не существующая в физической реальности, подобно тому, как не существует мнимое число или не имеющая линейных размеров точка.

С кибернетической точки зрения информация (информационные процессы) есть во всех самоуправляемых системах (технических, биологических, социальных). При этом одна часть кибернетиков определяет информацию как содержание сигнала, сообщения, полученного кибернетической системой из внешнего мира. Здесь сигнал отождествляется с информацией, они рассматриваются как синонимы. Другая часть кибернетиков трактуют информацию как меру сложности структур, меру организации. Вот как определяет понятие «информация» американский ученый Б.Винер, сформулировавший основные направления кибернетики, автор трудов по математическому анализу, теории вероятностей, электрическим сетям и вычислительной техники: информация — это обозначение содержания, полученного из внешнего мира.

В физике информация выступает в качестве меры разнообразия. Чем выше упорядоченность (организованность) системы объекта, тем больше в ней содержится «связанной» информации. Отсюда делается вывод, что информация — фундаментальная естественнонаучная категория, находящаяся рядом с такими категориями как «вещество» и «энергия», что она является неотъемлемым свойством материи и потому существовала и будет существовать вечно. Так, например, французский физик Л. Бриллюэн (1889-1969), основоположник зонной теории твердых тел, автор трудов по квантовой механике, магнетизму, радиофизики, философии естествознания, теории информации определяет информацию как отрицание энтропии (энтропия — мера неопределенности, учитывающая вероятность появления и информативность тех или иных сообщений).

С 50-60-х годов терминология теории информации стала применяться и в физиологии (Д. Адам). Была обнаружена близкая аналогия между управлением и связью в живом организме и в информационно-технических устройствах. В результате введения понятия «сенсорная информация» (т.е. оптические, акустические, вкусовые, тепловые и прочие сигналы, поступающие к организму извне или вырабатываемые внутри его, которые преобразуются в импульсы электрической или химической природы, передающиеся по нейронным цепям в центральную нервную систему и от нее — к соответствующим эффекторам) появились новые возможности для описания и объяснения физиологических процессов раздражимости, чувствительности, восприятия окружающей среды органами чувств и функционирования нервной системы.

В рамках генетики было сформулировано понятие генетической информации — как программа (код) биосинтеза белков, материально представленных полимерными цепочками ДНК. Генетическая информация заключена преимущественно в хромосомах, где она зашифрована в определенной последовательности нуклеидов в молекулах ДНК. Реализуется эта информация в ходе развития особи (онтогенеза).

Таким образом, систематизируя вышеизложенное, можно сделать вывод, что для инженеров, биологов, генетиков, психологов понятие «информации» отождествляется с теми сигналами, импульсами, кодами, которые наблюдаются в технических и биологических системах. Радиотехники, телемеханики, программисты понимают под информацией рабочее тело, которое можно обрабатывать, транспортировать, так же как электричество в электротехнике или жидкость в гидравлике. Это рабочее тело состоит из упорядоченных дискретных или непрерывных сигналов, с которыми и имеет дело информационная техника.

С правовой точки зрения информация определяется как «некоторая совокупность различных сообщений о событиях, происходящих в правовой системе общества, ее подсистемах и элементах и во внешней по отношению к данным правовым информационным образования среде, об изменениях характеристик информационных образований и внешней среды, или как меру организации социально-экономических, политических, правовых, пространственных и временных факторов объекта. Она устраняет в правовых информационных образованиях, явлениях и процессах неопределенность и обычно связана с новыми, ранее неизвестными нам явлениями и фактами».

Информация с экономической точки зрения — это стратегический ресурс, один из основных ресурсов роста производительности предприятия. Информация — основа маневра предпринимателя с веществом и энергией, поскольку именно информация позволяет устанавливать стратегические цели и задачи предприятия и использовать открывающиеся возможности; принимать обоснованные и своевременные управленческие решения; координировать действия различных подразделений, направляя их усилия на достижение общих поставленных целей. Например, маркетологи Р.Д. Базел, Д.Ф. Кокс, Р.В. Браун определяют понятие «информация» следующим образом: «информация состоит из всех объективных фактов и всех предположений, которые влияют на восприятие человеком, принимающим решение, сущности и степени неопределенностей, связанных с данной проблемой или возможностью (в процессе управления). Все, что потенциально позволит снизить степень неопределенности, будь то факты, оценки, прогнозы, обобщенные связи или слухи, должно считаться информацией».

В менеджменте под информацией понимаются сведения об объекте управления, явлениях внешней среды, их параметрах, свойствах и состоянии на конкретный момент времени. Информация является предметом управленческого труда, средством обоснования управленческих решений, без которых процесс воздействия управляющей подсистемы на управляемую и их взаимодействие невозможен. В этом смысле информация выступает основополагающей базой процесса управления.

Значение информации для бизнеса определили Д.И. Блюменау и А.В. Соколов: «информация — это продукт научного познания, средство изучения реальной действительности в рамках, допустимых методологией одного из информационных подходов к исследованию объектов различной природы (биологических, технических, социальных). Подход предполагает описание и рассмотрение этих объектов в виде системы, включающей в себя источник, канал и приемник управляющих воздействий, допускающих их содержательную интерпретацию». Если попытаться объединить предложенные подходы, то получится следующее:

Данные несут в себе информацию о событиях, произошедших в материальном мире, поскольку они являются регистрацией сигналов, возникших в результате этих событий. Однако данные не тождественны информации. Станут ли данные информацией, зависит от того, известен ли метод преобразования данных в известные понятия. То есть, чтобы извлечь из данных информацию необходимо подобрать соответствующий форме данных адекватный метод получения информации. Данные, составляющие информацию, имеют свойства, однозначно определяющие адекватный метод получения этой информации. Причем необходимо учитывать тот факт, что информация не является статичным объектом — она динамически меняется и существует только в момент взаимодействия данных и методов. Все прочее время она пребывает в состоянии данных. Информация существует только в момент протекания информационного процесса. Все остальное время она содержится в виде данных.

Одни и те же данные могут в момент потребления представлять разную информацию в зависимости от степени адекватности взаимодействующих с ними методов.

По своей природе данные являются объективными, так как это результат регистрации объективно существующих сигналах, вызванных изменениями в материальных телах или полях. Методы являются субъективными. В основе искусственных методов лежат алгоритмы (упорядоченные последовательности команд), составленные и подготовленные людьми (субъектами). В основе естественных методов лежат биологические свойства субъектов информационного процесса. Таким образом, информация возникает и существует в момент диалектического взаимодействия объективных данных и субъективных методов.

Переходя к рассмотрению подходов к определению понятия «знания» можно выделить следующие трактовки. Знания — это:

  • * вид информации, отражающей знания, опыт и восприятие человека — специалиста (эксперта) в определенной предметной области;
  • * множество всех текущих ситуаций в объектах данного типа и способы перехода от одного описания объекта к другому;
  • * осознание и толкование определенной информации, с учетом путей наилучшего ее использования для достижения конкретных целей, характеристиками знаний являются: внутренняя интерпретируемость, структурируемость, связанность и активность.

Основываясь на приведенных выше трактовках рассматриваемых понятий, можно констатировать тот факт, что знание — это информация, но не всякая информация — знание. Информация выступает как знания, отчужденные от его носителей и обобществленные для всеобщего пользования. Другими словами, информация — это превращенная форма знаний, обеспечивающая их распространение и социальное функционирование. Получая информацию, пользователь превращает ее путем интеллектуального усвоения в свои личностные знания. Здесь мы имеем дело с так называемыми информационно-когнитивными процессами, связанными с представлением личностных знаний в виде информации и воссозданием этих знаний на основе информации.

В превращении информации в знание участвует целый ряд закономерностей, регулирующих деятельность мозга, и различных психических процессов, а также разнообразных правил, включающих знание системы общественных связей, — культурный контекст определенной эпохи. Благодаря этому знание становится достоянием общества, а не только отдельных индивидов. Между информацией и знаниями имеется разрыв. Человек должен творчески перерабатывать информацию, чтобы получить новые знания.

Таким образом, учитывая вышеизложенное, можно сделать вывод, что фиксируемые воспринимаемые факты окружающего мира представляют собой данные. При использовании данных в процессе решения конкретных задач — появляется информация. Результаты решения задач, истинная, проверенная информация (сведения), обобщенная в виде законов, теорий, совокупностей взглядов и представлений представляет собой знания.

источник

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ

Государственное образовательное учреждение высшего профессионального образования

«САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ
АЭРОКОСМИЧЕСКОГО ПРИБОРОСТРОЕНИЯ»

Факультет N4 Факультет вычислительных систем и программирования

должность, уч. степень, звание

по дисциплине: ИНФОРМАТИКА

Гаранина И.Г.

подпись, дата инициалы, фамилия
Читайте также:  Вижу первую строчку таблицы для зрения

Понятие информации и информатики

Основные понятия информации

Большинство ученых в наши дни отказываются от попыток дать строгое определение информации и считают, что информацию следует рассматривать как первичное, неопределимое понятие подобно множества в математике. Некоторые авторы учебников предлагают следующие определения информации:

Информация – это знания или сведения о ком-либо или о чем-либо.
Информация – это сведения, которые можно собирать, хранить, передавать, обрабатывать, использовать.
Информатика – наука об информации
или
– это наука о структуре и свойствах информации, способах сбора, обработки и передачи информации
или
– информатика, изучает технологию сбора, хранения и переработки информации, а компьютер основной инструмент в этой технологии.

Термин информация происходит от латинского слова informatio, что означает сведения, разъяснения, изложение. В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

1. в быту информацией называют любые данные, сведения, знания, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.;

2. в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов (в этом случае есть источник сообщений, получатель (приемник) сообщений, канал связи);

3. в кибернетике под информацией понимают ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;

4. в теории информации под информацией понимают сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Информация – это отражение внешнего мира с помощью знаков или сигналов.
Информационная ценность сообщения заключается в новых сведениях, которые в нем содержатся (в уменьшении незнания).

Читайте также:  Инфаркт глаза можно ли вернуть зрение

1. полнота — свойство информации исчерпывающе (для данного потребителя) характеризовать отображаемый объект или процесс;

2. актуальность— способность информации соответствовать нуждам потребителя в нужный момент времени;

3. достоверность — свойство информации не иметь скрытых ошибок. Достоверная информация со временем может стать недостоверной, если устареет и перестанет отражать истинное положение дел;

4. доступность — свойство информации, характеризующее возможность ее получения данным потребителем;

5. релевантность — способность информации соответствовать нуждам (запросам) потребителя;

6. защищенность — свойство, характеризующее невозможность несанкционированного использования или изменения информации;

7. эргономичность — свойство, характеризующее удобство формы или объема информации с точки зрения данного потребителя.

Информацию следует считать особым видом ресурса, при этом имеется в виду толкование «ресурса» как запаса неких знаний материальных предметов или энергетических, структурных или каких-либо других характеристик предмета. В отличие от ресурсов, связанных с материальными предметами, информационные ресурсы являются неистощимыми и предполагают существенно иные методы воспроизведения и обновления, чем материальные ресурсы.

С этой точки зрения можно рассмотреть такие свойства информации:

Запоминаемость — одно из самых важных свойств. Запоминаемую информацию будем называть макроскопической (имея в виду пространственные масштабы запоминающей ячейки и время запоминания). Именно с макроскопической информацией мы имеем дело в реальной практике.

Передаваемость информации с помощью каналов связи (в том числе с помехами) хорошо исследована в рамках теории информации К.Шеннона. В данном случае имеется в виду несколько иной аспект — способность информации к копированию, т.е. к тому, что она может быть “запомнена” другой макроскопической системой и при этом останется тождественной самой себе. Очевидно, что количество информации не должно возрастать при копировании.

Воспроизводимость информации тесно связана с ее передаваемостью и не является ее независимым базовым свойством. Если передаваемость означает, что не следует считать существенными пространственные отношения между частями системы, между которыми передается информация, то воспроизводимость характеризует неиссякаемость и неистощимость информации, т.е. что при копировании информация остается тождественной самой себе.

Читайте также:  Личность человека с точки зрения философии

Фундаментальное свойство информации — преобразуемость . Оно означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором ее количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может.

Свойство стераемости информации также не является независимым. Оно связано с таким преобразованием информации (передачей), при котором ее количество уменьшается и становится равным нулю.

· Данных свойств информации недостаточно для формирования ее меры, так как они относятся к физическому уровню информационных процессов.

Информация всегда связана с материальным носителем.

Носителем информации может быть:

1) любой материальный предмет (бумага, камень и т.д.);
волны различной природы: акустическая (звук), электромагнитная (свет,радиоволна) и т.д.;

2) вещество в различном состоянии: концентрация молекул в жидком растворе, температура и т.д.

Сигнал — способ передачи информации. Это физический процесс, имеющий информационное значение. Он может быть непрерывным или дискретным.
Сигнал называется дискретным, если он может принимать лишь конечное число значений в конечном числе моментов времени.
Аналоговый сигнал — сигнал, непрерывно изменяющийся по амплитуде и во времени.
Сигналы, несущие текстовую, символическую информацию, дискретны .
Аналоговые сигналы используют в телефонной связи, радиовещании, телевидении.

Говорить об информации вообще, а не применительно к какому-то ее конкретному виду беспредметно. Классифицировать ее можно:

· по способам восприятия (визуальная, тактильная и т.д.);

· по форме представления (текстовая, числовая, графическая и т. д.);

· по общественному значению (массовая, специальная, личная).

Примеры получения информации:

1) динамик компьютера издает специфический звук, хорошо знакомый Васе, — следовательно, пришло новое сообщение по ICQ;

2) с вертолета пожарной охраны в глубине леса замечен густой дым — обнаружен новый лесной пожар;

3) всевозможные датчики, расположенные в сейсмологически неустойчивом районе, фиксируют изменение обстановки, характерное для приближающегося землетрясения.

Основные направления в информатике: кибернетика, программирование, вычислительная техника, искусственный интеллект, теоретическая информатика, информационные системы. Понятие информатики является относительно новым в лексиконе современного человека. Несмотря на повсеместное употребление, его содержание остается не проясненным до конца в силу своей новизны. Интуитивно ясно, что оно связано с информацией, а также с ее обработкой на компьютерах. Это подтверждается существующей легендой о происхождении данного слова: считается, что оно составлено из двух слов – Информация и автоматика (как средство преобразования информации).

Вследствие широкого распространения компьютеров и информационного бума, который переживает человечество, с азами информатики должен быть знаком всякий грамотный современный человек; вот почему ее преподавание включено в курс средней школы и продолжается в высшей школе.

Основные понятия информатики

Информатика – область человеческой деятельности, связанная с процессами преобразования информации с помощью компьютеров и других средств вычислительной техники. С информатикой часто связывают одно из следующих понятий: это либо совокупность определенных средств преобразования информации, либо фундаментальная наука, либо отрасль производства, либо прикладная дисциплина.

Информатика как совокупность средств преобразования информации включает технические средства (hardware), программные продукты (software), математические методы, модели и типовые алгоритмы (brainware). В состав технических средств входят компьютеры и связанные с ними периферийные устройства (мониторы, клавиатуры, принтеры и плоттеры, модемы и т.д.), линии связи, средства оргтехники и т.п., т.е. те материальные ресурсы, которые обеспечивают преобразование информации, причем главенствующую роль в этом списке играет компьютер. По своей специфике компьютер нацелен на решение очень широкого круга задач по преобразованию информации, при этом выбор конкретной задачи при использовании компьютера определяется программным средством, под управлением которого функционирует компьютер. К программным продуктам относятся операционные системы и их интегрированные оболочки, системы программирования и проектирования программных продуктов, различные прикладные пакеты, такие, как текстовые и графические редакторы, бухгалтерские и издательские системы и т.д. Конкретное применение каждого программного продукта специфично и служит для решения определенного круга задач прикладного или системного характера. Математические методы, модели и типовые алгоритмы являются тем базисом, который положен в основу проектирования и изготовления программного, технического средства или другого объекта в силу исключительной сложности последнего и, как следствие, невозможности умозрительного подхода к созданию.

источник