ТВОРЧЕСТВО

ПОЗНАНИЕ

А  Б  В  Г  Д  Е  Ж  З  И  Й  К  Л  М  Н  О  П  Р  С  Т  У  Ф  Х  Ц  Ч  Ш  Щ  Э  Ю  Я  AZ

 

Аналогичные подразделения функционируют в транснациональных корпорациях, которые все больше и больше превращаются в государства в государстве.
Помимо этого существуют самостоятельные исследовательские центры, специализирующиеся на «выуживании» нужных данных в «цифровом океане». В Западной Европе и США сбор информации средствами Интернета уже давно превратился в весьма прибыльный бизнес. По сообщениям открытой прессы, только во Франции в настоящее время работает более десятка компаний, задачей которых является изучение документов, в том числе таблиц и рисунков, существующих в Интернет-пространстве. Как пример можно привести компанию лингвистической инженерии MAAG, которая ориентирована на информационно-аналитическое обеспечение таких ключевых отраслей французской экономики, как аэрокосмическая промышленность, транспорт и энергетика.
Для глобальных исследований в Интернете используются специальные «процессоры сбора данных». В данном контексте термин «процессор» не имеет ничего общего с микропроцессором, это часть программы, которая определяет, каким образом сама программа управляет и манипулирует данными. Процессор сбора данных использует программное обеспечение, получившее название «робот»: «робот» извлекает нужную информацию, используя целый арсенал средств лингвистического, семантического и статистического анализа. Действуя автономно, процессоры сбора данных перехватывают любую запрашиваемую информацию, как только она появится в Интернете.
Самым первым был рассекречен французский процессор «Taiga» (Traite-ment automatique d'information geopolitique d'actualite — «автоматическая обработка актуальной геополитической информации»). Этот программный комплекс первоначально разрабатывался для нужд французской разведки, где он потом ударно трудился в течение 11 лет, после чего был передан для коммерческого использования. Задачи, которые перед ним ставят теперь уже гражданские специалисты, остались теми же: «шарить» по Интернету для извлечения ценной информации из баз данных о патентах, сообщений информационных агентств и публикаций о научных конференциях.
Методика ведения аналитической разведки с помощью данного программного обеспечения следующая: обрабатывая материалы открытого доступа, имеющиеся в Интернет-пространстве, программа статистического анализа составляет так называемые карты работы в различных отраслях науки. В свою очередь, это позволяет аналитикам устанавливать наиболее перспективные научные разработки в областях, где конкуренция пока что сравнительно невелика. Результаты количественного и качественного анализа результатов работы научных лабораторий позволяют оценить степень творческой атмосферы исследовательских коллективов. Это также может быть весьма полезным при выявлении «перспективных летунов», т.е. исследователей, которые за сравнительно короткий срок успевают поменять ряд представляющих интерес научных центров, а тем самым знакомы со многими результатами их работы.
Стоит упомянуть еще одну французскую разработку. Для проведения семантического анализа крупных информационных массивов компания «Acetic» совместно с учеными Парижского университета разработала пакет прикладных программ «Tropes». Отбор требуемой информации происходит в соответствии с ключевыми словами и понятиями, связанными по смыслу. Так, например, название типа самолета «Мираж» соотносится со словами «самолет», «истребитель», а сочетание слов «госсекретарь США» автоматически ассоциируется со словами «министр», «политик». Данное программное обеспечение позволяет одновременно анализировать два текстовых информационных фрагмента объемом в несколько десятков книжных томов. Помимо этого «Tropes» предоставляет возможность создавать необходимые для работы информационные «сценарии», на основе которых автоматически осуществляется не только поиск, но и целевое группирование требуемых данных.
Технический прогресс не стоит на месте, и весьма очевидно, что если государственные спецслужбы отдают для коммерческого использования подобные разработки, то это может означать только одно — они получили в свое распоряжение что-то гораздо более мощное.
«Noemic», сменивший «Taiga» на боевом посту, не только сканирует, но и автоматически осуществляет «объединение источников», обрабатывая полученную информацию со скоростью 1 млрд. знаков в секунду независимо от того, существуют ли она в виде готовой базы данных или, например, передается электронным агентством новостей на любом языке в виде целостного текста. Этот семантический процессор сбора данных способен также подвергать обработке заслуживающие его внимания концепции, метафоры и совокупности идей. Если перед ним поставить задачу выявить, например, все случаи установления связей между гонконгскими и американскими фирмами, действующими в области микроэлектроники, за последние пять лет, то для ее выполнения ему хватит всего нескольких часов.
Американский аналог этих программных комплексов, который называется «Topic», также первоначально разрабатывался для нужд разведки. Данная система появилась на свет в результате длительных исследовательских работ, осуществлявшихся под контролем ЦРУ. Сегодня он также передан в коммерческое использование, и все права на него принадлежат калифорнийской фирме «Verity», мировому лидеру по сбору документальных данных.
Не отстают от «Verity» и ее конкуренты. Так, например, американская фирма «Intelligent Search Solutions» выпустила на рынок пакет программного обеспечения «InfoTracer», предназначенный для сбора разведывательной информации экономического характера в сети Интернет. Для «фильтрования» информации указанное программное обеспечение использует ключевые слова и фразы, после чего автоматически составляются сообщения необходимого пользователям содержания. В них могут быть, например, данные о деловых операциях конкретной компании и ее партнерах, используемых ими технологиях и выпускаемой продукции, а также фамилии руководящего персонала.
В данной связи хотелось бы отметить, что появление новых сетевых информационных технологий практически уравняло возможности конкурентов в получении необходимой исходной информации. Теперь основное значение имеют быстрота поиска и правильный анализ. В этом как раз и могут помочь процессоры сбора данных, позволяющие «извлекать» и анализировать необходимую информацию из крупных информационных массивов. Профессионалы прекрасно понимают, что экономическую разведку можно вести без компьютерных взломов, просто обрабатывая по специальному алгоритму огромные массивы информации, доступные каждому пользователю Интернета.
По оценкам специалистов, в настоящее время только в США насчитывается около 150 фирм, которые специализируются на анализе данных, полученных из Интернета.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141