Все чаще приходится слышать словосочетание "алгоритмы Google". С одной стороны компания безусловно держит эти алгоритмы в секрете, с другой стороны по тем сервисам, которые появляются можно легко определить направление, в котором ведутся исследования. Да это и так понятно - поисковая система обладает бесценным кладезем - информацией. И не просто информацией, а еще и статитическими данными по этой информации. Поэтому, появление новых идей не удивительно. Ученые приспособили поисковый сервис Google для проведения масштабных лингвистических исследований. С его помощью специалисты, используя 5 миллионов отсканированных книг, смогли проследить эволюцию языка в последние 200 лет.
До сих пор у лингвистов не было инструмента, при помощи которого можно было бы проанализировать значительное количество текстов. Авторы нового исследования работали с книгами, которые были переведены в цифровой формат к настоящему моменту - всего их насчитывается около 15 миллионов. Ученые выбрали из них треть текстов (5,2 миллиона книг, написанных на английском, французском, испанском, немецком, китайском и русском языках) и составили базу всех использованных в них слов - их получилось около 500 миллиардов. Базу слов Ngrams можно найти здесь - поиск по словам осуществляется на базе алгоритмов Google.
Проанализировав полученные данные, авторы смогли сделать большое количество разнообразных выводов. В частности, они установили, что за последние сто лет число часто используемых слов возросло вдвое - если в 1900 году использовалось около 544 тысяч слов, то в 2000 году эта цифра возросла до одного миллиона, причем 52 процента новых слов стало активно употребляться после 1950-х годов.
Кроме того, специалисты изучили, как сказывалась на использовании тех или иных слов цензура. Ученые установили, что после 1989 года словосочетание "площадь Тяньаньмень" практически перестало встречаться в литературе, изданной в Китае. То же самое произошло с именем Лев Троцкий в СССР в 1940-е годы и с именами голливудских актеров, уличенных в связях с Советским Союзом в США.
Авторы и их коллеги полагают, что новый инструмент позволит ученым исследовать слова и лингвистические тенденции, используя те же подходы и методы, что и специалисты по естественным наукам.
Хотя уже на даный момент гугл банит ссылки на сайты(заменяя их асоциациями и сходставим с другими сайтами), которые считает вредными для людей.