Шаг за шагом учёные всего мира движутся к полной технологизации современного общества. Искусственный интеллект постепенно проникает во все сферы человеческой жизни: помогает планировать рабочий день, генерирует изображения по запросам пользователей, упрощает бытовые обязанности по дому. И, судя, по последним новостям из Техаса, скоро может настать день, когда ИИ попадёт и в наши головы. Рассказываем что происходит, и кто учит суперкомпьютер проникать в мысли человека.
Если говорить о кинематографической телепатии, то нет.
Однако наукой давно доказано, что мысли формируются в определённых участках головного мозга, учение физиолога Ивана Павлова о высшей нервной деятельности ― одно из доказательств этой теории. Сотни проведённых в лабораторных условиях экспериментов также свидетельствуют о том, что при мыслительном процессе человеческий мозг выдаёт сигналы и импульсы.
Даже без участия искусственного интеллекта подобные явления можно отследить на оборудовании МРТ (магнитно-резонансная томография). Например, в книге нейробиолога Дика Свааба «Мы — это наш мозг» есть описательные примеры того, как разные доли мозга реагируют на образы, картинки или музыку. И все эти эмпирические данные были получены с помощью магнитной томографии.
Современные учёные решили пойти дальше: если есть показания активности мозга во время мыслительного процесса, то можно научиться их считывать. А к расшифровке полученных данных привлекли искусственный интеллект.
1 мая нынешнего года в журнале Nature Neuroscience опубликовано исследование четырёх учёных из Техасского университета в Остине, где подробно описана система искусственного интеллекта, способная преобразовывать сигналы мозга в текст.
Она работает на алгоритмах, схожих с нейросетью ChatGPT, и уже протестирована на добровольцах. Например, один испытуемый несколько часов подряд слушал подкасты, а семантический ИИ тем временем изучал показатели МРТ и интерпретировал их в печатный вид. Также испытуемый смотрел видео без звука, но система всё равно продолжала расшифровывать мысли.
Особенность этой разработки в отсутствии необходимости вживлять имплант испытуемому. При этом в половине случаев искусственный интеллект передавал мысли человека дословно. В остальных ― улавливал общий контекст. Например, если человек думал об отсутствии водительского удостоверения, система распознавала сигнал как «Ещё не учился водить автомобиль».
Сами учёные называют свой эксперимент прорывом в неинвазивных исследованиях головного мозга, особенно учитывая то, что ИИ расшифровывал сложные мысли на протяжении длительного периода времени.
Пока что применять систему вне лаборатории невозможно, ведь она неразрывна с МРТ. Но создатели не исключают, что скоро могут появиться и портативные аналоги такой системы визуализации мыслей.
Подобное исследование ― не первое в современной практике. Зарубежные специалисты уже несколько лет занимаются такими экспериментами.
Учёные университета Карнеги-Меллон (Питтсбург, США) ― загрузили данные реакций мозга на ситуации или изображения в разработанный алгоритм ИИ, и получили 240 возможных реакций мозга. В 87% случаев нейросеть была права.
В Японии исследователи из университета в Киото 10 месяцев показывали троим испытуемым разные изображения, и снимали показания их мозговой деятельности с помощью МРТ. Позже данные были загружены в ИИ, и тот смог визуализировать на их основе картинки, многие даже получились чёткими.
В идеальном сценарии ― чтобы помогать. Уже есть устройства, которые частично возвращают зрение людям с дистрофией сетчатки. Новые же разработки с использованием искусственного интеллекта могут помочь парализованным и глухонемым людям, а также всем, кто лишился возможности изъясняться речью или жестами. Но тут остаётся актуальным вопрос вживления нейроимплантов, ведь не каждый готов решиться впустить в собственную голову автономный интеллект не просто через подсоединяемые датчики, а физически. А вдруг, он научится не только читать мысли, но и контролировать?