Искусственный интеллект (ИИ) – одна из самых значимых технологий XXI века. Но как далеко простираются её этические и юридические границы? В поиске ответа на этот и другие актуальные вопросы компания NtechLab совместно с Центром развития гуманитарных технологий «Новая эра» представили исследовательский доклад «Технологии России: человек будущего».
СРЕЗ ВРЕМЕНИ
Доклад «Технологии России: человек будущего» был подготовлен по итогам X конференции «Цифровая индустрия промышленной России» (ЦИПР), проходившей в Нижнем Новгороде в начале июня. В исследовании приняли участие более 15 экспертов в области искусственного интеллекта, включая представителей железнодорожной отрасли. Центральной темой доклада стало осмысление границ допустимого в рамках применения новых технологий.
«Проведённые нами исследования представляют собой срез времени. Сейчас мы наблюдаем стремительное развитие искусственного интеллекта в России и мире, в том числе в железнодорожной отрасли. Экспертный доклад обратил внимание на потребность в законодательных инициативах, которые позволили бы сделать это развитие более безопасным для общества в контексте будущего появления супер-ИИ, – рассказал генеральный директор Центра развития гуманитарных технологий «Новая эра» Александр Шабалтин. – Отдельно от лица организаторов хотел бы поблагодарить компанию «РЖД» за участие в экспертном докладе – для нас это имело особую ценность, учитывая значимую роль холдинга в цифровой трансформации нашей страны».
ГРАНИЦЫ ДЕЛЕГИРОВАНИЯ
Особое внимание в докладе уделено вопросам взаимодействия человека и технологий ИИ. Последние развиваются так быстро, что уже сейчас необходимо определить, какие задачи следует отдать на откуп алгоритмам, а что важно оставить в зоне ответственности людей.
По мнению заместителя генерального директора – директора Санкт-Петербургского филиала АО «НИИАС» Павла Попова, все рутинные операции можно и нужно передать системам ИИ. «В то же время в задачах, связанных с безопасностью и здоровьем, на текущий момент требуются специальные процедуры доказательства безопасности работ, – уточняет он. – В настоящий момент общепринятым подходом для данной области является работа ИИ в роли экспертных систем, где окончательное решение принимает человек».
Существует целый ряд причин, почему необходимо ограничивать применение новых технологий. Прежде всего это связано с их непрозрачностью: алгоритмы ИИ часто работают как «чёрный ящик», что делает их логику и принципы принятия решений непонятными для пользователей и общества.
ЭТИЧЕСКИЙ РУБИКОН
Не менее важен и этический аспект. Решения ИИ могут быть эффективными, но не соответствовать человеческим нормам. Или наоборот – соответствовать историческому опыту, который изобилует примерами дискриминации и другими неприятными событиями.
Как считает эксперт научного центра информационных технологий и искусственного интеллекта «Сириус» Константин Гнидко, этические границы проходят там, где применение ИИ затрагивает основополагающие права и достоинство человека. Например, в медицине недопустимо, чтобы алгоритмы принимали решения о жизни и смерти пациента.
«Алгоритмы также не должны автоматически выносить приговоры или прогнозы без участия судьи. Известен случай, когда алгоритм оценки рисков COMPAS оказался расово предвзятым в результате обучения на исторической выборке судебных дел», – рассказывает он.
По мнению экспертов, ни один человек не должен получать решения от ИИ без аргументированного обоснования. ИТ-компании обязаны обеспечить прозрачность своих алгоритмов, проводить регулярные аудиты на предмет дискриминации и давать людям возможность оспорить решение, принятое машиной.
КОГНИТИВНАЯ ТРАНСФОРМАЦИЯ
Один из ключевых выводов доклада говорит о том, что ИИ может оказать негативное влияние на когнитивные процессы человека. Так, активное и необдуманное использование этих технологий способно привести к упрощению мышления.
«В масштабах человечества одним из возможных рисков может стать постепенное снижение когнитивных способностей человека вследствие неосознанного использования результатов работы ИИ-моделей, являющихся частью интеллектуальных ассистентов, помощников, – отмечает заведующий лабораторией искусственного интеллекта филиала № 11 Отраслевого центра разработки и внедрения информационных систем (ОЦРВ) Александр Любченко. – Сама идея влияния новых технологий на интеллектуальные функции человека не нова. Ещё изобретение письменности благодаря возможности перенесения информации на физический носитель должно было разучить нас запоминать. Но нет, благодаря новым технологиям, дающим некоторую когнитивную разгрузку, человечество создавало новое и развивалось».
Более того, уже сейчас технологии ИИ помогают совершенствовать отдельные навыки. Например, от человека теперь требуется умение корректно ставить задачи (алгоритмам), а также развивать критическое мышление на более глубинном уровне.
НА ПОРОГЕ СУПЕР-ИИ
В апреле этого года компания NtechLab и Центр развития гуманитарных технологий «Новая эра» провели ещё одно исследование, которое касалось перспектив развития ИИ с точки зрения молодёжи. Было опрошено 1,2 тыс. респондентов в возрасте от 18 до 35 лет. Исследование показало, что 88% молодых людей используют технологии ИИ в повседневной жизни, в основном для учёбы и работы.
Но не только увлечённость молодёжи новыми технологиями иллюстрирует темпы их развития и проникновения в повседневную жизнь. «Сегодня мы наблюдаем хорошую динамику внедрения ИИ в регионах России. ИИ становится реальным и востребованным инструментом для решения целого спектра задач, – утверждает генеральный директор NtechLab Алексей Паламарчук. – Многие субъекты подходят к вопросу внедрения решений на основе ИИ комплексно, разрабатывая масштабные региональные программы. Здесь в качестве примера можно привести Москву, Санкт-Петербург, Нижегородскую и Новосибирскую области, Республику Татарстан, Краснодарский край».
Как отмечается, ИИ будет всё больше применяться и в транспортной отрасли. В ближайшие 10 лет стоит ждать повышения уровня автоматизации интеллектуальных функций, выполняемых человеком. В ряде отраслей многие задачи и вовсе могут быть переданы технологиям ИИ, в том числе в части права принятия решения.
В повседневной жизни прогнозируется, что всё большее признание от населения будет получать ИИ как личный ассистент, которому можно делегировать задачи.
Однако самое интересное то, что уже в обозримом будущем человечество может перейти к супер-ИИ, который ознаменует не просто технологическую трансформацию, а онтологический сдвиг, затрагивающий саму природу разума и бытия. «Создаётся новый логос – нечеловеческий разум, который понимает закономерности быстрее, чем человек», – сообщается в докладе.
И это при всё ещё не решённых рисках, связанных с распространением ИИ.
«Развитие ИИ, безусловно, кроме огромных преимуществ несёт и определённые риски. Уже сейчас злоумышленники используют ИИ в мошеннических целях, подделывая голоса, видео и так далее. В будущем возможна угроза и от самого ИИ при его превосходстве возможностей человека», – считает Павел Попов.
Как отмечается в докладе, предупредить многие риски и обеспечить устойчивую интеграцию ИИ в жизнь общества поможет работа в трёх ключевых направлениях: техническом, правовом и образовательном.
Первое позволит заложить механизмы безопасности уже в саму архитектуру IT-технологий.
Второе обеспечит этические рамки и принципы работы.
Третье направление интегрирует население в мир новых технологий. Именно такой системный и осознанный переход позволит человечеству не потерять себя и сохранить контроль над техническим прогрессом.
Алексей Алеев