Как уже общеизвестно, одним из потенциальных сценариев пандемии является разрушение человечества искусственным интеллектом. С развитием робототехники это становится все более вероятным. Но самое страшное не в том, что есть дроны с бензопилами или автомобили-убийцы, которые сбивают детей, и даже не в том, что есть шагоход от компании Бостон Дайнэмикс. Самое страшное заключается в том, что уже сегодня нам не всегда удается отличить робота от человека по разговору. Недавние события в Технологическом институте Джорджии этому подтверждение.
Существует такое понятие, как тест Тьюринга. Если кратко, то машина, способная полностью имитировать человеческое поведение, проходит его. Если же нет, у человека могут возникнуть сомнения. Современные программы все лучше справляются с этим тестом, но самый сложный момент в том, что поведение человека не всегда логично, рационально и разумно. Возможны ситуации опечаток, некорректного использования слов и странных эмоциональных реакций. Эти нюансы сложно учесть при программировании. Поэтому искусственный интеллект пока еще далек от совершенства.
Однако в ситуации, когда человек не подозревает, что он общается с программой, и их разговор ограничен предсказуемыми вопросами, искусственный интеллект способен поддерживать беседу, не вызывая подозрений. Именно такие условия были созданы в Джорджии.
Профессор информатики Ашок Гоэль регулярно отвечал на вопросы студентов, задаваемые на форуме университета. Но число вопросов постоянно увеличивалось, и профессор уже не успевал отвечать на все. Поэтому он нанял 9 ассистентов, одним из которых оказалась программа, основанная на системе IBM Watson. Для студентов это стало полным открытием.
Программа, названная Джилл Ватсон, вела общение со студентами, напоминала им о сроках сдачи работ, помогала с простыми программами и алгоритмами. Причем ни один студент не догадался, что общается с искусственным интеллектом. Даже те, кто уже работал с алгоритмами системы Watson, не почувствовали ничего подозрительного. Некоторые заметили, что фамилия ассистента напоминает им о суперкомпьютерах, другие оценили скорость и оперативность ответов, но никто даже не подумал, что они общаются с программой.
По словам Ашока Гоэля, студенты-программисты достаточно примитивны. Вопросы, которые они задают, примерно одинаковы. Если самообучающаяся программа получит доступ к форуму, где такие вопросы задаются уже много лет, она сможет создать алгоритм, обеспечивающий уровень эксперта. Последующий анализ показал, что Джилл смогла ответить на 40% поставленных перед ней вопросов, включая достаточно абстрактные и неточные.
Такой эксперимент планируется провести вновь в 2017 году. На этот раз студенты будут знать, что одним из ассистентов является искусственный интеллект. И это будет гораздо сложнее, это практически полноценный тест Тьюринга. Будет интересно, если некоторые живые ассистенты не пройдут этот тест.
Итак, будьте бдительны, дорогие выживальщики. Следующий странный посетитель форума или чата может быть не просто непонятным типом, а самообучающейся программой, а может быть искусственным интеллектом. Вы не сможете быть уверены, что этот текст написал человек. Возможно, ваши опасения окажутся напрасными, но все же…