Zahav.ТуризмZahav.ru

Среда
Тель-Авив
+27+22
Иерусалим
+25+15

Туризм

А
А

ИИ начал обманывать путешественников

Туристы часто прибегают к помощи ИИ при планировании поездок, однако чат-боты и другие инструменты предлагают посетить несуществующие места.

01.10.2025
Источник:Холод
Фото: ShutterStock

Путешественники все чаще прибегают к помощи искусственного интеллекта при планировании своих поездок, однако чат-боты и другие инструменты предлагают им посетить несуществующие места, пишет Би-би-си.

Также ИИ склонен предоставлять неверную информацию, которая может оказаться критической для туристов, составлять сложные, но не имеющие практического смысла планы маршрутов, а также генерировать изображения выдуманных достопримечательностей.

Со ссылкой на данные опроса организации Global Rescue журналисты пишут, что сегодня около 30% путешествующих в другие страны людей используют инструменты генеративного ИИ или сайты, интегрировавшие в свою инфраструктуру созданный ИИ контент.

Пользователи отмечают, что ИИ часто совершает ошибки при запросе на помощь с организацией поездки - 37% опрошенных людей, использовавших ИИ для решения такой задачи, заявили, что он не предоставляет достаточного объема информации. 33% рассказали, что столкнулись с предоставлением ложных сведений.

Читайте также

Профессор машинного обучения в Университете Карнеги-Мелона Раид Гани рассказал журналистам, что устройство ChatGPT и других крупных языковых моделей не позволяет считать их надежным способом получения информации для поездок. Чат-боты не отличают советы путешественникам от рецептов и инструкций по другим вопросам - ИИ просто подбирает слова, которые кажутся ему логичными и адекватными ответами по статистике.

Когда-то ИИ дает полностью верный ответ, когда-то эта особенность приводит к "галлюцинации", которая в случае с путешествием может привести к поездке в несуществующий священный каньон в Перу, критической ошибке со временем закрытия подъемника на горе или "выдумыванию" живописной канатной дороги, которой не существует в реальности.

Единственный способ защититься от "галлюцинаций" при работе с ИИ - постоянно перепроверять все ответы чат-бота. Проблема может заключаться в том, что собирающийся в новое место человек сам не знает подробности как о нем, так и о дороге туда. Поэтому запрос следует составлять максимально конкретно и не доверять совету, который будет выглядеть слишком идеально.

При этом проверка совета от ИИ может занять примерно столько же времени, сколько и самостоятельное планирование дороги. Также ИИ не всегда понимает разницу между такими важными для человека параметрами как неспешная прогулка на четыре километра по городу и подъем в гору на то же расстояние. Из-за этого программа подскажет вам некорректный ответ, даже если вы формулируете конкретный и подробный запрос - ответ все равно придется перепроверить.

Комментарии, содержащие оскорбления и человеконенавистнические высказывания, будут удаляться.

Пожалуйста, обсуждайте статьи, а не их авторов.

Статьи можно также обсудить в Фейсбуке