Новости отрасли

ChatGPT в логистике: за и против

14.04.2023
Скриншот ChatGPT на ноутбуке. Рольф Ван Рут, Unsplash

О внедрении, преимуществах и рисках применения генеративного искусственного интеллекта в логистике и цепях поставок.

Логистика и управление цепями поставок – сфера, для которой характерно внимание к технологическим инновациям и цифровизации. Неудивительно, что ожидания от применения в логистике лингвистических моделей на базе генеративного искусственного интеллекта (ИИ), подобных ChatGPT, высоки.

Глобализация мирового производства и торговли, меняющиеся геополитические условия, длинные и сложные цепи поставок, колоссальные объемы данных, связанные буквально с каждой партией груза – все это требует быстрого и эффективного упорядочения, анализа и контроля. Компании стремятся к лучшей прослеживаемости цепей поставок, к сокращению затрат, регулированию объемов запасов и производства в соответствии с колебаниями спроса – ИИ облегчает решение таких задач. По прогнозу международного аналитического агентства в области информационных технологий IDC, в 2026 году 55% производителей из списка Forbes 2000 перестроят свои цепи поставок на базе искусственного интеллекта.

Что искусственный интеллект на современном этапе развития предлагает логисту? В числе потенциальных направлений применения выделяют следующие:

  • + качественная аналитика

ИИ способен анализировать данные из различных источников, выявлять закономерности, находить зоны потенциальных проблем и предлагать способы исправления ситуации.

  • + планирование

На основе анализа колебаний спроса, объемов производства и поступления и расхода материалов и комплектующих, ИИ может предоставлять логистам и складским менеджерам отчеты и рекомендации по своевременному пополнению складских запасов.

  • + обучение

Технология способна создавать и актуализировать рабочие и обучающие регламенты как для внешнего, так и для внутреннего клиента, давать подсказки в процессе работы и действовать как аналог службы поддержки.

  • + снятие языкового барьера

В мультинациональной или многоязычной среде ИИ может выступать не только переводчиком, но и толкователем смыслов, обеспечивая взаимопонимание между участниками коммуникации.

Недавно мы рассказывали о цифровом помощнике Microsoft Co-pilot, который интегрируется в базы данных и системы управления предприятием и облегчает для менеджеров по управлению поставками как рутинные операции, так и принятие решений на основе аналитики данных.

Тем не менее, презентация возможностей ChatGPT широкой публике и демократизация её использования во многих странах мира показала, что помимо явных плюсов применение решений на базе искусственного интеллекта может иметь не всегда очевидные, но весьма ощутимые минусы. Рассмотрим основные из них.

Точно так же, как и у людей, недостатки искусственного интеллекта являются продолжением его достоинств. ИИ обучается на огромном массиве данных, содержание которых не всегда подконтрольно разработчикам. Тестирование технологии GPT выявило следующие основные проблемы:

  • - дезинформация

Данные, на которых строит свой анализ генеративный ИИ, могут быть непроверенными или даже заведомо ложными. При этом ИИ выдает единственный вариант ответа. «По сути, это замена поискового запроса и, так скажем, безальтернативный вариант ответа», — считает специалист в области кибербезопасности Арсений Щельцин. Кроме того, у чата есть возможность генерировать на один и тот же запрос разные, хотя и похожие ответы, а у пользователей, полагающихся на ответы ИИ, есть риск использования не до конца проверенной информации, — сказал эксперт в интервью «Ленте.ру». 

Это подтверждают и модераторы платформы для разработчиков Stack Overflow, где временно запрещено публиковать ответы, сгенерированные ChatGPT: слишком часто они неверны, хотя «выглядят вполне убедительно».

Бывший топ-менеджер Google Шридхар Рамасвами утверждает, что ChatGPT «не отличает правду от лжи».

Разработчики рекомендуют всегда проверять материалы, сгенерированные ИИ, но это практически невозможно, если пользователь сам не знает правильного ответа.

Известно, что в Китае будут маркировать все, что сделано при помощи ИИ: тексты, изображения и аудио, и за этим будут следить на государственном уровне.

  • - риски для кибербезопасности

Чат-бот «разболтался»: уже есть первые случаи утечки персональных данных на платформе ChatGPT. Общедоступными стали сообщения, включающие имена и платежную информацию 1,2% пользователей. После этого инцидента сеть временно заблокирована на территории Италии.

Разумеется, чаще всего пользователи сами сливают в сеть сведения о себе. Но в то же время, пока нет уверенности, что в чат не «утечет» чувствительная информация, например, из корпоративных систем или баз данных.

Вероятна также и возможность использования генеративного ИИ в противоправных целях, о чем предупреждали представители Европола.

  • - неэтичное поведение

Развитие ИИ на сегодняшнем этапе характеризует отсутствие понятий этики, морали и так называемых «софт скиллс», при зафиксированных эпизодах предвзятых, дискриминационных и даже общественно-опасных высказываний.

Можно представить себе репутационные потери компании, где ИИ-ассистент позволит себе не вполне корректные высказывания в диалоге с сотрудником либо клиентом.

Работа по «очеловечиванию» ИИ ведется, но требует подгрузки колоссального объема проверенных данных и настройки фильтров.

«Для отдельно взятых, пусть даже больших компаний, стоимость обучения может быть несопоставима с прибылью от замены человеческих функций. Доступные ресурсы существуют только у развитых стран, транснациональных корпораций, а также больших компаний, обладающих колоссальными объемами данных... Прочие компании, очевидно, не смогут позволить себе эмуляцию человекоподобных функций и софт‑скилов в сколько‑нибудь обозримом будущем», — пишет Habr

Это положение применимо и ко всем другим аспектам развития генеративного ИИ: для эффективного использования технологии у организаций должны быть ресурсы на её обучение, всестороннее тестирование и изучение прикладного применения в конкретных процессах. Бизнесу надлежит гарантировать 100%-ную точность, надежность, масштабируемость и безопасность технологии.

«Сейчас мы всего лишь царапаем по поверхности того, на что способен генеративный ИИ», — уверен Ян Буриа из IDC.

Какое развитие получит технология? Будет ли она широко использоваться в логистике? Учитывая скорость распространения ИИ нового поколения, ответов ждать не долго.