Беспощадный мир: богатые могут быть заменены искусственным интеллектом

Опубликовано 15.04.2025
НОР   |   просмотров - 55,   комментариев - 0
Беспощадный мир: богатые могут быть заменены искусственным интеллектом

Реже рассматривается возможность того, что среди этих рабочих мест могут оказаться и позиции тех, кто управляет такими компаниями и координирует работу других — то есть, генеральных директоров.

Можно предположить, что для некоторых ключевых задач руководителей, таких как принятие и доведение сложных решений, финансовое планирование или выявление рыночных трендов, объективность и неутомимость программного обеспечения на базе ИИ могут быть весьма полезными качествами.

Похожее мнение разделяют и многие действующие руководители: согласно отчету edX за 2023 год, платформы, созданной при участии специалистов Гарварда и Массачусетского технологического института, почти половина из них (47%) полагают, что роль генерального директора может быть в значительной степени или даже полностью автоматизирована. Кроме того, следует учитывать высокий уровень их заработной платы, которая, по оценке Института экономической политики, в американских компаниях в среднем в 290 раз превышает доход рядового сотрудника. Это означает, что потенциальная экономия от замены руководителей искусственным интеллектом могла бы быть весьма ощутимой.

Однако данных о том, как именно генеративный искусственный интеллект — способный создавать контент, имитирующий человеческий труд, — справляется с ролью генерального директора, не так много.

Крупномасштабный эксперимент был проведен с февраля по июль 2024 года группой исследователей из бизнес-школы Кембриджского университета. В нем приняли участие 344 человека, включая студентов, недавних выпускников и опытных банковских руководителей.

Группа разработала игру, имитирующую рабочие ситуации, с которыми мог бы столкнуться генеральный директор крупной американской автомобильной компании. В ходе игры оценивалось качество принимаемых участниками решений по различным параметрам. Моделирование объединяло математические модели, основанные на реальных рыночных данных, а также учитывало переменные факторы, такие как экономические тенденции и последствия пандемии.

Каждый раунд игры соответствовал одному финансовому году компании, а целью было продержаться как можно дольше, избегая увольнения виртуальным советом директоров, при этом максимально увеличивая общую стоимость акций компании. Выбор четырех участников — двух лучших студентов и двух лучших руководителей — затем сравнивался с решениями, принятыми в той же симуляции параллельно языковой моделью GPT-4o, лежащей в основе системы OpenAI.

Результаты, по мнению исследователей, оказались удивительными. Решения "искусственных" генеральных директоров были стабильно лучше, чем выбор участников-людей. GPT-4o демонстрировал превосходство в прибыльности, полученной лучшим участником-человеком, уже за три раунда. Однако был один критический момент: искусственный интеллект увольнялся быстрее, чем люди.

Причина заключалась в том, что перед лицом разрушительных и непредсказуемых событий, вроде обвала рынков во время пандемии, лучшие участники-люди принимали долгосрочные, более осторожные и гибкие стратегии.

Эти подходы позволяли снизить риски, хотя и ограничивали при этом сиюминутную прибыль. ИИ же, напротив, достигал лучших начальных результатов, но затем оказывался "в ловушке" менталитета краткосрочной оптимизации. Рост и прибыльность постоянно улучшались до тех пор, пока рыночный шок — неожиданное и непредсказуемое событие — не прерывал положительную динамику. Любопытно, что среди участников-людей даже руководителям высшего звена часто не хватало интуиции и предвидения в подобных случаях, и их увольняли быстрее, чем других. Исследователи отметили, что они, как и GPT-4o, продемонстрировали "один и тот же недостаток: слишком большую уверенность в системе, которая вознаграждает гибкость и долгосрочное видение в той же степени, что и агрессивные амбиции".

Журналист Марк Дент недавно описал в издании The Hustle другой свой эксперимент, более неформальный и менее структурированный. Он попросил чат-бота Claude от компании Anthropic выступить в роли генерального директора трех разных компаний, переживающих трудности на рынке (Southwest Airlines, Nike и Starbucks), с задачей их восстановления.

Идеи и стратегии, предложенные чат-ботом, не так сильно отличались от предложений реальных руководителей каждой из этих компаний. Это объясняется тем, что Claude и другие подобные чат-боты используют общедоступную информацию, в основном почерпнутую из новостей, описывающих действия, уже предпринятые компаниями. В этом отношении, по замечанию исследователей из Кембриджа, качество данных, используемых для обучения языковых моделей, существенно влияет на конечную эффективность "искусственных" руководителей: некачественные, недостаточные по объему или предвзято собранные данные приводят к худшим результатам.

Одно из отличий, обнаруженных Дентом между стратегиями Claude и стратегиями реальных руководителей, заключалось в том, что чат-бот подходил к вопросам увольнений и взаимоотношений с клиентами более деликатно, чем его человеческие коллеги. Например, он уделял больше внимания информированию клиентов о бизнес-решениях и стремился вообще избежать увольнений, предлагая вместо этого такие меры, как досрочный выход на пенсию или сокращение рабочего времени.

Слабой же стороной чат-бота было заметное отсутствие личных и межличностных навыков, которые обычно критически важны для мотивации сотрудников и общения с инвесторами и советом директоров. Он также продемонстрировал некоторую склонность, присущую ИИ, быть нерешительным и легко поддаваться влиянию любого, кто дает ему предложения. Дент отметил, что это, конечно, не является желательным качеством для руководителя, который должен быть решительным.

По данным исследовательской группы из Кембриджа, экспериментальные данные, пусть и ограниченные, предполагают, что использование генеративного ИИ на руководящих позициях может "впечатляюще" улучшить процессы принятия решений в компаниях и повысить продуктивность. Это действительно позволило бы принимать более обоснованные решения, обеспечивая сложный анализ данных, но в конечном итоге эти решения все равно должны приниматься людьми. В основном по двум причинам.

Во-первых, люди, как правило, обладают интуицией, способностью к долгосрочному стратегическому мышлению, этической оценке и эмпатией — аспектами, в отношении которых нынешний ИИ пока демонстрирует ряд недостатков.

Вторая причина связана с правовым статусом ИИ, который еще не определен. Его полная замена руководителей затруднит возложение ответственности за выбор компании и, следовательно, за ущерб, причиненный любыми неверными решениями. Существует также риск того, что ИИ может быть использован некоторыми компаниями именно по этой причине: "чтобы люди не брали на себя ответственность", — заявил Шон Эрли, генеральный директор консалтинговой фирмы Teneo, в интервью New York Times в 2024 году, ссылаясь на судебное дело, связанное с чат-ботом.

Примером может служить случай, произошедший в феврале 2024 года, когда канадский суд обязал авиакомпанию Air Canada возместить убытки клиенту. Клиент не получил положенную ему скидку на билет для поездки на похороны близкого родственника или помощи в случае смерти, поскольку чат-бот на сайте компании предоставил ему неверную информацию о том, что скидку можно запросить ретроспективно в течение 90 дней после покупки. Air Canada защищалась в суде, утверждая, что "не несет ответственности за информацию, предоставленную одним из ее агентов, сотрудников или представителей, включая чат-бота". Однако суд постановил иначе.

Уточнения: Игровой искусственный интеллект — набор программных методик, которые используются в компьютерных играх для создания иллюзии интеллекта в поведении персонажей, управляемых компьютером.

Автор: Владимир Антонов — журналист, корреспондент новостной службы Правды.Ру

Источник: Правда.Ру


Комментарии:

Пока комментариев нет. Станьте первым!