В компании OpenAI разработали метод, чтобы устранить проблему вранья у ChatGPT. Исследователи заметили, что иногда искусственный интеллект может давать ложную информацию, когда не уверен в точном ответе или в ситуациях, требующих сложного логического рассуждения.

Для решения этой проблемы OpenAI планирует обучить искусственный интеллект вознаграждать себя за каждый правильный шаг в процессе рассуждений, а не только за конечный результат. Такой подход позволит создать более человекоподобный искусственный интеллект, поскольку «цепочки мыслей» ChatGPT будут больше напоминать человеческие.

Карл Коббе, математик из OpenAI, считает, что обнаружение и исправление логических ошибок в модели является важным шагом на пути к созданию искусственного интеллекта общего назначения. Он также отметил, что для обучения специальной модели был использован большой набор данных с более чем 800 000 метками.

Однако Сара Майерс Вест, управляющий директор Института AI Now, заявила, что OpenAI не предоставила достаточно информации о данных, используемых для обучения и тестирования GPT-4. Это вызывает проблему недостаточной прозрачности, которая затрудняет установление ответственности в области искусственного интеллекта, особенно когда эти системы имеют прямое воздействие на людей.