ChatGPT повел себя как ученик, который не смог решить задачу: ученые заявили о новой проблеме ИИ

01.10.2025 13:47

Ученые выявили очередную проблему в работе ИИ, что было сделано в рамках эксперимента с участием ChatGPT.

Алгоритм попросили решить древнюю математическую задачу, в которой требовалось вдвое увеличить площадь квадрата, передает корреспондент сетевого издания Белновости.

По заданию ИИ должен был дать ответ на задачу, описанную Платоном около 385 года до н. э., сообщает hi-tech.mail.ru.

робот
Фото: Pixabay

Так как ChatGPT обучался на текстах, вероятность решения геометрической задачи, в которой нужно было построить новый квадрат со стороной, равной диагонали исходного – была крайне мала.

Сотрудники Кембриджского университета и Еврейского университета в Иерусалиме предположили, что если ИИ даст правильный ответ, то можно считать математические способности не врожденным качеством, а приобретенным.

Чат-бот в итоге выдал разумное объяснение, после чего задачу решили усложнить и попросили удвоить площадь прямоугольника.

ИИ ответил, что с точки зрения геометрии это сделать невозможно, хотя решение этой задачи существует.

В этот момент ChatGPT, подчеркивают ученые, повел себя как ученик, выдвигающий гипотезы, а не правильное решение.

То есть, ответ ИИ оказался очень близким к ответу, который мог дать человеческий разум.

Но проблема в том, что ученые не признают настоящего «мышления» у современных нейросетей.

Речь идет о неком «черном ящике», когда есть результат, но неизвестно каким образом он был получен.

Игорь Зур Автор: Игорь Зур Редактор интернет-ресурса