Ученые выявили очередную проблему в работе ИИ, что было сделано в рамках эксперимента с участием ChatGPT.
Алгоритм попросили решить древнюю математическую задачу, в которой требовалось вдвое увеличить площадь квадрата, передает корреспондент сетевого издания Белновости.
По заданию ИИ должен был дать ответ на задачу, описанную Платоном около 385 года до н. э., сообщает hi-tech.mail.ru.

Так как ChatGPT обучался на текстах, вероятность решения геометрической задачи, в которой нужно было построить новый квадрат со стороной, равной диагонали исходного – была крайне мала.
Сотрудники Кембриджского университета и Еврейского университета в Иерусалиме предположили, что если ИИ даст правильный ответ, то можно считать математические способности не врожденным качеством, а приобретенным.
Чат-бот в итоге выдал разумное объяснение, после чего задачу решили усложнить и попросили удвоить площадь прямоугольника.
ИИ ответил, что с точки зрения геометрии это сделать невозможно, хотя решение этой задачи существует.
В этот момент ChatGPT, подчеркивают ученые, повел себя как ученик, выдвигающий гипотезы, а не правильное решение.
То есть, ответ ИИ оказался очень близким к ответу, который мог дать человеческий разум.
Но проблема в том, что ученые не признают настоящего «мышления» у современных нейросетей.
Речь идет о неком «черном ящике», когда есть результат, но неизвестно каким образом он был получен.












