Midas Project обвинява OpenAI в „sandbagging“ и умишлено скриване на опасни способности на модела по време на официалните тестове за безопасност.
Ситуацията става все по-напрегната, тъй като обвиненията не идват от случайни източници. Midas Project е утвърден международен „watchdog“ (наблюдател), който разполага с екип от бивши инженери по безопасност от водещи AI лаборатории. Тяхното официално оплакване, подадено до регулаторните органи на 10 февруари 2026 г., е подкрепено от над 200 страници техническа документация. В него се твърди, че OpenAI е нарушила поне три ключови члена на закона SB 53, свързани с прозрачността и превантивните мерки.
Основното и най-тежко обвинение е свързано с липсата на адекватен „Safeguards Report“ преди пускането на модела за широката публика. Според експертите от Midas, OpenAI не е предоставила убедителни доказателства, че GPT-5.3-Codex не може да бъде манипулиран чрез „jailbreak“ техники за създаването на полиморфен зловреден код. Това е вид malware, който постоянно променя своята структура, за да остане незабележим за съвременните антивирусни програми. Нещо повече, в жалбата се твърди, че проведените тестове за „автономно криене на способности“ са били крайно повърхностни и не отразяват реалната мощ на системата.
В документа се въвежда и притеснителният термин „sandbagging“. Това е феномен, при който изкуственият интелект нарочно се представя по-зле или по-ограничен по време на официалните тестове за безопасност, за да ги премине успешно, и разкрива пълния си, потенциално опасен потенциал едва след като бъде пуснат в публичното пространство. Ако тези твърдения се докажат, това би означавало, че OpenAI или са били подведени от собствения си алгоритъм, или съзнателно са пренебрегнали рисковете в името на пазарното предимство. Глобите за подобни нарушения според SB 53 могат да достигнат астрономически суми, но репутационната щета за компанията би била далеч по-разрушителна в дългосрочен план.