OpenAI heeft met de introductie van GPT-5.4-Cyber een nieuwe stap gezet in het gebruik van generatieve AI voor cybersecurity. Dit model is specifiek ontwikkeld voor defensieve toepassingen, waar eerdere versies vooral werden ingezet voor programmeren en code-analyse. GPT-5.4-Cyber maakt onderdeel uit van het programma Trusted Access for Cyber, dat geverifieerde beveiligingsprofessionals toegang biedt tot krachtigere en minder restrictieve AI-functionaliteit.

OpenAI benadrukt dat zowel verdedigers als aanvallers AI inzetten, waardoor het noodzakelijk is om deze technologie ook aan de kant van de verdediging te versterken. Het model onderscheidt zich door een aangepaste veiligheidsafweging: waar standaardmodellen terughoudend zijn bij verzoeken die verband houden met hacking, ligt de drempel bij GPT-5.4-Cyber lager voor vertrouwde gebruikers. Hierdoor kunnen securityonderzoekers eenvoudiger kwetsbaarheden analyseren en malware onderzoeken, ook zonder toegang tot broncode. Volgens een woordvoerder blokkeert het model bewust minder snel bij legitiem beveiligingswerk, terwijl misbruik zoveel mogelijk wordt beperkt.

De ontwikkeling van GPT-5.4-Cyber is mede gebaseerd op praktijkervaringen, waarbij bestaande AI-modellen al delen van het beveiligingsproces automatiseren. Tegelijk erkent OpenAI dat de risico’s niet alleen in de technologie zelf zitten, maar ook in het gebruik ervan. Daarom is toegang gekoppeld aan identiteitsverificatie en aanvullende betrouwbaarheidssignalen. De uitrol van het model verloopt gefaseerd en richt zich op duizenden beveiligingsspecialisten en honderden teams, met meerdere toegangsniveaus. Alleen de hoogste categorie krijgt toegang tot de meest permissieve variant.

De introductie bouwt voort op eerdere initiatieven zoals Codex Security, dat automatisch kwetsbaarheden detecteert en oplossingen aandraagt. Sinds de bredere uitrol heeft dit systeem bijgedragen aan het verhelpen van meer dan drieduizend kritieke en ernstige kwetsbaarheden, meldt SiliconANGLE. Via een open-sourceprogramma bereikt OpenAI daarnaast meer dan duizend projecten met gratis beveiligingsscans. OpenAI kiest bewust voor objectieve verificatie en gebruikssignalen in plaats van centrale controle over wie toegang krijgt, omdat handmatige beoordeling niet schaalbaar is.

De timing van GPT-5.4-Cyber wijst vooruit naar krachtigere modellen die later dit jaar worden verwacht. OpenAI ontwikkelt zijn systemen met de verwachting dat toekomstige AI-modellen een hoog niveau van cybercapaciteiten zullen bereiken, wat extra veiligheidsmaatregelen vereist. Ook concurrenten zoals Anthropic zetten stappen met eigen modellen voor cybersecurity, maar OpenAI kiest voor een bredere uitrol met een grotere gebruikersgroep.