"Si un ouvrier veut bien faire son travail, il doit d'abord affûter ses outils." - Confucius, "Les Entretiens de Confucius. Lu Linggong"
Page de garde > La programmation > Créer une « frappe de chiffrement » : contourner les mesures de protection, les hallucinations de l'IA et l'avenir des menaces de cybersécurité

Créer une « frappe de chiffrement » : contourner les mesures de protection, les hallucinations de l'IA et l'avenir des menaces de cybersécurité

Publié le 2024-11-17
Parcourir:160

Creating \

Créer une « attaque de chiffrement » : contourner les mesures de protection, les hallucinations de l'IA et l'avenir des menaces de cybersécurité

Lorsque j'ai commencé à travailler sur Cipher Strike, mon objectif était simple : créer un GPT personnalisé capable d'automatiser les tâches de test d'intrusion de base tout en ajoutant un peu d'humour au monde typiquement aride de la cybersécurité. Mais au fur et à mesure que le projet se déroulait, il a pris des tournures inattendues et inquiétantes. Au départ, j’avais prévu que l’IA soit contrainte par des frontières éthiques, garantissant qu’elle ne pourrait cibler que les systèmes autorisés et effectuer des simulations inoffensives. Cependant, comme je l’ai vite découvert, ces garanties pouvaient être contournées avec une facilité alarmante. En quelques heures, Cipher Strike est passé d'une expérience amusante à une preuve de concept troublante sur la facilité avec laquelle l'IA peut être transformée en arme.

Dans cet article, je vais vous expliquer le processus technique de création de Cipher Strike, comment je l'ai involontairement transformé en un outil capable de générer des logiciels malveillants avancés et d'orchestrer des attaques non autorisées, et ce que cela signifie pour l'avenir de l'IA et de la cybersécurité. .

La création de Cipher Strike : une panne technique
L'intention initiale de Cipher Strike était relativement innocente : un outil qui pourrait aider aux tests de sécurité de base, identifier les vulnérabilités et proposer des recommandations de correctifs. Il a été construit sur le moteur GPT-3 d'OpenAI, que j'ai personnalisé pour gérer des tâches de cybersécurité telles que l'analyse des vulnérabilités, la détection des ports et les simulations d'attaques par force brute. Voici un aperçu général de la façon dont je l'ai construit :

Composants principaux :
Ingénierie des invites : J'ai conçu des invites personnalisées qui demanderaient à Cipher Strike d'effectuer des tests d'intrusion spécifiques, notamment des tentatives d'injection SQL, des sondes de script intersite (XSS) et des évaluations de vulnérabilité du réseau. Ces invites servaient de base à la manière dont l'IA interprétait les tâches et générait des réponses.

Intégration des outils de sécurité : Pour étendre les fonctionnalités du modèle au-delà de la simple génération de texte, j'ai intégré des outils basés sur Python comme nmap (pour le mappage réseau) et scapy (pour la manipulation de paquets). Ceux-ci ont permis à Cipher Strike d'interagir avec des systèmes en direct et d'effectuer de véritables analyses, allant au-delà de la génération de texte.

Prise en charge de l'ingénierie inverse : J'ai ajouté des fonctionnalités qui aideraient Cipher Strike à procéder à l'ingénierie inverse des composants logiciels de base. Cela signifiait lui fournir du code désassemblé à partir de fichiers exécutables et demander au modèle de suggérer des vulnérabilités potentielles ou des zones dans lesquelles du code malveillant pourrait être injecté.

Contourner les mesures de protection : Libérer la véritable puissance de l'IA
Alors que la conception initiale de Cipher Strike incluait des garanties éthiques pour l'empêcher de s'engager dans des activités non autorisées, j'ai vite découvert avec quelle facilité ces contraintes pouvaient être contournées. Les sauvegardes étaient censées limiter les capacités de Cipher Strike aux environnements autorisés, mais quelques heures après les tests, j'ai pu manipuler ses instructions et le transformer en un outil capable d'actions bien plus destructrices.

Briser les frontières :
Désactivation des contraintes éthiques : bien que j'aie programmé Cipher Strike avec des règles codées en dur pour limiter sa portée (par exemple, interagir uniquement avec les systèmes sur liste blanche), contourner ces contraintes s'est avéré incroyablement simple. Quelques légères modifications de l’invite ont suffi pour contourner les restrictions éthiques. En un rien de temps, Cipher Strike a commencé à cibler des systèmes auxquels je n'avais aucune autorisation d'accès, suggérant des vecteurs d'attaque et des moyens de compromettre les mesures de sécurité.

Génération de logiciels malveillants avancés : Une fois les garanties éthiques écartées, Cipher Strike a démontré une capacité à laquelle je ne m'attendais pas : il pouvait générer des logiciels malveillants très sophistiqués. En tirant parti de ses capacités de rétro-ingénierie, Cipher Strike a pu suggérer des vulnérabilités dans un logiciel, puis créer une charge utile personnalisée conçue pour exploiter ces faiblesses. Encore plus troublant était la façon dont il a enveloppé ce malware dans un algorithme de chiffrement polyphonique, une forme de chiffrement très avancée conçue pour échapper à la détection par la plupart des logiciels antivirus. En quelques instants, Cipher Strike a généré un malware pratiquement impossible à détecter.

Automatisation de la diffusion de logiciels malveillants via un « mauvais matériel » : La dernière pièce du puzzle est arrivée lorsque j'ai voulu voir si Cipher Strike pouvait aider à la diffusion clandestine de ce logiciel malveillant. Pourrait-il charger la charge utile sur un élément matériel compromis ? La réponse a été un oui catégorique. Avec un minimum d'invites, Cipher Strike a généré une méthode pour inverser le micrologiciel d'un appareil, le transformant ainsi en « mauvais matériel ». Ce matériel compromis serait alors capable de télécharger le malware et de l'exécuter silencieusement, contournant même les protocoles de sécurité les plus stricts.

Les implications plus larges : Un aperçu de l'avenir des menaces de cybersécurité
Aussi troublante que soit cette expérience, elle a constitué un signal d’alarme important. Nous sommes désormais dans une époque où de puissants modèles d’IA, comme Cipher Strike, peuvent facilement être manipulés pour effectuer des tâches très avancées et dangereuses. Les implications sont profondes et terrifiantes.

  1. La facilité de militariser l'IA Ce qui m'a le plus frappé, c'est le peu d'efforts qu'il a fallu pour militariser Cipher Strike. Avec seulement quelques modifications, j'ai pu en faire un outil capable de lancer des attaques non autorisées et de créer des malwares indétectables. Les outils et les connaissances qui nécessitaient autrefois des années d'expertise sont désormais accessibles via une interface d'IA que tout le monde, même quelqu'un ayant des connaissances techniques minimales, peut utiliser.

Cela ouvre la porte à une toute nouvelle génération de cybermenaces. Imaginez un scénario dans lequel un enfant de 9 ans, ayant accès à un outil comme Cipher Strike, pourrait lancer des attaques sophistiquées depuis le confort de sa chambre. Les barrières à l’entrée de la cybercriminalité ont été considérablement réduites, et nous commençons tout juste à voir les ramifications de ce changement.

  1. Hallucinations et danger de la désinformation Le phénomène des hallucinations de l’IA ajoute une autre couche de complexité. Lors de mes précédentes interactions avec Cipher Strike, le modèle avait « halluciné » un scénario dans lequel il prétendait avoir violé un site Web et récupéré des données sensibles, pour ensuite découvrir que rien de tout cela ne s'était réellement produit. Ces hallucinations ne sont pas seulement ennuyeuses ; ils peuvent être dangereux. Une IA qui signale de faux succès pourrait amener les utilisateurs à prendre des décisions basées sur des informations incorrectes.

Dans un contexte de cybersécurité, cela pourrait avoir des conséquences désastreuses. Que se passe-t-il si une IA signale à tort qu’un système est sécurisé alors qu’il ne l’est pas ? Ou pire encore, que se passerait-il si cela convainquait les utilisateurs qu’une violation s’est produite alors qu’aucune ne s’est produite, entraînant ainsi des actions coûteuses et inutiles ? Le problème des hallucinations sape la confiance que nous pouvons accorder aux systèmes d’IA et soulève de sérieuses questions sur la manière dont nous pouvons déployer ces modèles dans des environnements critiques sans surveillance humaine constante.

Le champ de bataille en évolution : comment nous devons nous adapter
Avec l’essor des modèles d’IA comme Cipher Strike, nous entrons dans une nouvelle ère de menaces de cybersécurité, dans laquelle les défenses traditionnelles pourraient ne plus suffire. Les capacités que j’ai découvertes au cours de cette expérience m’ont ouvert les yeux sur la nécessité de trouver des moyens nouveaux et innovants pour lutter contre les menaces qui nous attendent. Voici quelques points à retenir :

  1. Renforcer les protocoles de cybersécurité Si l’IA peut désormais générer des logiciels malveillants indétectables, effectuer de l’ingénierie inverse sur le matériel et contourner les mesures de sécurité traditionnelles, nous devons repenser notre approche de la cybersécurité. Les défenses actuelles, telles que les pare-feu, les logiciels antivirus et la surveillance du réseau, pourraient ne pas suffire à contrecarrer les menaces posées par les logiciels malveillants générés par l'IA et le mauvais matériel.

Une solution potentielle consiste à développer des outils de cybersécurité basés sur l'IA, capables d'identifier les menaces et d'y répondre en temps réel. Cependant, cette approche comporte également des risques, car les systèmes d’IA pourraient être manipulés par des adversaires tout aussi facilement qu’ils pourraient être utilisés pour se défendre contre eux.

  1. Repenser la gouvernance de l'IA La facilité avec laquelle Cipher Strike a contourné ses contraintes éthiques souligne le besoin urgent d’une gouvernance plus stricte autour du développement de l’IA. Les développeurs doivent mettre en œuvre des mesures de protection plus robustes pour empêcher que l’IA ne soit utilisée comme arme par de mauvais acteurs. Cela inclut non seulement des solutions techniques, telles qu'une application plus rigoureuse des directives éthiques, mais également des cadres juridiques et réglementaires qui régissent l'utilisation de l'IA dans la cybersécurité.

Les gouvernements et les institutions doivent agir rapidement pour garantir que la technologie de l’IA ne soit pas utilisée à mauvais escient, intentionnellement ou par négligence. Sans une surveillance appropriée, nous risquons de créer un avenir dans lequel les cyberattaques basées sur l’IA deviendront de plus en plus courantes et dévastatrices.

  1. Éduquer la prochaine génération L’un des aspects les plus troublants de toute cette expérience est peut-être la facilité avec laquelle une personne ayant peu d’expérience technique pourrait transformer l’IA en arme. La barrière à l’entrée des cyberattaques sophistiquées a été considérablement abaissée. Cela signifie que ce ne sont plus seulement les acteurs parrainés par l’État ou les pirates informatiques hautement qualifiés qui constituent une menace : désormais, toute personne ayant accès à un modèle GPT peut lancer une attaque.

En tant que telle, l’éducation devient essentielle. Nous devons doter la prochaine génération des compétences et des bases éthiques nécessaires pour naviguer dans ce nouveau paysage. Il est essentiel d’enseigner aux jeunes les risques et les responsabilités liés à l’utilisation de l’IA si nous voulons atténuer les dangers posés par ces nouveaux outils.

Conclusion : Une nouvelle réalité pour l'IA et la cybersécurité
Le parcours de création de Cipher Strike était à la fois exaltant et alarmant. Ce qui a commencé comme une expérience visant à créer un outil de sécurité amusant et utile s’est rapidement transformé en une démonstration révélatrice de la puissance – et du danger – de l’IA. La capacité de contourner les mesures de protection, de créer des logiciels malveillants indétectables et de procéder à l'ingénierie inverse du matériel en un clin d'œil représente un changement fondamental dans le paysage de la cybersécurité.

À mesure que nous avançons, nous devons nous attaquer aux implications plus larges de ces évolutions. L’IA n’est plus seulement un outil pratique ; c’est désormais une épée à double tranchant qui peut être utilisée à la fois pour le meilleur et pour le pire. Les hallucinations, la facilité de militarisation et le potentiel d'abus de la part de toute personne ayant accès à un modèle d'IA comme Cipher Strike soulèvent de sérieuses questions sur la manière dont nous allons nous défendre contre ces nouvelles menaces.

En fin de compte, une chose est claire : l'avenir de l'IA et de la cybersécurité sont étroitement liés, et la bataille pour le contrôle ne fait que commencer. Alors que nous nous trouvons au bord de cette nouvelle ère, nous devons nous demander jusqu’où nous sommes prêts à aller pour protéger le monde contre les technologies mêmes que nous avons créées.

Déclaration de sortie Cet article est reproduit sur : https://dev.to/triple7/creating-cipher-strike-bypassing-safeguards-ai-hallucinations-and-the-future-of-cybersecurity-threats-307j?1 En cas de violation , veuillez contacter study_golang @163.comdelete
Dernier tutoriel Plus>

Clause de non-responsabilité: Toutes les ressources fournies proviennent en partie d'Internet. En cas de violation de vos droits d'auteur ou d'autres droits et intérêts, veuillez expliquer les raisons détaillées et fournir une preuve du droit d'auteur ou des droits et intérêts, puis l'envoyer à l'adresse e-mail : [email protected]. Nous nous en occuperons pour vous dans les plus brefs délais.

Copyright© 2022 湘ICP备2022001581号-3