((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
Anthropic a déclaré mercredi avoir détecté et bloqué des pirates informatiques qui tentaient d'utiliser à mauvais escient son système d'IA Claude pour écrire des courriels de hameçonnage, créer des codes malveillants et contourner les filtres de sécurité.
Les conclusions de l'entreprise, publiées dans un rapport, soulignent les préoccupations croissantes concernant l'exploitation des outils d'IA dans le cadre de la cybercriminalité, ce qui intensifie les appels lancés aux entreprises technologiques et aux autorités de régulation pour qu'elles renforcent les mesures de protection au fur et à mesure que la technologie se répand.
Le rapport d'Anthropic indique que ses systèmes internes ont mis fin aux attaques et qu'il partage les études de cas - montrant comment les attaquants ont tenté d'utiliser Claude pour produire des contenus nuisibles - afin d'aider d'autres personnes à comprendre les risques.
Le rapport fait état de tentatives d'utilisation de Claude pour rédiger des courriels de hameçonnage sur mesure, écrire ou corriger des bribes de code malveillant et contourner les mesures de protection par le biais d'invites répétées.
Il décrit également les efforts déployés pour scénariser des campagnes d'influence en générant des messages persuasifs à grande échelle et en aidant des pirates informatiques peu compétents en leur donnant des instructions étape par étape.
La société, soutenue par Amazon.com AMZN.O et Alphabet
GOOGL.O , n'a pas publié d'indicateurs techniques tels que les adresses IP ou les invites, mais a déclaré qu'elle avait banni les comptes impliqués et renforcé ses filtres après avoir détecté l'activité.
Selon les experts, les criminels se tournent de plus en plus vers l'IA pour rendre les escroqueries plus convaincantes et accélérer les tentatives de piratage. Ces outils peuvent aider à rédiger des messages d'hameçonnage réalistes, automatiser certaines parties du développement de logiciels malveillants et même potentiellement aider à planifier des attaques.
Les chercheurs en sécurité préviennent qu'à mesure que les modèles d'IA deviennent plus puissants, le risque d'abus augmentera si les entreprises et les gouvernements n'agissent pas rapidement.
Anthropic a déclaré suivre des pratiques de sécurité strictes, y compris des tests réguliers et des examens externes, et prévoit de continuer à publier des rapports lorsqu'elle trouve des menaces importantes.
Microsoft MSFT.O , OpenAI 9984.T et Google, soutenus par SoftBank, ont fait l'objet d'un examen minutieux similaire, craignant que leurs modèles d'IA ne soient exploités à des fins de piratage ou d'escroquerie, ce qui a suscité des appels à des mesures de protection plus strictes.
Les gouvernements s'efforcent également de réglementer cette technologie: l'Union européenne a adopté sa loi sur l'intelligence artificielle et les États-Unis font pression pour que les principaux développeurs prennent des engagements volontaires en matière de sécurité.
0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer