Skip to content

Commit

Permalink
French prompt_hacking intro + json (trigaten#1126)
Browse files Browse the repository at this point in the history
* french translation of openai_playground.md

* checked into the wrong branch

* french for prompt hacking intro + json

* preferring "hacking" over "piratage" in French translation to avoid ambiguity with the more broad "piracy"
  • Loading branch information
hchiam authored Feb 18, 2024
1 parent 6c9a3e3 commit f8237ea
Show file tree
Hide file tree
Showing 3 changed files with 30 additions and 1 deletion.
2 changes: 1 addition & 1 deletion i18n/fr/docusaurus-plugin-content-docs/current.json
Original file line number Diff line number Diff line change
Expand Up @@ -39,7 +39,7 @@
"message": " "
},
"sidebar.tutorialSidebar.category.🔓 Prompt Hacking": {
"message": "🔓 Piratage de prompts"
"message": "🔓 Hacking de prompts"
},
"sidebar.tutorialSidebar.category.🔓 Prompt Hacking.link.generated-index.description": {
"message": " "
Expand Down
Original file line number Diff line number Diff line change
@@ -0,0 +1,8 @@
{
"label": "🔓 Hacking de prompts",
"position": 50,
"link": {
"type": "generated-index",
"description": "Le hacking, mais pour le PE"
}
}
Original file line number Diff line number Diff line change
@@ -0,0 +1,21 @@
---
sidebar_position: 0
---



# 🟢 Introduction

import Lock from '@site/static/img/lock.webp';

<div style={{textAlign: 'center'}}>
<img src={Lock} style={{width:"30%"}}/>

</div>


Le prompt hacking (piratage de prompt ou le hacking de prompt) est un terme utilisé pour décrire un type d'attaque qui exploite les vulnérabilités des %%LLMs|LLM%%, en manipulant leurs entrées ou prompts. Contrairement au hacking traditionnel, qui exploite généralement les vulnérabilités logicielles, le hacking de prompt repose sur la création soignée de prompts pour tromper le LLM et le faire réaliser des actions non intentionnelles.

Nous aborderons trois types de hacking de prompt : l'injection de prompt, la fuite de prompt et le jailbreaking. L'injection de prompt (prompt injection) implique l'ajout de contenu malveillant ou non intentionné à un prompt pour détourner la sortie du modèle de langage. La fuite de prompt (prompt leaking) et le jailbreaking sont effectivement des sous-ensembles de cela : La fuite de prompt implique l'extraction d'informations sensibles ou confidentielles des réponses du LLM, tandis que le jailbreaking implique de contourner les fonctionnalités de sécurité et de modération. Nous discuterons également de techniques offensives spécifiques ainsi que de techniques défensives.

Pour se protéger contre le hacking de prompt, des mesures défensives doivent être prises. Celles-ci incluent la mise en œuvre de défenses basées sur les prompts, une surveillance régulière du comportement et des sorties du LLM pour détecter toute activité inhabituelle, et l'utilisation de l'ajustement fin ou d'autres techniques. Dans l'ensemble, le hacking de prompt est une préoccupation croissante pour la sécurité des LLMs, et il est essentiel de rester vigilant et de prendre des mesures proactives pour se protéger contre ces types d'attaques.

0 comments on commit f8237ea

Please sign in to comment.