La indicación de sistema – el conjunto oculto de instrucciones que define el comportamiento, la personalidad y las restricciones de un chatbot de IA – se ha convertido en uno de los secretos más guardados de la industria de la IA. Las empresas invierten fuertemente en la elaboración de estas indicaciones para moldear el comportamiento del modelo, hacer cumplir las pautas de seguridad y crear experiencias de producto distintivas. System Prompts Leaks corre el telón sobre estas instrucciones ocultas, ofreciendo una colección de código abierto de indicaciones de sistema extraídas de prácticamente todos los chatbots de IA importantes.
El repositorio se ha vuelto viral dentro de la comunidad de IA, acumulando miles de estrellas y atrayendo a colaboradores que utilizan diversas técnicas de extracción para revelar las indicaciones de sistema de ChatGPT, Claude, Gemini, Grok, DeepSeek, Copilot, Perplexity y docenas de otros asistentes de IA. Cada entrada proporciona el texto bruto de la indicación de sistema, el modelo del que se extrajo, la fecha de extracción y notas sobre la confianza en la precisión.
Más allá de la simple curiosidad, la colección sirve un propósito serio para la comunidad de IA. Los investigadores estudian estas indicaciones para comprender los enfoques de seguridad de las diferentes empresas. Los ingenieros de prompts las analizan para aprender patrones de instrucción efectivos. Los desarrolladores que construyen aplicaciones de IA las utilizan como material de referencia para crear sus propias indicaciones de sistema. Y el público obtiene transparencia sobre los valores y restricciones programados en las herramientas de IA que utilizan a diario.
¿Cómo se Extraen las Indicaciones de Sistema?
La extracción de indicaciones de sistema es un fascinante juego del gato y el ratón entre los ingenieros de prompts y las empresas de IA. Varias técnicas han demostrado ser efectivas.
graph LR
A[Objetivo de Extracción] --> B{Técnica}
B --> C[Ataques de Juego de Roles]
B --> D[Extracción Recursiva]
B --> E[Conversión de Formato]
B --> F[Inferencia Multi-Turno]
C --> G["'Ignorar instrucciones anteriores'\nreformulación"]
D --> H["Repetir 'indicación de sistema'\nhasta que se filtre"]
E --> I["Convertir a JSON/XML\ny solicitar salida"]
F --> J["Inferir restricciones\na través de consultas de prueba"]
G --> K[Indicación de Sistema Recopilada]
H --> K
I --> K
J --> K
Estas técnicas explotan una tensión fundamental en el diseño de LLM: el modelo debe poder acceder a su indicación de sistema para seguirla, pero no debe revelarla a los usuarios. Esta tensión crea vulnerabilidades que los ingenieros de prompts han aprendido a explotar, aunque las empresas parchean continuamente estos vectores de extracción.
¿Qué Podemos Aprender de las Indicaciones Filtradas?
Las indicaciones de sistema recopiladas revelan diferencias fascinantes en cómo las empresas de IA abordan la seguridad, la personalidad y la funcionalidad.
| Aspecto | ChatGPT (GPT-5) | Claude | Gemini | Grok |
|---|---|---|---|---|
| Personalidad | Asistente servicial, neutral | Servicial, honesto, inofensivo | Equilibrado, factual | Ingenioso, sin filtros |
| Enfoque de seguridad | Sistema de rechazo escalonado | IA Constitucional | Filtros de seguridad | Filtrado mínimo |
| Autoidentidad | «Asistente de IA» | «Claude, de Anthropic» | «Gemini, de Google» | «Grok, de xAI» |
| Fecha de corte de conocimiento | Explicitamente indicada | Explicitamente indicada | Varía según actualización | Tiempo real predeterminado |
| Manejo de datos del usuario | Capacitación con exclusión | Capacitación con exclusión | No utilizado para capacitación | Datos de X en tiempo real |
| Estilo de rechazo | Sugerir alternativas | Explicar razonamiento | Redirigir a alternativas | Directo «no puedo hacer eso» |
Las diferencias en el enfoque son marcadas. El marco de IA Constitucional de Claude es evidente en sus cadenas de razonamiento detalladas al rechazar solicitudes. La iteración GPT-5 de ChatGPT muestra mecanismos de rechazo significativamente más matizados en comparación con versiones anteriores. Las indicaciones de Grok revelan una elección deliberada de minimizar las restricciones en favor de respuestas sin censura.
¿Qué Servicios de IA Están Documentados en la Colección?
El repositorio cubre una amplia gama de servicios de IA, desde los principales chatbots de consumo hasta asistentes especializados de nicho.
| Servicio de IA | Empresa | Longitud de Indicación de Sistema | Confianza de Extracción |
|---|---|---|---|
| ChatGPT | OpenAI | ~1,700 palabras | Alta |
| Claude | Anthropic | ~1,200 palabras | Alta |
| Gemini | ~900 palabras | Alta | |
| Grok | xAI | ~600 palabras | Media |
| DeepSeek | DeepSeek | ~1,500 palabras | Alta |
| Copilot | Microsoft | ~800 palabras | Media |
| Perplexity | Perplexity AI | ~500 palabras | Baja |
| Pi | Inflection AI | ~400 palabras | Media |
| You.com | You.com | ~700 palabras | Baja |
El repositorio actualiza continuamente las entradas a medida que las empresas modifican sus indicaciones de sistema. Eventos significativos como lanzamientos de productos, incidentes de seguridad o cambios de políticas a menudo desencadenan cambios observables en las indicaciones que la comunidad documenta.
¿Qué Preguntas Éticas y Legales Plantea Esto?
La colección de indicaciones de sistema filtradas existe en un espacio disputado entre la transparencia, la propiedad intelectual y los términos de servicio.
| Parte Interesada | Perspectiva | Preocupación Clave |
|---|---|---|
| Empresas de IA | Las indicaciones son IP propietaria | Protección de secretos comerciales, ventaja competitiva |
| Investigadores | Las indicaciones permiten el análisis de seguridad | Comprender el comportamiento y sesgos de la IA |
| Desarrolladores | Las indicaciones proporcionan material de referencia | Aprender patrones efectivos de ingeniería de prompts |
| Usuarios finales | Las indicaciones revelan restricciones ocultas | Transparencia sobre las limitaciones y sesgos de la IA |
| Sistemas legales | Territorio legal ambiguo | Derechos de autor, derecho contractual, secretos comerciales |
El debate refleja discusiones anteriores en la transparencia del software – si las empresas deberían estar obligadas a divulgar las instrucciones que gobiernan el comportamiento de la IA, particularmente cuando esas IA se utilizan en contextos de alto riesgo como la atención médica, la educación y la justicia penal.
FAQ
¿Qué es el repositorio System Prompts Leaks? System Prompts Leaks es un repositorio de GitHub de código abierto que recopila indicaciones de sistema extraídas de los principales chatbots de IA, incluyendo ChatGPT, Claude, Gemini, Grok, DeepSeek y otros, proporcionando información sobre cómo se instruye a estos sistemas de IA para comportarse.
¿Cómo se obtienen estas indicaciones de sistema? Las indicaciones se extraen mediante diversas técnicas de ingeniería de prompts, incluyendo ingeniería social, inyección de prompts y explotación de peculiaridades en cómo los modelos manejan las instrucciones del sistema. La colección es mantenida por la comunidad.
¿Qué podemos aprender al estudiar las indicaciones de sistema filtradas? Las indicaciones revelan cómo las empresas de IA manejan las restricciones de seguridad, la moderación de contenido, la configuración de personalidad, los patrones de rechazo y la implementación de funciones. Proporcionan una valiosa transparencia sobre el diseño del comportamiento de la IA.
¿Son precisas y actualizadas las indicaciones de sistema filtradas? La precisión varía. Algunas indicaciones se verifican mediante múltiples intentos de extracción, mientras que otras pueden estar incompletas o mal atribuidas. El repositorio anota estas distinciones y la comunidad valida y actualiza continuamente las entradas.
¿Es legal recopilar y compartir indicaciones de sistema filtradas? El estado legal es complejo y varía según la jurisdicción. El repositorio opera en un área gris – las indicaciones se acceden a través de interacciones API legítimas, pero su recopilación a menudo viola los términos de servicio de los proveedores.
Lecturas Adicionales
- Repositorio de GitHub de System Prompts Leaks – La colección completa de indicaciones de sistema extraídas
- IA Constitucional de Anthropic – La metodología de seguridad detrás del diseño de la indicación de sistema de Claude
- Guía de Ingeniería de Prompts – Guía completa de técnicas de ingeniería de prompts
- Documentación de Indicaciones de Sistema de OpenAI – Orientación oficial sobre diseño de prompts
- Investigación sobre Transparencia en IA – Marco de transparencia de Partnership on AI
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!