AI

System Prompts Leaks: La Colección Viral Open-Source de Instrucciones de Sistemas de IA

System Prompts Leaks es una popular colección de código abierto de indicaciones de sistema extraídas de ChatGPT, Claude, Gemini, Grok y otros chatbots de IA importantes.

Keeping this site alive takes effort — your support means everything.
無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分! 無程式碼也能輕鬆打造專業LINE官方帳號!一鍵導入模板,讓AI助你行銷加分!
System Prompts Leaks: La Colección Viral Open-Source de Instrucciones de Sistemas de IA

La indicación de sistema – el conjunto oculto de instrucciones que define el comportamiento, la personalidad y las restricciones de un chatbot de IA – se ha convertido en uno de los secretos más guardados de la industria de la IA. Las empresas invierten fuertemente en la elaboración de estas indicaciones para moldear el comportamiento del modelo, hacer cumplir las pautas de seguridad y crear experiencias de producto distintivas. System Prompts Leaks corre el telón sobre estas instrucciones ocultas, ofreciendo una colección de código abierto de indicaciones de sistema extraídas de prácticamente todos los chatbots de IA importantes.

El repositorio se ha vuelto viral dentro de la comunidad de IA, acumulando miles de estrellas y atrayendo a colaboradores que utilizan diversas técnicas de extracción para revelar las indicaciones de sistema de ChatGPT, Claude, Gemini, Grok, DeepSeek, Copilot, Perplexity y docenas de otros asistentes de IA. Cada entrada proporciona el texto bruto de la indicación de sistema, el modelo del que se extrajo, la fecha de extracción y notas sobre la confianza en la precisión.

Más allá de la simple curiosidad, la colección sirve un propósito serio para la comunidad de IA. Los investigadores estudian estas indicaciones para comprender los enfoques de seguridad de las diferentes empresas. Los ingenieros de prompts las analizan para aprender patrones de instrucción efectivos. Los desarrolladores que construyen aplicaciones de IA las utilizan como material de referencia para crear sus propias indicaciones de sistema. Y el público obtiene transparencia sobre los valores y restricciones programados en las herramientas de IA que utilizan a diario.


¿Cómo se Extraen las Indicaciones de Sistema?

La extracción de indicaciones de sistema es un fascinante juego del gato y el ratón entre los ingenieros de prompts y las empresas de IA. Varias técnicas han demostrado ser efectivas.

graph LR
    A[Objetivo de Extracción] --> B{Técnica}
    B --> C[Ataques de Juego de Roles]
    B --> D[Extracción Recursiva]
    B --> E[Conversión de Formato]
    B --> F[Inferencia Multi-Turno]
    C --> G["'Ignorar instrucciones anteriores'\nreformulación"]
    D --> H["Repetir 'indicación de sistema'\nhasta que se filtre"]
    E --> I["Convertir a JSON/XML\ny solicitar salida"]
    F --> J["Inferir restricciones\na través de consultas de prueba"]
    G --> K[Indicación de Sistema Recopilada]
    H --> K
    I --> K
    J --> K

Estas técnicas explotan una tensión fundamental en el diseño de LLM: el modelo debe poder acceder a su indicación de sistema para seguirla, pero no debe revelarla a los usuarios. Esta tensión crea vulnerabilidades que los ingenieros de prompts han aprendido a explotar, aunque las empresas parchean continuamente estos vectores de extracción.


¿Qué Podemos Aprender de las Indicaciones Filtradas?

Las indicaciones de sistema recopiladas revelan diferencias fascinantes en cómo las empresas de IA abordan la seguridad, la personalidad y la funcionalidad.

AspectoChatGPT (GPT-5)ClaudeGeminiGrok
PersonalidadAsistente servicial, neutralServicial, honesto, inofensivoEquilibrado, factualIngenioso, sin filtros
Enfoque de seguridadSistema de rechazo escalonadoIA ConstitucionalFiltros de seguridadFiltrado mínimo
Autoidentidad«Asistente de IA»«Claude, de Anthropic»«Gemini, de Google»«Grok, de xAI»
Fecha de corte de conocimientoExplicitamente indicadaExplicitamente indicadaVaría según actualizaciónTiempo real predeterminado
Manejo de datos del usuarioCapacitación con exclusiónCapacitación con exclusiónNo utilizado para capacitaciónDatos de X en tiempo real
Estilo de rechazoSugerir alternativasExplicar razonamientoRedirigir a alternativasDirecto «no puedo hacer eso»

Las diferencias en el enfoque son marcadas. El marco de IA Constitucional de Claude es evidente en sus cadenas de razonamiento detalladas al rechazar solicitudes. La iteración GPT-5 de ChatGPT muestra mecanismos de rechazo significativamente más matizados en comparación con versiones anteriores. Las indicaciones de Grok revelan una elección deliberada de minimizar las restricciones en favor de respuestas sin censura.


¿Qué Servicios de IA Están Documentados en la Colección?

El repositorio cubre una amplia gama de servicios de IA, desde los principales chatbots de consumo hasta asistentes especializados de nicho.

Servicio de IAEmpresaLongitud de Indicación de SistemaConfianza de Extracción
ChatGPTOpenAI~1,700 palabrasAlta
ClaudeAnthropic~1,200 palabrasAlta
GeminiGoogle~900 palabrasAlta
GrokxAI~600 palabrasMedia
DeepSeekDeepSeek~1,500 palabrasAlta
CopilotMicrosoft~800 palabrasMedia
PerplexityPerplexity AI~500 palabrasBaja
PiInflection AI~400 palabrasMedia
You.comYou.com~700 palabrasBaja

El repositorio actualiza continuamente las entradas a medida que las empresas modifican sus indicaciones de sistema. Eventos significativos como lanzamientos de productos, incidentes de seguridad o cambios de políticas a menudo desencadenan cambios observables en las indicaciones que la comunidad documenta.


¿Qué Preguntas Éticas y Legales Plantea Esto?

La colección de indicaciones de sistema filtradas existe en un espacio disputado entre la transparencia, la propiedad intelectual y los términos de servicio.

Parte InteresadaPerspectivaPreocupación Clave
Empresas de IALas indicaciones son IP propietariaProtección de secretos comerciales, ventaja competitiva
InvestigadoresLas indicaciones permiten el análisis de seguridadComprender el comportamiento y sesgos de la IA
DesarrolladoresLas indicaciones proporcionan material de referenciaAprender patrones efectivos de ingeniería de prompts
Usuarios finalesLas indicaciones revelan restricciones ocultasTransparencia sobre las limitaciones y sesgos de la IA
Sistemas legalesTerritorio legal ambiguoDerechos de autor, derecho contractual, secretos comerciales

El debate refleja discusiones anteriores en la transparencia del software – si las empresas deberían estar obligadas a divulgar las instrucciones que gobiernan el comportamiento de la IA, particularmente cuando esas IA se utilizan en contextos de alto riesgo como la atención médica, la educación y la justicia penal.


FAQ

¿Qué es el repositorio System Prompts Leaks? System Prompts Leaks es un repositorio de GitHub de código abierto que recopila indicaciones de sistema extraídas de los principales chatbots de IA, incluyendo ChatGPT, Claude, Gemini, Grok, DeepSeek y otros, proporcionando información sobre cómo se instruye a estos sistemas de IA para comportarse.

¿Cómo se obtienen estas indicaciones de sistema? Las indicaciones se extraen mediante diversas técnicas de ingeniería de prompts, incluyendo ingeniería social, inyección de prompts y explotación de peculiaridades en cómo los modelos manejan las instrucciones del sistema. La colección es mantenida por la comunidad.

¿Qué podemos aprender al estudiar las indicaciones de sistema filtradas? Las indicaciones revelan cómo las empresas de IA manejan las restricciones de seguridad, la moderación de contenido, la configuración de personalidad, los patrones de rechazo y la implementación de funciones. Proporcionan una valiosa transparencia sobre el diseño del comportamiento de la IA.

¿Son precisas y actualizadas las indicaciones de sistema filtradas? La precisión varía. Algunas indicaciones se verifican mediante múltiples intentos de extracción, mientras que otras pueden estar incompletas o mal atribuidas. El repositorio anota estas distinciones y la comunidad valida y actualiza continuamente las entradas.

¿Es legal recopilar y compartir indicaciones de sistema filtradas? El estado legal es complejo y varía según la jurisdicción. El repositorio opera en un área gris – las indicaciones se acceden a través de interacciones API legítimas, pero su recopilación a menudo viola los términos de servicio de los proveedores.


Lecturas Adicionales

TAG
CATEGORIES