Image default
Argentina

La Justicia de Chubut pone el primer «freno de mano» a la IA

El MPF de Chubut marca la cancha en Argentina: si un fiscal usa IA y ‘alucina’, el único que paga los platos rotos es el humano. Prohibido delegar el juicio y meter datos sensibles.

La Inteligencia Artificial Generativa (IAGen) –sí, ese ChatGPT que te salva en los resúmenes– ya no es solo un hobby digital. Entró a fondo en la vida, y ahora le toca al terreno más serio de todos: la Justicia. La onda es que las decisiones en la Fiscalía tienen «altas consecuencias», y la tecnología necesitaba reglas claras.

Aquí viene la novedad: el Ministerio Público Fiscal (MPF) de Chubut se mandó un golazo en 2024 al lanzar el primer protocolo de IA para fiscales de todo el país. La Resolución 238/24 de la Procuración General no se queda a mitad de camino y pone las pautas para que los magistrados y funcionarios usen la IA de manera ética y rigurosa. Con esto, Chubut se pone a tono con gigantes como el Reino Unido, ¡pero en versión patagónica!

La regla de oro: La IA es tu asistente, no tu cerebro

El mensaje principal es directo y sin vueltas. La IA es bienvenida, pero solo como «gestor que complementa», jamás como sustituto del criterio humano.

Imaginate que le pedís a la IA que te ayude con un caso. El protocolo dice: dale, usala para optimizar, pero el juicio, la ética y la firma son tuyos. No podés delegar tu responsabilidad legal en un algoritmo. Si algo sale mal, la culpa no es del software, sino del operador judicial.

El protocolo, version cero errores

El documento se enfoca en los puntos débiles de la tecnología que tenés que tener en radar:

  1. ¡Cuidado con la «alucinación»! 🤯 Sí, la IA puede «alucinar». Significa que te tira respuestas que suenan súper convincentes y armadas, pero que son completamente falsas. Como en la Justicia un dato erróneo es un problemón, la regla es: validación obligatoria. Tenés que chequear todo lo que la IA diga contra fuentes confiables.

  2. No es Google Aquí viene lo técnico: la IA no «busca» información, sino que «construye asociaciones de palabras» que son solo estadísticamente probables. O sea, te inventa algo que suena lógico. Por eso, el protocolo prohíbe usarla como si fuera un buscador para encontrar datos concretos de un caso. ¡No confíes!

  3. Si hay fallo, hay sanción 🙅 El tema es serio. La Resolución 238/24 no solo da tips; avisa que incumplir estas pautas «implica falta e infracción a los fines del Reglamento Disciplinario». Hay consecuencias reales (administrativas y profesionales) si la IA se equivoca y vos no lo corregís. Responsabilidad: 100% Humana.

  4. No le cuentes tus secretos a la IA 🤫 La confidencialidad es sagrada. Está terminantemente prohibido meter datos personales, nombres o información sensible de un caso en los prompts (las instrucciones que le das a la IA). La solución para poder usarla: anonimizar los documentos antes de subirlos.

En resumen: El MPF de Chubut dice sí a la innovación y a ser más eficientes, pero con la cabeza fría. La tecnología es una herramienta increíble, siempre y cuando el criterio, la ética y la responsabilidad sigan siendo 100% humanos. El resto de las Justicias del país ahora tienen un manual para arrancar.

Related posts

Calendario Escolar 2026: cuándo empiezan y terminan las clases en cada provincia

Angela Velez

El Gobierno apeló el fallo que ordena aplicar la Ley de Emergencia en Discapacidad

Angela Velez

Big Mac a precio Suiza: Argentina tiene una de las hamburguesas más caras del mundo

Angela Velez