Prohibir la inteligencia artificial no funciona

Prohibir la inteligencia artificial no funciona

Prohibir la inteligencia artificial no funciona

Diplomado Competencias Integrales para la Abogacía. Este diplomado te brinda conocimientos y técnicas actuales aplicables desde el primer día, fortaleciendo tu práctica con estrategias efectivas de negociación, litigación y redacción jurídica. Desarrollarás habilidades clave como oratoria, gestión de despachos y marketing jurídico, indispensables para destacar en el entorno legal actual.

Miguel Carbonell *

Abogado – Profesor – Escritor – Especialista en Derecho Constitucional

De acuerdo con encuestas recientes, uno de cada seis trabajadores de la Generación Z reconoce haber utilizado herramientas de inteligencia artificial incluso cuando en su organización se les ha indicado expresamente que no lo hagan. El dato no debería sorprendernos. Quienes damos clase a nivel universitario lo vemos a diario: da igual que le digas a los estudiantes que no se puede utilizar la IA, de todas formas lo hacen de forma generalizada.

La IA se ha integrado con tal rapidez en los flujos de trabajo cotidianos que pretender erradicarla mediante prohibiciones formales resulta, en la práctica, ingenuo. La pregunta relevante ya no es si se usa o no inteligencia artificial, sino cómo, para qué y bajo qué reglas.

Las prohibiciones absolutas suelen fracasar por una razón sencilla: ignoran la lógica del comportamiento humano y profesional. Cuando una herramienta permite ahorrar tiempo, mejorar la calidad de un primer borrador, ordenar información compleja o explorar alternativas, los profesionales —especialmente los más jóvenes— la incorporan de manera natural. Si la empresa en la que trabajan o la institución educativa en la que están inscritos no ofrece un marco claro, el uso se desplaza a una zona gris: oculto, desordenado y potencialmente riesgoso.

Desde una perspectiva de gestión, este escenario es el peor posible. No solo se pierde visibilidad sobre cómo se está utilizando la tecnología, sino que se multiplican los riesgos éticos, reputacionales y operativos. La solución, por tanto, no pasa por reforzar las prohibiciones, sino por sustituirlas por directrices claras, realistas y funcionales. Esto es precisamente lo que hemos hecho en el Centro de Estudios Jurídicos Carbonell AC y los resultados han sido muy positivos.

El primer paso consiste en definir con precisión cuándo está permitido el uso de IA. No todas las tareas son iguales ni presentan los mismos riesgos. Es razonable permitir su utilización para actividades como la generación de borradores, la síntesis de documentos extensos, la estructuración de ideas, la detección de errores formales o la exploración de enfoques alternativos. En cambio, deben establecerse límites estrictos cuando se trata de decisiones finales, juicios profesionales, contenidos sensibles, datos confidenciales o información protegida por secreto profesional.

En segundo lugar, resulta imprescindible regular la transparencia y la divulgación. Los equipos deben saber si, cuándo y cómo deben declarar que han utilizado herramientas de IA en su trabajo. No se trata de estigmatizar su uso, sino de integrarlo de forma honesta en los procesos internos. La transparencia protege tanto a la organización como al profesional, y refuerza una cultura de responsabilidad compartida.

Un tercer elemento clave es identificar dónde la IA aporta realmente valor. No todo uso es inteligente ni eficiente. Las organizaciones deben guiar a sus equipos para que comprendan en qué tareas la IA mejora resultados y en cuáles introduce ruido, dependencia o errores. Utilizada sin criterio, la inteligencia artificial puede empobrecer el pensamiento crítico; utilizada con método, puede potenciarlo. La diferencia no la marca la herramienta, sino el marco en el que se emplea.

Además, cualquier política seria sobre IA debe ir acompañada de formación práctica. No basta con distribuir un documento normativo. Los equipos necesitan ejemplos concretos, casos de uso, advertencias claras sobre sesgos, alucinaciones y límites técnicos, así como pautas para la verificación y validación humana de los resultados. La regla debe ser simple: la IA puede asistir, pero la responsabilidad siempre es de la persona.

Finalmente, regular el uso de la inteligencia artificial envía un mensaje cultural poderoso. Comunica que la organización no teme a la tecnología, pero tampoco renuncia a sus estándares profesionales. Reconoce la realidad del trabajo contemporáneo y apuesta por una integración madura, ética y estratégica.

La Generación Z no está “desobedeciendo” por capricho; está señalando una transformación estructural del modo de trabajar. Ignorarla o combatirla con prohibiciones es perder la oportunidad de liderar el cambio. La verdadera ventaja competitiva no está en decir “no” a la IA, sino en saber decir cuándo sí, cómo y para qué.


También te recomendamos…

Sígueme en redes sociales

Recibe nuevo contenido directamente en tu bandeja de entrada.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

error: Content is protected !!

Descubre más desde Miguel Carbonell

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo