Saltar al contenido

Curso gratuito: IA para ONGs

Lección 1: Cómo funciona la IA

Si quieres utilizar bien la IA, necesitas entender qué es en realidad. No a nivel de ingeniería, pero sí lo suficiente como para tomar decisiones inteligentes sobre qué herramientas adoptar y qué riesgos vigilar.

IA generativa y otros tipos de IA

Hoy en día, cuando la mayoría de la gente habla de IA, suele referirse a una rama específica: la IA generativa. Pero la IA es un campo mucho más amplio, y entender el panorama te ayudará a evitar confusiones.

La inteligencia artificial es el término general para los sistemas informáticos diseñados para realizar tareas que normalmente requerirían inteligencia humana: reconocer patrones, tomar decisiones, traducir idiomas, identificar imágenes, etc. La IA existe de diversas formas desde la década de 1950. El filtro de spam de tu bandeja de entrada es IA. El algoritmo que decide qué páginas aparecen en Google o qué publicaciones ves en tu muro de Facebook es IA. El software que detecta transacciones inusuales con tarjetas de crédito es IA.

Hay quien dice «yo no uso la IA», pero eso no es cierto para el 99 % de las personas. Todos utilizamos herramientas asistidas por IA a diario. Es probable que incluso estés usando IA generativa sin saberlo en plataformas como Google o YouTube (respuestas automáticas de IA, subtítulos o traducciones automáticas, etc.).

Aquí tienes un mapa rápido de los principales tipos de IA con los que probablemente te encontrarás como profesional de una ONG:

  • IA Generativa: crea contenido nuevo (texto, imágenes, audio, vídeo, código). Ejemplos: ChatGPT, Claude, Gemini, Midjourney, Suno.
  • IA Predictiva: utiliza datos históricos para prever resultados. Ejemplos: modelos de abandono de donantes, predictores de éxito en una subvención, detección de fraude. Muchas ONGs ya utilizan este tipo de IA sin llamarla IA.
  • IA de Clasificación: organiza las entradas en categorías. Ejemplos: análisis de sentimientos en respuestas de encuestas, filtrado de spam, moderación de contenidos.
  • IA de Recomendación: sugiere contenidos o acciones basados en patrones de comportamiento. Ejemplos: los recursos sugeridos en tu CRM, el algoritmo de YouTube.

Durante la mayor parte de este curso, nos centraremos en la IA generativa, porque es la categoría que está cambiando el trabajo diario de forma más visible. Presenta tanto las mayores oportunidades como los riesgos más significativos para los equipos de las ONGs.

Cómo funcionan los LLM

La IA generativa se basa en gran medida en los grandes modelos de lenguaje (LLM, por sus siglas en inglés). La forma más fácil de entender un LLM es pensar en él como un autocompletado muy avanzado.

Los LLM no «piensan» ni «entienden» el texto como lo hacemos los humanos. Utilizan estadísticas complejas para predecir qué palabra debería ir a continuación basándose en el prompt que les has dado. Si escribes «Gracias por tu generosa…», el LLM predice que la siguiente palabra probablemente sea «donación» o «ayuda». Como estos modelos son masivos, este sencillo mecanismo de predicción les permite escribir textos muy coherentes, complejos y creativos.

Es importante entender esto porque explica tanto la potencia como las limitaciones de los LLM:

  • La potencia: debido a que estos modelos han procesado tanto conocimiento humano, pueden sintetizar ideas, explicar temas complejos, escribir en diferentes estilos, traducir idiomas, ayudar a depurar problemas y asistir en una enorme gama de tareas.
  • Las limitaciones: al estar prediciendo texto plausible, pueden generar errores que suenan muy convincentes (normalmente llamados «alucinaciones»). Además, a veces no pueden explicar por qué han hecho algo mal (pueden escribir una explicación plausible si se la pides, pero muchas veces no es la explicación real de por qué sus complejos sistemas internos eligieron esa respuesta).

Las plataformas de IA más recientes aportan capacidades de razonamiento, comprensión multimodal (imagen, audio y vídeo) y acceso a herramientas a los LLM, por lo que ya no son simples «predictores de palabras»; pueden generar ideas más complejas y actuar sobre ellas. Pero siguen sin pensar como nosotros, y nunca debemos olvidarlo.

La diferencia entre modelos de IA y productos de IA

Debes conocer la diferencia entre el motor y el coche.

  • El modelo de IA: es el motor subyacente. Ejemplos de ello son GPT-5, Claude 4 o Gemini 3. Son los marcos matemáticos entrenados principalmente por las grandes empresas tecnológicas. A veces, empresas más pequeñas ajustan los modelos principales para tareas específicas.
  • El producto de IA: es la aplicación de software (el coche) construida sobre ese motor. ChatGPT es un producto construido sobre el modelo GPT. El CRM de donantes personalizado de tu organización también podría ser un producto que utiliza exactamente el mismo motor GPT bajo el capó.

Cuando evalúes una herramienta de IA para tu organización, debes hacer tanto preguntas a nivel de producto (funciones, precio, soporte) como preguntas a nivel de modelo (modelos incluidos, políticas de entrenamiento, fecha de corte de conocimiento, gestión de datos). Los productos basados en el mismo modelo pueden ofrecer resultados muy diferentes.

Formas de usar la IA

Las herramientas de IA se presentan en muchas formas, y la manera en que accedas a ellas tiene implicaciones reales para la privacidad, el presupuesto y la flexibilidad de tu organización. Estas son las distinciones más importantes.

Nube vs. Local

La mayoría de las herramientas de IA que utilizas hoy en día están basadas en la nube: tu entrada se envía a un servidor propiedad de la empresa de IA, se procesa allí y la respuesta se te envía de vuelta. Esto es cómodo y te da acceso a los modelos más potentes, pero significa que tus datos salen de los sistemas de tu organización.

La IA local consiste en ejecutar un modelo en tu propio hardware (un ordenador portátil o un servidor que tu organización controle). La contrapartida es que los modelos locales suelen ser menos capaces que los modelos más grandes de la nube, y ejecutarlos requiere cierta configuración técnica. Para datos muy sensibles (registros de clientes, información confidencial de donantes), vale la pena explorar la IA local.

Código cerrado vs. Código abierto

La IA de código cerrado (también llamada IA propietaria) significa que el modelo subyacente es propiedad de una empresa y tú no puedes examinarlo, modificarlo ni ejecutarlo por tu cuenta. ChatGPT, Claude y Gemini son todos de código cerrado. Ofrecen los modelos más potentes, pero estás sujeto a sus condiciones, gestión de datos, cambios de precio, etc.

La IA de código abierto significa que los modelos están disponibles públicamente. Cualquiera puede descargarlos y ejecutarlos. Ejemplos de ello son Llama, Mistral, Qwen, Deepseek y muchos otros. Los modelos de código abierto pueden ejecutarse localmente, modificarse y desplegarse en tu propia infraestructura, lo que te da más control pero requiere más conocimientos informáticos.

Para las ONGs con recursos informáticos limitados, las herramientas en la nube de código cerrado suelen ser el punto de partida práctico. Pero vigilar las opciones de código abierto es inteligente para lograr una independencia a largo plazo de los grandes proveedores tecnológicos.

API vs. UI

Una UI (interfaz de usuario) es con lo que interactúas cuando vas a Claude.ai o ChatGPT.com y escribes un mensaje. Está diseñada para humanos. Normalmente pagas una suscripción mensual por usuario si quieres los mejores modelos y funciones.

Una API (Interfaz de Programación de Aplicaciones) es una forma de que el software hable con el software. Si conectas tu CRM directamente a un modelo de IA para resumir automáticamente las notas de los donantes, eso es acceso por API. Normalmente requiere personal técnico o plataformas de integración sin código como Make, Zapier o n8n. Las API se pagan por uso (según cuántas palabras/tokens soliciten tus aplicaciones a los sistemas de IA), no a un precio fijo por usuario o aplicación.

La mayoría de las ONGs empiezan con la UI y pasan a la API para explorar nuevas oportunidades (automatización, herramientas personalizadas, uso de modelos de IA de vanguardia de diferentes empresas sin pagar muchas suscripciones distintas, etc.).

Chatbots vs. Agentes

Los chatbots como ChatGPT simplemente responden a tus mensajes. Son reactivos. No realizan cambios en tus sistemas ni hacen nada sin tu intervención.

Los agentes de IA pueden realizar acciones de forma autónoma a lo largo de varios pasos y utilizando múltiples herramientas si es necesario. Le das un objetivo a un agente y este puede navegar por la web, abrir documentos, realizar búsquedas, acceder a tu email o realizar cambios en herramientas externas, todo ello sin que tú guíes cada paso. Algunos agentes pueden incluso realizar tareas recurrentes de forma programada, sin intervención humana.

Los agentes son potentes (y probablemente el futuro para muchas tareas), pero requieren una supervisión más cuidadosa. Un agente que tenga acceso a tu email, calendario o base de datos de donantes puede causar un daño real si entiende mal una instrucción o actúa basándose en información incorrecta. Probablemente deberías empezar utilizando agentes solo para tareas de bajo riesgo y reversibles.

La «frontera irregular» de la IA

Los investigadores utilizan el término «frontera irregular» (jagged frontier) para describir lo desiguales que son las capacidades de la IA. Algunas tareas complejas para los humanos son sorprendentemente fáciles para la IA, mientras que algunas tareas sencillas para los humanos no pueden ser realizadas correctamente por la IA.

Lo difícil es que esta frontera irregular no sigue reglas obvias. Para las ONGs, esto significa:

  • No puedes asumir que si la IA maneja bien una tarea, manejará igual de bien todas las tareas similares.
  • Debes probar la IA en tus casos de uso específicos y tratar cualquier caso de uso nuevo como un experimento, no como una luz verde automática.

¿Qué son los datos de entrenamiento?

Un modelo de IA aprende de los datos de entrenamiento: la colección de texto, imágenes, audio y/o vídeo (dependiendo del tipo de IA) a la que fue expuesto durante el proceso de entrenamiento.

Para las ONGs, los datos de entrenamiento tienen tres implicaciones principales:

  • Sesgo: si ciertas comunidades, idiomas o regiones están subrepresentadas o mal representadas en los datos de entrenamiento, el modelo reproducirá ese sesgo en sus resultados.
  • Lagunas: si tu país, idioma, campo o tipo de trabajo no está bien cubierto, el modelo puede ser muy flojo en esos temas.
  • Privacidad y ética: debes entender si el modelo fue entrenado con datos similares a los tuyos y si se pudo incluir contenido sensible o con derechos de autor.

¿Qué es la fecha de corte de conocimiento?

La fecha de corte de conocimiento es el punto en el tiempo después del cual el modelo no ha visto nuevos datos de entrenamiento. En otras palabras, conoce eventos e información hasta esa fecha, pero no después, a menos que el producto añada búsqueda o recuperación en tiempo real por encima.

Debido a que los ciclos de entrenamiento son costosos y lentos, los modelos se entrenan normalmente con datos que se detienen varios meses antes del lanzamiento del modelo. Las grandes empresas siempre están entrenando nuevos modelos, pero el modelo específico que estás usando ahora nunca aprenderá información nueva. No deberías asumir que la IA sabe lo que pasó el mes pasado, ni siquiera el año pasado.

Para las ONGs, esto significa:

  • Es posible que el modelo no conozca tu última campaña, conflictos o desastres recientes, cambios de política o nuevas regulaciones. La IA puede darte información que era precisa hace un año pero que ya no es correcta.
  • Cuando necesites información actualizada, debes proporcionarla en el prompt, conectar la IA a una fuente de datos en vivo o utilizar herramientas de investigación web en lugar de confiar en su «memoria».

¿Qué es la ventana de contexto?

La ventana de contexto es la cantidad de texto que un modelo de IA puede «tener en mente» a la vez durante una conversación. Incluye tus mensajes, las respuestas de la IA, cualquier documento que hayas subido y cualquier instrucción del sistema que se haya proporcionado.

Si estás trabajando con un documento largo o una conversación muy extensa, la IA puede empezar a «olvidar» cosas. Esto puede llevar a situaciones en las que el usuario cree que la IA ha leído un informe completo de 100 páginas, pero en realidad solo recuerda parte de él.

Las ventanas de contexto han crecido drásticamente en los modelos recientes, pero aun así debes tener cuidado. Puede haber una «degradación del contexto» incluso si no superas la ventana (los modelos pueden perder el foco en la información relevante en contextos largos, lo que provoca más alucinaciones o instrucciones ignoradas).

Para las ONGs, esto afecta a cómo diseñas los flujos de trabajo:

  • Para documentos largos, divídelos en secciones o trabaja con resúmenes.
  • Para proyectos en curso, crea informes concisos que capturen el contexto esencial en lugar de pegar hilos enteros de emails o documentos enormes.
  • Para tareas críticas, pide al modelo que repita los datos clave que está utilizando, para que puedas comprobar si realmente ha visto lo que importa.

¿Qué es el fine-tuning?

El fine-tuning (o ajuste fino) consiste en coger un modelo preentrenado y entrenarlo más con un conjunto de datos especializado más pequeño para que se comporte de forma diferente según tu caso de uso. Es como darle al modelo lecciones extra centradas en el lenguaje, las políticas o los flujos de trabajo de tu organización.

El fine-tuning puede ayudar en tareas en las que quieres un comportamiento consistente y específico de la organización, como responder preguntas frecuentes sobre tus servicios o seguir tu tono de voz. Sin embargo, tiene costes adicionales y requiere ejemplos de alta calidad y una evaluación cuidadosa.

Para la mayoría de las ONGs, el primer paso no es el fine-tuning. Normalmente obtendrás más beneficios mediante:

  • La redacción de mejores prompts que incluyan tus políticas y ejemplos.
  • La aportación de contexto e instrucciones detalladas en lo que se llama un prompt de sistema o instrucciones personalizadas (ChatGPT y herramientas similares tienen esa función). Para muchos casos de uso, un prompt de sistema bien elaborado puede darte la mayoría de las ventajas del fine-tuning sin la carga técnica.
  • El uso de herramientas que te permitan subir o conectar tus propios documentos para su recuperación (ej. NotebookLM).

Solo considera el fine-tuning más adelante para tareas repetitivas de gran volumen donde la inversión extra merezca la pena.

¿Qué son las alucinaciones?

Una alucinación de IA es cuando el modelo genera información que es fácticamente errónea, completamente inventada o internamente inconsistente, y lo hace con el mismo tono de seguridad que utiliza cuando está en lo cierto. El modelo no señala el error. No dice «no estoy seguro de esto». Simplemente afirma lo incorrecto como si fuera verdad.

En los LLM, las alucinaciones suelen presentarse como estadísticas inventadas, fuentes falsas, consejos legales o médicos incorrectos, o descripciones de eventos que suenan plausibles pero son erróneas.

Varios factores contribuyen a las alucinaciones: lagunas o errores en los datos de entrenamiento, la forma probabilística en que los modelos generan texto y el hecho de que los modelos están optimizados para un lenguaje plausible más que para la verdad.

Puedes minimizar las alucinaciones utilizando los últimos modelos de vanguardia (menos propensos a ellas) y las funciones de investigación web incluidas en ChatGPT y herramientas similares (diseñadas para buscar fuentes fiables e incluir enlaces), pero nunca van a ser del 0 % con la tecnología LLM actual.

Por eso deberías desarrollar hábitos de verificación constantes. Cualquier afirmación fáctica en un documento asistido por IA debe cotejarse con una fuente fiable antes de ser publicada. Las estadísticas, citas, referencias legales y cualquier afirmación específica sobre otras organizaciones o personas deben tratarse como no verificadas hasta que se confirmen.

Resumen

  1. La IA generativa, la tecnología detrás de ChatGPT y herramientas similares, es la rama más relevante de la IA ahora mismo. Pero la IA no es solo GenAI.
  2. La forma en que accedes a la IA (nube o local, código cerrado o código abierto, UI o API, chatbots o agentes) tiene implicaciones importantes para la privacidad, el coste y el control.
  3. La frontera irregular significa que la IA es impredeciblemente buena y mala. Pruébala para tus casos de uso específicos. No generalices.
  4. Los datos de entrenamiento dan forma al conocimiento del modelo y a sus sesgos. Sé consciente de ambos.
  5. Las fechas de corte de conocimiento significan que la IA puede estar desactualizada. Utiliza herramientas de investigación y verifica la información sensible al tiempo.
  6. Las ventanas de contexto determinan lo que la IA puede «recordar». No asumas que la IA recuerda todo lo que escribes o subes.
  7. El fine-tuning es una opción avanzada para personalizar la IA a tus necesidades. Proporcionar ejemplos y usar prompts de sistema son alternativas más accesibles.
  8. Las alucinaciones son reales y comunes. Incorpora la verificación en cada flujo de trabajo que utilice IA para afirmaciones fácticas.

Lección 2: Qué puede (y qué no puede) hacer la IA en 2026

Si te crees el bombo publicitario de las grandes empresas tecnológicas, la IA puede dirigir toda tu ONG mientras tú te relajas. Si crees a los agoreros, la IA es completamente inútil y poco fiable. La realidad en 2026 está justo en el medio.

La IA es una herramienta increíblemente potente, pero es una herramienta con fortalezas específicas y debilidades evidentes. Para utilizarla con eficacia, tienes que saber exactamente cuándo delegar una tarea en la IA y cuándo mantenerla estrictamente en manos humanas.

Dónde es fuerte la IA hoy en día

Estas son las áreas en las que deberías apoyarte fuertemente en la IA ahora mismo:

Redacción y edición de textos

Los modelos de lenguaje modernos son muy buenos produciendo textos claros y estructurados cuando les das un rol específico, una audiencia y ejemplos.

Usos típicos en ONGs:

  • Redactar primeras versiones de emails a donantes, boletines, publicaciones en redes sociales, entradas de blog y textos para la web.
  • Reescribir comunicaciones para diferentes públicos: por ejemplo, simplificar textos técnicos para beneficiarios o responsables políticos.
  • Convertir puntos clave o notas desordenadas en párrafos pulidos, FAQs o guiones para voluntarios.

Resumen y reorganización de información

La IA es muy eficaz comprimiendo y reestructurando textos: esto aprovecha directamente su capacidad de reconocimiento de patrones.

Ejemplos útiles para ONGs:

  • Resumir informes largos, transcripciones de reuniones o notas de consultas en informes breves.
  • Crear resúmenes de una página para la junta directiva a partir de documentos de estrategia de 50 páginas.
  • Convertir notas de casos en resúmenes temáticos anonimizados para el aprendizaje interno.

El riesgo es que los resúmenes pueden omitir detalles sutiles pero importantes, por lo que los humanos deben seguir revisando el contenido, especialmente en programas sensibles.

Traducción y apoyo lingüístico

Los sistemas modernos de IA proporcionan una sólida traducción y soporte multilingüe para muchos de los idiomas principales.

Para las ONGs, esto puede permitir:

  • Traducción rápida de materiales de divulgación a varios idiomas para borradores iniciales.
  • Comprobar el tono y la claridad de los mensajes para hablantes no nativos.
  • Ayudar a que el personal que habla distintos idiomas colabore en documentos compartidos.

Sin embargo, para textos legales, comunicaciones sensibles o idiomas minoritarios, deberías seguir contando con revisores humanos con fluidez.

Análisis de datos básico

La IA es buena escaneando grandes conjuntos de datos o corpus de texto y sugiriendo patrones, valores atípicos y correlaciones sencillas.

Ejemplos para ONGs:

  • Análisis exploratorio de datos de donantes para identificar segmentos, patrones de donación o riesgo de abandono.
  • Agrupar respuestas de encuestas abiertas por temas.
  • Detectar anomalías en registros de transacciones que puedan sugerir fraude o errores en los informes.

Debes tratar las conclusiones de la IA como hipótesis, no como conclusiones: el personal aún debe validar los resultados con comprobaciones estadísticas y de dominio adecuadas.

Lluvia de ideas e ideación

Estudios que comparan a humanos y modelos en pruebas estándar de creatividad revelan que los modelos de IA suelen generar más ideas y puntuaciones medias de originalidad más altas en tareas de pensamiento divergente.

En la práctica, esto hace que la IA sea útil para:

  • Idear conceptos para eventos, campañas o ángulos de colaboración.
  • Generar titulares alternativos, eslóganes o historias para probar.
  • Proponer variaciones en programas existentes, como nuevos formatos de talleres o tácticas de captación de voluntarios.

La IA es muy buena en la «cantidad de ideas» y en remezclar patrones conocidos. Los humanos deben seguir eligiendo qué ideas se ajustan a la misión, las limitaciones y la realidad de la comunidad.

Programación y tareas técnicas

Para el personal que trabaja con sitios web, bases de datos o cualquier tipo de infraestructura técnica, la IA se ha convertido en un asistente extraordinario.

No necesitas ser desarrollador para usar la IA para escribir un script sencillo, crear un formulario, arreglar un trozo de código roto, crear una visualización de datos o solucionar un problema técnico. La IA explica lo que está haciendo en lenguaje sencillo y puede iterar basándose en tus comentarios. Esto está democratizando la capacidad técnica en organizaciones que no pueden permitirse personal informático dedicado.

Dónde falla la IA a menudo o supone un alto riesgo

Pasemos ahora a la conversación más difícil. De la misma manera que sobreestimar la IA conduce a errores embarazosos, subestimar sus fallos provoca daños reales.

Decisiones automatizadas que afectan a las personas

Los sistemas de IA pueden amplificar el sesgo de su entrenamiento o de los datos de entrada, lo que conduce a resultados injustos entre grupos demográficos.

Ejemplos de alto riesgo en ONGs incluyen:

  • Cribado automatizado de beneficiarios o solicitantes de servicios.
  • Priorización automatizada de quién recibe primero una ayuda limitada.
  • Calificación automatizada del personal o de los voluntarios para el rendimiento o el ascenso.

Dado que estas decisiones son moral y políticamente sensibles, deberías mantener a los humanos al mando y usar la IA solo como una herramienta de apoyo transparente, si es que la usas.

Generación de ideas novedosas

La IA es muy buena recombinando y sintetizando ideas existentes. Es mucho más débil en la originalidad genuina: identificar un patrón que nadie ha notado, desarrollar un marco teórico verdaderamente nuevo o producir un trabajo creativo que rompa con las convenciones establecidas de forma significativa.

Para las ONGs que realizan un trabajo de innovación, organización comunitaria que depende del conocimiento local o diseño de programas que requiere una profunda experiencia en el sector, la IA es una herramienta que puede acelerar la ejecución de ideas, pero no es una fuente fiable de pensamiento disruptivo.

Agentes totalmente autónomos conectados a sistemas reales

Las organizaciones que experimentan con agentes de IA que pueden actuar sobre el email, los CRM y las bases de datos informaron de que los pequeños errores de la IA podían propagarse y convertirse en problemas a gran escala: por ejemplo, enviar mensajes incorrectos a muchos contactos o corromper registros de datos.

Esto es especialmente arriesgado para las ONGs:

  • Un agente sin supervisión podría enviar emails a los donantes con importes erróneos o mensajes desalineados.
  • Podría cambiar registros en los sistemas de gestión de casos basándose en interpretaciones erróneas.
  • Podría compartir accidentalmente información sensible si los límites de la herramienta no están cuidadosamente diseñados.

Guía: Si un agente de IA puede hacer clic, enviar o borrar en tu nombre, trátalo como lo harías con un nuevo miembro del personal con acceso al sistema. Empieza con permisos muy limitados, registros de actividad y aprobaciones humanas.

Donde la IA nunca lo hará tan bien como los humanos

Más allá de las limitaciones actuales que pueden mejorar con el tiempo, existen categorías de trabajo en las que la intervención humana no solo es necesaria en la actualidad, sino que lo seguirá siendo por naturaleza. Entender esto es importante para tomar buenas decisiones sobre dónde invertir en la integración de la IA y dónde proteger los roles humanos.

Trata a la IA como a un becario brillante pero temerario. Puedes darle al becario tareas complejas, enormes cantidades de lectura y encargos creativos de lluvia de ideas. Pero nunca dejarías que ese becario publicara un documento legal, manejara archivos médicos sensibles o hablara en nombre de tu organización sin que tú revisaras su trabajo primero.

Empatía y confianza

Aunque algunos estudios demuestran que la IA puede ser calificada como «más empática» que los médicos en las respuestas escritas, los críticos señalan que estas pruebas reducen la empatía al estilo del texto e ignoran el contexto real de las relaciones humanas.

En el trabajo de las ONGs, la confianza se construye mediante:

  • Estar presente física o emocionalmente con las personas a lo largo del tiempo.
  • Entender la historia de la comunidad, sus traumas y sus dinámicas de poder.
  • Compartir la vulnerabilidad y la rendición de cuentas.

La IA puede ayudar a redactar un lenguaje empático, pero no puede participar en relaciones reales ni ser considerada responsable moralmente cuando las cosas van mal.

Juicio ético

Las decisiones sobre quién recibe una ayuda limitada, cómo equilibrar los deseos de los donantes y las necesidades de la comunidad, y cómo responder a las presiones políticas son fundamentalmente éticas y políticas, no técnicas.

La IA puede:

  • Ayudar a clarificar opciones y resumir argumentos.
  • Simular reacciones de las partes interesadas basadas en patrones en el texto.

La IA NO puede:

  • Decidir qué valores defiende tu organización.
  • Asumir la responsabilidad cuando se produce un daño.

Las tendencias normativas, como la Ley de IA de la UE y otros marcos nacionales, refuerzan que los humanos siguen siendo legal y éticamente responsables de las decisiones asistidas por IA.

Visión estratégica y responsabilidad

Los análisis sobre el futuro del trabajo enfatizan que las capacidades exclusivamente humanas, como la creación de significado, el establecimiento de propósitos y el liderazgo, adquieren más importancia a medida que la IA automatiza las tareas rutinarias.

Para las ONGs, esto incluye:

  • Articular una misión y una narrativa convincentes que movilicen a los simpatizantes.
  • Mantener la esperanza en circunstancias difíciles y ayudar a las comunidades a imaginar futuros mejores.
  • Navegar por la ambigüedad y el conflicto dentro de coaliciones y movimientos.

La IA puede sugerir eslóganes y escenarios, pero no puede importarle realmente si una comunidad prospera o fracasa.

Toma de decisiones: ¿debería usar IA para esto?

  • ¿Qué está en juego si este resultado es incorrecto? Poco en juego (lluvia de ideas interna, primer borrador solo para tus ojos): la IA probablemente esté bien. Mucho en juego (comunicación pública, documento legal, decisión de cara al cliente): la IA requiere una cuidadosa verificación y supervisión humana.
  • ¿Requiere esta tarea un conocimiento profundo de nuestro contexto, comunidad o relaciones específicas? Si es así, la IA puede ayudar, pero no debe liderar. El humano con ese conocimiento debe ser el centro.
  • ¿Hay una persona vulnerable en el extremo receptor de este resultado? En caso afirmativo, aplica un estándar de revisión más alto y garantiza la responsabilidad humana.
  • ¿Me siento cómodo siendo totalmente transparente con nuestras partes interesadas sobre el uso de la IA en este caso? Esta es una comprobación instintiva muy útil. Si la respuesta es no, vale la pena prestar atención a esa incomodidad.
  • ¿Merece la pena el aumento de eficiencia frente al riesgo en este caso concreto? Para una tarea puntual que lleva 10 minutos y requiere gran precisión y juicio humano, es posible que la IA no aporte valor. Para tareas de bajo riesgo y repetitivas, los cálculos del ROI podrían ser muy diferentes.

Lección 3: Cómo conseguir lo que quieres de la IA

Esta lección es la más práctica del curso. Trata sobre el desarrollo de habilidades: cómo redactar buenos prompts, cómo dar a la IA el contexto adecuado, cómo crear herramientas que pueda usar todo tu equipo, cómo verificar lo que la IA te da, cómo gestionar los costes y cómo establecer sistemas que mejoren con el tiempo.

La anatomía de un buen prompt

Un prompt es cualquier cosa que escribas o digas a un sistema de IA. Un mal prompt produce una respuesta genérica, inútil o errónea. Un buen prompt produce algo que realmente puedes utilizar. La diferencia no suele estar en la longitud o la complejidad. Se trata de si le has dado a la IA lo que necesita para entender tu tarea con claridad.

Un buen prompt suele contener alguna combinación de los siguientes elementos:

  1. Objetivo: Qué quieres y para quién.
  2. Resultado: Formato, longitud, tono, idioma.
  3. Limitaciones: Qué evitar, políticas, límites de palabras, límites de presupuesto o de tokens.
  4. Contexto: La información mínima que la IA necesita para hacer bien la tarea.
  5. Ejemplos: Una o dos muestras que muestren cómo es un resultado «bueno».

Ingeniería de contexto > ingeniería de prompts

La mayoría de las guías de IA se centran en la «ingeniería de prompts»: las palabras y técnicas específicas que utilizas para estructurar tu petición. Y es cierto que algunos pequeños «trucos» en los prompts solían tener grandes impactos.

Pero a medida que los modelos se vuelven más «inteligentes», la redacción y la estructura de tus prompts no son tan importantes. Probablemente entenderán lo que quieres independientemente de las palabras específicas que utilices. Y necesitan menos explicaciones y acompañamiento para completar las tareas con éxito.

Lo que sigue siendo muy importante (y lo será siempre) es la ingeniería de contexto: decidir qué información le das a un sistema de IA para una tarea específica. Si das demasiada o poca información, obtendrás malos resultados.

Si la IA no sabe nada de tu organización, tu voz, tus programas o tu público, siempre producirá respuestas genéricas que no son muy útiles. Pero volcar cantidades ingentes de texto o documentos («vaciado de contexto») a menudo reduce la calidad y aumenta los costes, los tiempos de carga, los riesgos de privacidad, etc. Por tanto, tenemos que ser selectivos con la información que le damos a la IA.

¿Cómo es la ingeniería de contexto en la práctica?

  • Crear documentos de contexto completos. Crea documentos que tú (o tu equipo) peguéis en las conversaciones de IA para proporcionar antecedentes: la misión, los programas y los datos de impacto de tu organización; tus mensajes clave y la voz de tu marca; las descripciones de tu público; tus prioridades actuales. No hace falta que sean elaborados. Incluso un informe organizativo de una página que pegues al principio de una sesión de IA relevante mejora drásticamente los resultados.
  • Usar prompts de sistema en las herramientas que lo permitan. Muchas herramientas de IA permiten establecer instrucciones persistentes (llamadas prompts de sistema o instrucciones personalizadas) que se aplican a todas las conversaciones.
  • Curar lo que incluyes. La ingeniería de contexto no consiste en darle todo a la IA. Consiste en darle lo correcto. Un documento de 100 páginas pegado indiscriminadamente en un prompt puede producir peores resultados que un resumen enfocado de dos páginas, porque la IA tiene que esforzarse más para identificar qué es lo relevante. Selecciona y prepara tu contexto deliberadamente.

Uso de prompts de sistema e instrucciones personalizadas

La mayoría de las herramientas de IA serias te permiten establecer instrucciones que se aplican de forma persistente, no solo dentro de una única conversación. Dependiendo de la herramienta, se denominan prompts de sistema, instrucciones personalizadas o similar. Entenderlas y usarlas bien es una de las cosas que más te ayudará a mejorar los resultados de la IA de tu equipo.

Un prompt de sistema es un conjunto de instrucciones que se le dan a la IA y que dan forma a cómo se comporta en cada conversación. Puede especificar: quién es la IA en el contexto de tu organización, qué sabe sobre tu organización, qué tono y estilo debe usar, qué debe y qué no debe hacer, y cómo debe manejar situaciones comunes.

Aquí tienes un ejemplo de un prompt de sistema básico que un equipo de comunicación de una ONG podría establecer:

Eres un asistente de redacción para [Nombre de la Organización], una ONG que ofrece servicios legales gratuitos a inmigrantes indocumentados en [Región]. Nuestra voz es cálida, clara y se basa en las experiencias de las personas a las que servimos. Evitamos la jerga legal en las comunicaciones públicas. 

Nuestros públicos incluyen: las familias a las que servimos (principalmente de habla hispana, con un nivel limitado de inglés); donantes y fundaciones (profesionales, guiados por valores); y el público en general (interesado pero no experto). Cuando ayudes con tareas de redacción, pregunta siempre para qué público es si no lo he especificado. 

Nuestros mensajes clave son: [insertar]. 

Nunca describas a nuestros clientes como "ilegales" o "extranjeros". Términos preferidos: "inmigrantes indocumentados", "familias inmigrantes", "las personas a las que servimos".

Este tipo de prompt de sistema hace que cada conversación con la IA parta de un entendimiento compartido de quién eres y qué necesitas, sin tener que repetirlo cada vez. Mejora la consistencia en todo tu equipo y reduce la carga cognitiva de los miembros del personal que utilizan la herramienta.

Elegir la herramienta adecuada para cada tarea

Actualmente hay literalmente miles de herramientas con funciones de IA en el mercado, por lo que no es fácil elegir. Algunas recomendaciones:

  • Un error común es usar una sola herramienta como ChatGPT para todo (perdiéndote herramientas que son significativamente mejores para tareas específicas) o acumular demasiadas herramientas sin una justificación clara para cada una (creando solapamiento de costes, complejidad de gobernanza y confusión en el personal).
  • Tienes que probar diferentes herramientas y luego decidir cuáles tienen más sentido, no solo basándote en la calidad de sus resultados, sino también considerando la facilidad de uso, la velocidad, las integraciones, el coste, etc. Si una herramienta ofrece grandes resultados pero es difícil o lenta de usar (requiere copiar y pegar entre herramientas, esperar resultados, cambiar formatos, etc.), es posible que tu personal nunca la use o se canse de ella en unos meses.
  • Antes de añadir nuevas herramientas de IA, revisa lo que ya tienes. La mayoría de las grandes plataformas de software que ya utilizan las ONGs han incorporado funciones de IA a sus productos actuales: plataformas CRM, herramientas de email marketing, software de gestión de proyectos, suites de edición de documentos y más. A menudo son un mejor punto de partida que añadir una herramienta de IA aparte, porque se integran directamente en los flujos de trabajo que el personal ya utiliza, a menudo sin coste adicional (si tu suscripción ya las incluye) y con una gestión de datos regulada por acuerdos que ya has revisado.

Crear herramientas para tareas repetitivas

Una vez que tu equipo se sienta cómodo usando la IA para tareas individuales, el siguiente nivel de valor viene de la creación de herramientas reutilizables.

Existen diferentes opciones:

Configuraciones de IA personalizadas (GPT personalizados, proyectos y similares)

Muchas plataformas de IA permiten ahora crear versiones configuradas del asistente de IA con instrucciones, contexto y capacidades específicas integradas. Los GPT personalizados de OpenAI, la función de Proyectos de Claude y funcionalidades similares en otras plataformas te permiten crear un «Asistente de Redacción de Subvenciones» dedicado que conozca los programas y la voz de tu organización, un «Ayudante de Comunicación con Donantes» precargado con tus directrices de comunicación, o una «Herramienta de Investigación de Políticas» configurada para centrarse en tu área de interés específica. Estas herramientas configuradas reducen la barrera para que el personal obtenga grandes resultados de la IA sin necesidad de una experiencia profunda en prompts.

Flujos de trabajo automatizados

Las plataformas de automatización de flujos de trabajo como Make, Zapier y n8n te permiten conectar las capacidades de la IA a tus otras herramientas de software sin escribir código (o con el mínimo código). Los flujos de trabajo de automatización habituales en las ONGs incluyen:

  • Resumir automáticamente los emails o mensajes entrantes que cumplan ciertos criterios y enviarlos al miembro del personal adecuado.
  • Generar un borrador de email de seguimiento cuando un nuevo donante hace su primera aportación, precargado con el nombre del donante, el importe del regalo y el programa específico que ha apoyado.
  • Transcribir y resumir las grabaciones de las reuniones y publicar el resumen en un espacio de trabajo compartido.
  • Generar un resumen semanal de las menciones del nombre de tu organización en las noticias y las redes sociales.
  • Procesar los materiales de las solicitudes de subvención entrantes, extraer los campos clave e introducirlos en una hoja de cálculo de seguimiento.

Estas automatizaciones no son complejas de construir (especialmente con la ayuda de la IA en la propia construcción), pero requieren una inversión inicial de tiempo. La recompensa es continua: horas ahorradas cada semana en tareas que antes requerían tiempo manual del personal.

Agentes de IA a medida

Los agentes de IA pueden llevar a cabo tareas de varios pasos de forma autónoma. La creación de agentes requiere más capacidad técnica que la automatización básica, pero el ahorro potencial de tiempo para tareas complejas y/o de gran volumen es significativo.

Un principio clave para todas estas herramientas: constrúyelas en colaboración con el personal que las va a utilizar. Las personas que realizan una tarea todos los días conocen sus matices mejor que cualquier directivo o especialista en IA. Las herramientas construidas sin su aportación suelen pasar por alto casos excepcionales importantes y tienen una baja adopción.

Establece tus propias evaluaciones y comparativas

Para obtener los mejores resultados posibles de la IA, deberías desarrollar tus propios sistemas de evaluación. Es la única manera de tomar decisiones fiables, basadas en tus propios objetivos y datos.

Existen muchos bancos de pruebas de IA públicos (ej. Artificial Analysis, Epoch). Son una buena referencia, pero aun así tienes que hacer tus propias pruebas. El mejor modelo en una comparativa general podría ser bastante malo para tus tareas específicas. Y no todos los modelos están incluidos en estas comparativas públicas, solo los más populares.

Puedes empezar con un documento sencillo con 10 prompts clave que utilices con frecuencia. Cada vez que quieras probar una nueva herramienta o modelo de IA, lo pruebas con esos prompts y comparas los resultados (precisión, tono adecuado, ausencia de información dañina o incorrecta, etc.).

También deberías volver a probar tus flujos de trabajo clave de IA al menos cada 6 meses, incluso si no tienes planeado cambiar su configuración o modelos (a veces los proveedores cambian los modelos subyacentes o su rendimiento se degrada sin que te des cuenta).

Para flujos de trabajo de IA de gran volumen o de alto riesgo, es posible que quieras crear configuraciones de evaluación automatizadas, donde pruebes automáticamente una gran cantidad de prompts y/o grandes conjuntos de datos (incluyendo casos límite y ejemplos arriesgados), utilizando otro modelo de IA y/o código personalizado para juzgar los resultados sin requerir cientos de horas de trabajo humano.

Asignar presupuesto para herramientas de IA de pago

Existen herramientas de IA gratuitas que pueden ser realmente útiles. Pero las organizaciones que confían exclusivamente en las versiones gratuitas están aceptando importantes contrapartidas: modelos más flojos, menos protección de la privacidad y límites de uso que merman la capacidad de tu equipo para trabajar a pleno rendimiento.

El coste de las buenas herramientas de IA es modesto en relación con el valor de productividad que aportan. Un pequeño equipo de una ONG con acceso a planes de pago de una o dos herramientas de IA bien elegidas superará significativamente al mismo equipo que intenta salir adelante con versiones gratuitas.

Considera el coste de no invertir. La comparación pertinente es el coste de las herramientas de IA de pago frente al tiempo del personal, la capacidad y la calidad de los resultados que necesitarías para lograr los mismos resultados sin ellas.

Previsión y control de costes

Los costes de la IA pueden ser difíciles de predecir, especialmente cuando el uso está creciendo, cuando estás experimentando con nuevas herramientas o cuando empiezas a usar la IA a través de API (donde pagas por uso en lugar de una suscripción fija). Desarrollar prácticas básicas de gestión de costes desde el principio evita sorpresas desagradables y te ayuda a tomar decisiones más inteligentes sobre qué herramientas usar para cada tarea.

  • Entiende el modelo de precios de cada herramienta que utilices. Las herramientas de suscripción (tarifa plana mensual o anual) son más sencillas de presupuestar. Las herramientas basadas en API cobran por uso, medido normalmente en tokens. Los precios basados en el uso pueden aumentar significativamente a medida que crece el uso de la IA en tu equipo, lo que puede ser algo bueno (pagas por lo que usas) o un reto (un flujo de trabajo que se ejecuta con una frecuencia inesperada puede generar facturas inesperadamente elevadas).
  • Establece alertas de uso y límites de gasto para las herramientas basadas en API. La mayoría de los proveedores de API te permiten establecer alertas cuando el gasto alcanza un umbral y límites estrictos que impiden el uso más allá de un límite establecido. Configúralos desde el principio, no después de recibir tu primera factura sorprendente.
  • Ajusta el uso del modelo a la complejidad de la tarea. Usar el modelo de IA más potente (y caro) para cada tarea es como contratar a tu consultor más experimentado para responder preguntas básicas. Para tareas rutinarias (redactar un email sencillo, resumir un documento corto, generar una lista de opciones), un modelo más pequeño, rápido y barato suele ser suficiente.
  • Audita el uso periódicamente. Cada pocos meses, revisa qué herramientas se están utilizando, cuánto y por quién. ¿Hay suscripciones que nadie usa? ¿Hay tareas que se realizan con llamadas a API costosas que podrían gestionarse con modelos más baratos? ¿Podríamos ahorrar dinero pasando de suscripciones de usuario a llamadas de API o viceversa?
  • Presenta el caso del ROI de forma explícita. Cuando surjan los costes de la IA en las discusiones presupuestarias, ven preparado con una estimación concreta del tiempo de personal ahorrado u otros KPIs relevantes.

Crea una biblioteca de IA compartida para tu equipo

Una de las inversiones más rentables que puedes hacer en la eficacia de la IA de tu equipo es crear y mantener una biblioteca de IA compartida: una colección documentada y accesible de los prompts, flujos de trabajo, documentos de contexto y directrices que tu equipo más utiliza.

Sin una biblioteca compartida, cada miembro del personal tiene que redescubrir por sí mismo cómo obtener buenos resultados de la IA. Y cuando alguien deja la organización, su experiencia en IA se va con él. Una biblioteca compartida cambia esto. Significa que el aprendizaje colectivo se acumula en lugar de evaporarse. Significa que el nuevo personal puede ser productivo con las herramientas de IA más rápido. Significa que los prompts y flujos de trabajo de tu organización mejoran sistemáticamente en lugar de depender de la iniciativa individual.

Tu biblioteca de IA puede incluir:

  • Prompts curados para tus tareas más comunes: cada prompt debe incluir contexto sobre cuándo usarlo, qué entradas proporcionar y a qué prestar atención en los resultados.
  • Documentos de contexto organizativo: los informes de una página sobre tus programas, tu misión, tus mensajes clave, la voz de tu marca, las descripciones de tu audiencia, que pegas en las sesiones de IA para proporcionar antecedentes.
  • Documentación de flujos de trabajo: descripciones paso a paso de los flujos de trabajo asistidos por IA que tu equipo ha desarrollado para tareas específicas. Los flujos de trabajo documentados hacen posible que cualquier persona del equipo replique lo que funciona.
  • Guía de herramientas: qué herramienta usar para cada tarea, con una breve justificación. Tu equipo no debería tener que averiguar desde cero cada vez si usar el LLM de propósito general, la función de IA integrada del CRM o la herramienta de redacción especializada para una tarea concreta.
  • Lecciones aprendidas: breves notas sobre enfoques de IA que no funcionaron, casos límite a vigilar, errores comunes en tipos de resultados específicos y otra sabiduría práctica acumulada a través de la experiencia.

Mantén esta biblioteca de IA en un lugar al que todo el mundo pueda acceder y que ya forme parte del flujo de trabajo de tu equipo: una carpeta compartida en Google Drive, un espacio de trabajo en Notion o dondequiera que vivan realmente los documentos compartidos de tu equipo. Debe ser fácil de acceder y actualizar para todos.

Asigna un responsable. Una biblioteca sin un encargado designado se degrada. Alguien debe ser responsable de mantenerla organizada, eliminar el contenido desactualizado y animar al equipo a añadir nuevos aprendizajes.

Resumen

  • La ingeniería de contexto es más importante que la ingeniería de prompts. Dale a la IA los antecedentes organizativos que necesita para producir resultados que realmente suenen como tú y reflejen tu trabajo real.
  • Los prompts de sistema son herramientas de gran utilidad para que la IA sea consistentemente útil en todo tu equipo sin requerir que todos sean expertos en prompts.
  • Audita tu software actual en busca de funciones de IA antes de añadir nuevas herramientas.
  • Crea configuraciones reutilizables (como GPT personalizados) y automatizaciones para tus tareas más comunes y repetitivas.
  • Crea una biblioteca de IA compartida para que el aprendizaje colectivo de tu equipo se acumule en lugar de desaparecer en silos individuales.

Lección 4: Usar la IA de forma responsable y reducir riesgos

Las ONGs dependen de la confianza de los beneficiarios, las comunidades, los donantes y los reguladores. La IA puede ayudar a tu misión, pero también puede dañar esa confianza si la usas sin cuidado. Aprenderás a poner salvaguardas básicas para que la IA esté al servicio de tus valores, de tu gente y de tus obligaciones legales.

Forma a tu personal continuamente

Lo más importante que puedes hacer para reducir el riesgo de la IA en tu organización es invertir en una educación continua en IA para todo tu equipo. No un taller puntual. No un documento de política en PDF enviado por email. Un aprendizaje práctico, continuo y relevante para cada puesto.

Las herramientas de IA cambian rápido. Un miembro del personal que aprendió a usar ChatGPT en 2024 puede tener modelos mentales desactualizados sobre lo que las herramientas actuales pueden y no pueden hacer. Una organización que trata la formación en IA como un evento único tendrá un equipo cuyo conocimiento se quedará cada vez más obsoleto cada mes.

La formación también debe abordar los riesgos explícitamente, no solo las capacidades. El personal que solo aprende lo que la IA puede hacer, sin entender las alucinaciones, los riesgos de privacidad de datos, el sesgo y la importancia de la verificación, es más propenso a cometer errores de consecuencias graves.

Algunos enfoques prácticos:

  • Crea un canal compartido (en Slack, Teams o lo que uséis) donde el personal publique consejos de IA, experimentos e historias de advertencia.
  • Reserva un espacio mensual de «aprendizaje de IA» en una reunión de todo el personal en la que alguien comparta algo nuevo que haya probado o aprendido.
  • Prioriza las formaciones de IA diseñadas para ONGs. Los riesgos y oportunidades para una ONG no son los mismos que para las empresas u otros usuarios de IA. Además, cada departamento tiene riesgos distintos (programas, captación, comunicación, etc.). Una formación genérica en IA es mejor que nada, pero no es lo ideal. La formación más eficaz muestra a las personas cómo se aplica la IA a las tareas específicas que realizan realmente.

Desarrollar una política de IA de la organización

Tu organización necesita una política de IA por escrito. No porque un documento de política prevenga mágicamente todo daño, sino porque el proceso de desarrollarlo obliga a tener conversaciones importantes, y tenerlo en marcha crea claridad y responsabilidad.

Una política de IA no tiene por qué ser larga ni técnicamente compleja. Pero debe abordar claramente las siguientes preguntas:

  • ¿Qué herramientas de IA están aprobadas para su uso en tu organización? El personal no debería tener que adivinar si una herramienta concreta es aceptable. Puedes mencionar herramientas específicas, proveedores o categorías (ej. ChatGPT, OpenAI, generadores de imágenes por IA, modelos de código abierto chinos o cualquier herramienta sin una certificación determinada). Puedes listar solo las herramientas/categorías aprobadas, solo las prohibidas o ambas.
  • ¿Quién aprueba las nuevas herramientas de IA antes de que el personal las adopte? Sin un proceso claro, acabas teniendo un uso de IA en la sombra («shadow AI») y mayores riesgos. Designa quién es responsable de evaluar y aprobar las herramientas, y facilita que el personal presente nuevas herramientas para su revisión.
  • ¿Qué datos pueden y qué datos no pueden introducirse en las herramientas de IA? Especifica claramente que ciertas categorías de datos (ej. información personal, datos financieros sensibles) no deben introducirse en herramientas de IA externas sin aprobación explícita o salvaguardas adecuadas (ej. anonimización).
  • ¿Cuáles son las expectativas en torno a la divulgación del uso de la IA? ¿En qué contextos y tareas debe el personal informar a terceros (financiadores, clientes, socios) de que se ha utilizado la IA?
  • ¿Cuáles son las consecuencias de las infracciones de la política? El personal debe entender que la gestión inadecuada de los datos o el uso de herramientas de IA no aprobadas es un asunto serio. Pero ten cuidado con tus límites y castigos. Si la gente teme el castigo, puede que oculte su uso («shadow AI»), lo que en realidad aumenta los riesgos. Si se sienten invitados a compartir experimentos, podréis gestionar los riesgos juntos.
  • ¿Cómo se revisará y actualizará la política? Dada la rapidez con la que evoluciona la IA, una política puede quedar significativamente desfasada en menos de un año. Establece un ciclo de revisión regular y asigna a alguien la responsabilidad de supervisar las novedades y señalar cuándo es necesario actualizar la política.

Contar con la opinión del personal durante el desarrollo de la política es importante tanto desde el punto de vista práctico (conocen los flujos de trabajo reales que hay que abordar) como cultural (es más probable que sigan una política que han ayudado a configurar). Considera la posibilidad de formar un pequeño grupo de trabajo que incluya representantes de diferentes equipos y funciones.

Establecer una propiedad y una responsabilidad claras

Las herramientas de IA son potentes, pero no eximen a los humanos de su responsabilidad. La propiedad y la responsabilidad claras son cruciales para gestionar los riesgos de la IA. Esto implica:

  • Líderes de IA designados: nombrar a personas o equipos responsables de supervisar la estrategia de IA, la implementación de políticas y la gestión de riesgos.
  • Propiedad del proceso: garantizar que cada flujo de trabajo aumentado por IA tenga un propietario humano claro que sea responsable del proceso y sus resultados.
  • Respuesta a incidentes: integrar los incidentes relacionados con la IA (ej. alucinaciones, filtraciones de datos) en el plan de respuesta a incidentes más amplio de la organización, con funciones y procedimientos claros.

Revisar las herramientas y los proveedores de IA con cuidado

No todas las herramientas de IA son iguales en cuanto a privacidad, seguridad, ética y fiabilidad a largo plazo. Antes de que tu organización adopte cualquier herramienta de IA para un uso regular, especialmente una que vaya a manejar datos sensibles o que se use en contextos de cara al cliente, deberías realizar una evaluación significativa.

Esto es lo que hay que examinar:

  • Política de privacidad y uso de datos. ¿Utiliza el proveedor tus entradas para entrenar sus modelos? ¿En qué circunstancias se conservan tus datos y durante cuánto tiempo? ¿Quién tiene acceso a ellos? ¿Puedes solicitar su eliminación? Lee las condiciones de servicio reales, no solo los textos comerciales. Si las condiciones son poco claras o evasivas, eso ya es una señal.
  • Prácticas de seguridad. ¿Utiliza el proveedor el cifrado en tránsito y en reposo? ¿Tienen certificaciones de seguridad pertinentes? ¿Cuál es su historial de incidentes de seguridad? ¿Qué ocurre con tus datos en caso de una filtración?
  • Historial ético. ¿Se ha visto envuelto el proveedor en controversias públicas relacionadas con el sesgo, la manipulación, la desinformación o el uso perjudicial de su tecnología? ¿Publican informes de transparencia?
  • Cumplimiento de las normativas pertinentes. Dependiendo de tu jurisdicción y sector, puedes estar sujeto a normativas (RGPD, HIPAA, leyes estatales de privacidad, requisitos específicos del sector) que limiten qué herramientas puedes usar y cómo.
  • Dependencia del proveedor. ¿Puedes exportar tus datos, tus configuraciones personalizadas y tu conocimiento institucional si decides cambiar de herramienta?

Un enfoque práctico para organizaciones más pequeñas: desarrolla una breve lista de comprobación para la evaluación de proveedores que cualquiera que proponga una nueva herramienta de IA deba completar antes de que sea aprobada. Esto crea un proceso de evaluación coherente sin requerir conocimientos jurídicos cada vez que alguien quiera probar una nueva herramienta.

Evitar usos arriesgados y poco éticos

Algunos usos de la IA son claramente de alto riesgo para las ONGs, aunque sean técnicamente posibles. Las guías de cumplimiento globales y la Ley de IA de la UE destacan áreas especialmente sensibles, como la identificación biométrica, el cribado de elegibilidad y los sistemas que afectan a los derechos fundamentales.

Deberías ser muy cauteloso o evitar la IA para:

  • Decisiones automatizadas que determinen el acceso a servicios, prestaciones o ayudas.
  • Policía predictiva, vigilancia o sistemas biométricos que puedan perjudicar las libertades civiles.
  • Segmentación manipuladora de grupos vulnerables con mensajes políticos o de captación de fondos.
  • Contenido generado por IA que se presente como una experiencia humana auténtica (ej. la historia de un donante o el testimonio de un beneficiario).

En caso de duda, hazte tres preguntas:

  1. ¿Podría esto perjudicar a personas vulnerables?
  2. ¿Podría afectar a los derechos fundamentales?
  3. ¿Nos sentiríamos cómodos explicando este uso cara a cara a los beneficiarios y reguladores?

Prevenir la inyección de prompts y otros ataques

La inyección de prompts es una técnica en la que contenido malicioso o inesperado dentro de documentos o páginas web engaña a una IA para que ignore sus instrucciones originales y haga otra cosa. Análisis recientes de seguridad y riesgos muestran que los sistemas de IA que leen contenido externo o se conectan a herramientas son vulnerables a esta clase de ataques.

Para las ONGs, esto importa si:

  • Tus herramientas de IA leen emails, PDFs o páginas web de fuera de tu organización.
  • Conectas un asistente de IA a sistemas que pueden enviar mensajes, actualizar registros o acceder a archivos.

Las medidas defensivas básicas incluyen:

  • Limitar qué contenido externo puede ejecutar la IA como instrucciones, por ejemplo, tratando el texto desconocido estrictamente como datos para resumir.
  • Restringir qué herramientas o acciones puede realizar un agente de IA automáticamente y requerir aprobación humana para acciones sensibles.
  • Mantener registros y alertas detallados para comportamientos inusuales, como una IA que intenta extraer datos o enviar muchos emails.

Para la mayoría de las ONGs, el enfoque más seguro es mantener los agentes de IA en modo «leer y redactar» y no darles acceso directo de escritura a sistemas críticos sin un fuerte apoyo de seguridad.

Minimizar el intercambio de datos y usar la anonimización

Cada fragmento de información que introduces en una herramienta de IA está potencialmente en riesgo: por la retención de datos por parte del proveedor, por incidentes de seguridad, por cambios de política de la plataforma y por la futura gestión inadecuada de tu propio personal. La estrategia más sencilla para reducir riesgos es compartir menos datos en primer lugar.

Principios prácticos para la minimización de datos:

  • Por defecto, no introduzcas datos sensibles en herramientas de IA externas. La información personal de los clientes, los registros de RR.HH. del personal, los detalles confidenciales de los donantes, la información financiera sensible y cualquier cosa cubierta por un acuerdo de confidencialidad no deben introducirse en herramientas de IA externas sin un motivo específico evaluado y las salvaguardas adecuadas.
  • Anonimiza antes de introducir. Para muchas tareas, puedes obtener ayuda de la IA sin introducir información identificable. En lugar de pegar las notas del caso de un cliente con su nombre y detalles identificativos, sustituye esos detalles por marcadores de posición («Cliente A, padre/madre soltero/a de 34 años en una zona urbana importante») antes de usar la IA para ayudarte a redactar un resumen o una recomendación.
  • Utiliza opciones de despliegue local o en las instalaciones para cargas de trabajo sensibles. Para las organizaciones que manejan datos especialmente sensibles (información sanitaria, estatus migratorio, asuntos legales, vulnerabilidad financiera), merece la pena explorar herramientas de IA que puedan ejecutarse localmente o dentro de un entorno de nube privado donde tus datos no salgan de tu control.
  • Educa al personal sobre lo que se considera sensible. No todo el mundo reconoce instintivamente todas las categorías de información sensible. Incluir una guía explícita en tu política de IA (y formación) sobre qué tipos de datos requieren una gestión especial ayuda al personal a tomar mejores decisiones en el momento.

Minimizar el sesgo

Los sistemas de IA pueden perpetuar, amplificar y, en algunos casos, introducir nuevas formas de sesgo: sesgo racial, sesgo de género, sesgo económico, sesgo cultural y otros. Para las ONGs que trabajan con comunidades que históricamente han sido marginadas, ignoradas o dañadas por los sistemas institucionales, esta no es una preocupación abstracta.

¿Qué puede hacer tu organización?

  • Probar las herramientas de IA en busca de resultados sesgados antes de desplegarlas en cualquier contexto que afecte a las personas.
  • Pedir a las herramientas de IA que generen contenido para diferentes grupos demográficos y comparar los resultados.
  • Involucrar a personas de las comunidades afectadas en la evaluación de las herramientas de IA utilizadas para servir a esas comunidades.
  • Elegir proveedores que publiquen información sobre las pruebas de sesgo y su mitigación en sus sistemas.

Si detectas un comportamiento sesgado, puede que necesites ajustar los prompts, cambiar de modelo, cambiar tus ejemplos/datos o, en algunos casos, dejar de usar la IA para esa tarea.

Minimizar el coste medioambiental

Entrenar grandes modelos de IA consume enormes cantidades de energía y otros recursos. La ejecución de estos modelos a escala sigue consumiendo recursos significativos.

Las ONGs pueden responder de varias maneras:

  • Usar la IA allí donde claramente impulse tu misión y evitar el uso frívolo.
  • Consolidar los flujos de trabajo para reducir las llamadas repetidas innecesarias, por ejemplo, resumiendo un documento una vez y compartiendo el resultado con tu equipo en lugar de que muchas personas realicen consultas por separado.
  • Preferir modelos más eficientes cuando sean lo suficientemente buenos. Considera usar solo modelos pequeños y/o locales si priorizas el consumo de energía sobre los resultados.
  • Favorecer a los proveedores que sean transparentes sobre su impacto ambiental y tengan compromisos creíbles con las energías renovables.

Considerar la propiedad intelectual y los derechos de autor

Los sistemas de IA generativa se entrenan con una mezcla de material bajo licencia, de dominio público y posiblemente con derechos de autor, y los debates legales sobre cómo se aplican los derechos de autor están activos en muchas jurisdicciones.

Guías prácticas para ONGs:

  • Trata el contenido generado por IA como material que podría incorporar patrones de obras con derechos de autor. Evita usarlo como contenido «exclusivo» que reclames como totalmente original sin revisión.
  • Ten cuidado con los logotipos, las imágenes de personas reales o las imitaciones cercanas de arte o textos existentes. En caso de duda, utiliza tus propios activos o material claramente con licencia.
  • Comprueba las condiciones del proveedor sobre la propiedad del contenido generado y los datos de entrenamiento, y cómo gestionan las reclamaciones de derechos de autor.

Para campañas de gran visibilidad, considera pedir a un asesor legal que revise tu uso de contenido generado por IA.

Resumen

  • El uso responsable de la IA no es un ejercicio de cumplimiento puntual. Es una práctica organizativa continua que requiere inversión en formación, gobernanza, cultura y supervisión constante.
  • Los elementos estructurales más importantes son: una política de IA por escrito que se utilice realmente y se actualice con regularidad; una propiedad y responsabilidad humana clara para cada sistema de IA; y un proceso riguroso de evaluación de proveedores.
  • Los elementos culturales más importantes son: un equipo que entienda tanto las capacidades como los riesgos de la IA; un entorno en el que el personal pueda plantear preocupaciones y hacer preguntas sin miedo; y una transparencia genuina con las personas a las que tu organización sirve y con las que trabaja.

Lección 5: Cómo prepararse para el futuro

La IA seguirá cambiando durante la próxima década. Tu objetivo no es predecirlo todo, sino construir una ONG que sea flexible, capacitada y esté preparada para diferentes futuros.

Invertir en la fluidez de la IA como una competencia básica para todo el personal

En 2026, la fluidez en la IA ya no es una habilidad técnica especializada. Es una competencia profesional básica, de la misma manera que el dominio de las hojas de cálculo se convirtió en una expectativa básica para los trabajadores de oficina en los años 90 y el dominio de Internet lo fue en la década de los 2000.

¿Cómo es la inversión en fluidez de la IA en la práctica?

  • Asignar presupuesto para la formación en IA. Dependiendo de las habilidades y necesidades de tu organización, podría ser una formación personalizada desarrollada internamente, cursos externos o una mezcla de ambos.
  • Hacer que forme parte de la acogida (onboarding). El nuevo personal debería recibir formación en IA como parte de su orientación, no como un complemento opcional. Cubre tu política de IA organizativa, las herramientas aprobadas, las expectativas de gestión de datos y las habilidades prácticas relevantes para su función.
  • Fomentar el aprendizaje continuo: Los líderes deben tratar el tiempo dedicado a aprender y experimentar con la IA como parte del trabajo, no como algo que el personal deba hacer «fuera de horario».
  • Crear espacio para el aprendizaje entre pares. Construye estructuras que permitan a la gente compartir sus aprendizajes (canales o foros específicos de IA, breves momentos de «enseñar y contar» en las reuniones, experimentos documentados en una biblioteca compartida).

Construir una cultura de experimentación y de fallo seguro

Las organizaciones que mejor navegarán por la IA en los próximos años son aquellas que sienten una curiosidad genuina por las nuevas herramientas y enfoques, están dispuestas a probar cosas que podrían no funcionar y están estructuradas para aprender de los fallos en lugar de ocultarlos.

Una cultura de excesiva cautela ante la tecnología es en sí misma un riesgo: significa que tu organización aprende despacio, pierde oportunidades y, con el tiempo, se queda significativamente por detrás de las organizaciones afines.

La experimentación segura no significa una experimentación descuidada. Significa:

  • Crear espacios seguros para probar cosas nuevas. Proyectos internos de poco riesgo, programas piloto con un alcance definido o iniciativas explícitamente experimentales en las que el personal entienda que el objetivo es aprender, no solo tener éxito. Un experimento que revela que la IA no es útil para una tarea concreta es tan valioso como uno que revela que sí lo es.
  • Recompensar el aprendizaje y la honestidad sobre el fallo. Cuando alguien prueba un enfoque de IA que no funciona e informa con honestidad sobre lo ocurrido y lo que ha aprendido, eso debería reconocerse como una contribución, no tratarse como algo vergonzoso. Las organizaciones en las que se castiga el fallo desarrollan culturas en las que la gente deja de experimentar o bien oculta los resultados de los experimentos que no han salido bien. Ambos resultados son malos.
  • Documentar y compartir lo que se aprende. Los experimentos que no se documentan no generan aprendizaje institucional. Crea el hábito de capturar qué se probó, qué pasó y qué harías de forma diferente.

Almacenar los datos internos y el conocimiento en formatos aptos para la IA

Las herramientas de IA solo son útiles en la medida en que puedas darles conocimiento y datos con los que trabajar. El conocimiento organizativo que está bloqueado en formatos inaccesibles, disperso en discos duros personales, enterrado en hilos de email o almacenado solo en la cabeza de las personas no puede ser aprovechado eficazmente por las herramientas de IA.

¿Qué significa «apto para la IA» en la práctica?

  • Formatos basados en texto por encima de los basados en imagen. Un PDF escaneado de un documento es mucho más difícil de usar para la IA que el mismo documento en un archivo de Word o un PDF correctamente formateado con texto seleccionable. Siempre que sea posible, digitaliza y convierte los documentos a formatos que la IA pueda leer directamente.
  • Almacenamiento estructurado frente a almacenamiento disperso. Los documentos y datos que residen en un sistema compartido y organizado (una base de conocimientos, una unidad compartida con convenciones de nombres coherentes, un CRM con registros completos) son mucho más útiles para las herramientas de IA que la misma información dispersa en bandejas de entrada de email individuales, carpetas personales de Dropbox y los recuerdos del personal más veterano.
  • Procesos documentados frente a los no documentados. Si el conocimiento de tu organización sobre cómo se hacen las cosas reside principalmente en la cabeza de determinados miembros del personal, es frágil desde el punto de vista organizativo (¿qué pasa cuando esas personas se van?) e inaccesible para la IA. Invertir en la documentación de procesos (SOPs, listas de comprobación, guías) crea un activo que las herramientas de IA pueden utilizar para ayudar a incorporar al nuevo personal, responder a preguntas operativas y asistir en una ejecución coherente.

Nombrar referentes de IA internos

Toda organización necesita personas que tengan el encargo específico de estar al día de las novedades de la IA, probar nuevas herramientas, compartir los aprendizajes con sus colegas y ayudar a traducir el acelerado panorama de la IA a las necesidades y el contexto específicos de tu organización.

¿Qué debe hacer realmente un referente de IA?

  • Supervisar los avances de la IA que sean relevantes para vuestro trabajo.
  • Probar nuevas herramientas antes de recomendarlas.
  • Apoyar a los equipos en el diseño de prompts, flujos de trabajo y evaluaciones.
  • Coordinar las actualizaciones de vuestra política de IA, biblioteca y formación.

El papel del referente de IA debe ser reconocido y apoyado: dándole tiempo dedicado, acceso a suscripciones de herramientas de pago para realizar pruebas, presupuesto ocasional para formación o conferencias pertinentes, y visibilidad como una función valorada en lugar de una afición extraescolar.

Supervisar la legislación y las normas de cumplimiento

El entorno normativo en torno a la IA está cambiando rápidamente y seguirá haciéndolo. Las organizaciones que no presten atención a los avances legales pertinentes se arriesgan a encontrarse en una situación de incumplimiento de requisitos que no sabían que existían.

Avances normativos a vigilar:

  • Ley de privacidad de datos. Las herramientas de IA que procesan datos personales están sujetas a las normativas de privacidad de datos existentes (RGPD en Europa, CCPA en California y un creciente mosaico de leyes estatales en EE. UU., además de normativas sectoriales específicas como HIPAA).
  • Legislación específica sobre IA. La Ley de IA de la Unión Europea es el marco regulador de la IA más completo actualmente en vigor, y sus disposiciones se aplican a muchas organizaciones que procesan datos sobre residentes en la UE, incluso a aquellas con sede fuera de Europa.
  • Requisitos específicos del sector. Las organizaciones de salud, educación, servicios jurídicos, vivienda o servicios financieros pueden enfrentarse a requisitos específicos sobre IA por parte de los reguladores de su sector.
  • Implicaciones de la legislación laboral. El uso de herramientas de IA para ayudar en la contratación, la evaluación del rendimiento o las decisiones sobre remuneración puede activar requisitos bajo las leyes laborales de IA emergentes en varias jurisdicciones.

Unos cuantos consejos prácticos:

  • Designa a alguien para supervisar las novedades normativas de la IA relevantes para tu jurisdicción y sector.
  • Suscríbete a un boletín legal o de tecnología para ONGs que cubra estos avances.
  • Establece una relación con un asesor legal que siga las leyes de IA, aunque solo le consultes ocasionalmente.
  • Cuando evalúes nuevas herramientas de IA o amplíes el uso de las existentes, incluye una pregunta sobre las implicaciones de cumplimiento en tu proceso de revisión.

Supervisar los avances de la IA de código abierto

Los modelos de código abierto pueden descargarse, ejecutarse localmente y ser modificados por cualquiera. En 2026, los modelos de código abierto pueden rendir a un nivel similar o cercano al de los modelos propietarios para muchas tareas comunes. Y pueden ejecutarse localmente, en hardware que tu organización controle, sin enviar datos a un servidor externo.

¿Por qué es esto importante para las ONGs?

  • Privacidad y soberanía de los datos. Ejecutar la IA localmente significa que los datos sensibles nunca salen de tus sistemas. Para las organizaciones que manejan información de clientes, datos de salud, estatus migratorio u otra información sensible, esta es una ventaja significativa.
  • Independencia de los grandes proveedores tecnológicos. Depender de las herramientas de IA propietarias de un pequeño número de grandes corporaciones crea dependencias: de sus decisiones de precios, de sus condiciones de servicio, de sus opciones políticas y de su continuidad. Los modelos de código abierto reducen esta dependencia.
  • Coste. Ejecutar modelos de código abierto en tu propio hardware conlleva costes (el hardware en sí, energía, mantenimiento), pero para organizaciones con un uso significativo de la IA o que ya dispongan de hardware potente, puede ser más barato que las suscripciones o las tarifas de API de las herramientas propietarias.
  • Responsabilidad comunitaria. Los modelos de código abierto pueden ser evaluados, probados en busca de sesgos y auditados por investigadores, organizaciones de la sociedad civil y el público en general de formas que los modelos propietarios no permiten.

La barrera número uno para la mayoría de las ONGs hoy en día son las habilidades técnicas. Pero esto está cambiando, con herramientas cada vez más fáciles de usar para desplegar modelos de código abierto sin una experiencia técnica profunda (LMstudio, GPT4all, Ollama, etc.).

Comunicar el cambio: preparar a las partes interesadas y a los beneficiarios

El uso de la IA seguirá creciendo en los próximos años, afectando a más tareas y áreas. Tienes que planificarlo y comunicarlo correctamente para evitar dañar tu reputación.

Las partes interesadas que sientan que la IA se ha introducido en su relación con tu organización sin transparencia ni consulta es probable que se sientan menospreciadas. Las comunidades que históricamente han sido dañadas por los sistemas algorítmicos son especialmente propensas a tener preocupaciones legítimas que merecen un compromiso genuino.

Buenas prácticas:

  • Explica claramente por qué usáis la IA, qué tareas apoya y qué sigue estando liderado por humanos.
  • Sé transparente cuando los beneficiarios interactúen con chatbots o contenido redactado por IA.
  • Invita a las comunidades a dar su opinión y plantear sus preocupaciones, y ajusta tu enfoque allí donde entre en conflicto con sus expectativas o derechos.

Esto también es una oportunidad: demostrar que usáis la IA de forma reflexiva y ética puede reforzar vuestra credibilidad ante donantes y socios preocupados por los despliegues irresponsables.

Planificar diferentes escenarios de futuro de la IA

Nadie sabe exactamente a qué velocidad avanzarán las capacidades de la IA ni cómo reaccionarán los mercados y la regulación. Pero puede ser muy útil realizar una planificación de escenarios: imaginar varios futuros plausibles y preguntarse qué significaría cada uno para la estrategia.

Puedes realizar un sencillo ejercicio de escenarios con tu equipo. Por ejemplo, hablad de tres futuros:

  1. Aceleración rápida de la IA: los modelos se vuelven mucho más capaces (cerca de la Inteligencia Artificial General) y se integran en la mayoría de las herramientas para 2030, con agentes de IA realizando de forma autónoma más del 50 % de nuestras tareas repetitivas. ¿Qué nuevas oportunidades y riesgos aparecen para vuestros programas? ¿Qué pasará con vuestro personal?
  2. Ralentización o reacción en contra: los límites técnicos o el rechazo público frenan la adopción de la IA, y los financiadores se vuelven escépticos ante el bombo publicitario de la IA. ¿Cómo justificáis y ajustáis las inversiones pasadas? ¿Podéis seguir usando las mismas herramientas de IA (o quizá alternativas de código abierto que estarán disponibles para siempre)?
  3. Mundo de IA fragmentado: la fuerte regulación y la geopolítica crean diferentes ecosistemas de IA por regiones, con un acceso variable a modelos y datos. ¿Cómo gestionáis los programas transfronterizos y los flujos de datos?

No necesitas un plan detallado para cada escenario. Necesitas:

  • Evitar decisiones que sean catastróficas en algunos escenarios plausibles (ej. una dependencia extrema del proveedor, la pérdida completa de habilidades de tu equipo en un área particular porque la IA se encarga de ella).
  • Favorecer decisiones que mantengan su valor en múltiples escenarios (ej. una fuerte cultura de aprendizaje, procesos documentados, una cartera de herramientas diversa que incluya soluciones de código abierto).
  • Tener conversaciones honestas a nivel de la dirección y de la junta sobre qué escenarios parecen más relevantes para vuestro contexto y cuál sería la respuesta de vuestra organización. Retomad esas conversaciones periódicamente a medida que el panorama se aclare.

El objetivo no es predecir el futuro. Es construir una organización resiliente que pueda responder a una gama de futuros y adaptarse rápidamente a los cambios clave.

Resumen

  • Invierte en la fluidez de la IA como una competencia universal del personal, no como una habilidad especializada.
  • Construye una cultura donde se valore tanto la experimentación como el informe honesto sobre los fallos.
  • Almacena el conocimiento de tu organización en formatos que las herramientas de IA puedan usar fácilmente.
  • Nombra referentes de IA que tengan tiempo y mandato para estar al día y apoyar a sus colegas.
  • Comunica de forma proactiva y honesta con las partes interesadas sobre el uso de la IA.
  • Prepararse para el futuro tiene menos que ver con adivinar qué modelo ganará y más con construir una buena gobernanza y culturas de aprendizaje que te sirvan bajo muchos futuros posibles de la IA.

Próximos pasos