He estado hablando con muchos profesionales de organizaciones sin fines de lucro sobre IA en los últimos meses. Hay algunos temas que surgen una y otra vez en estas conversaciones (impacto ambiental, infracciones de derechos de autor, malos resultados, etc.). Algunas personas no quieren usar IA en absoluto debido a estos problemas.
Estoy de acuerdo en que estos problemas existen, pero también creo que algunos problemas potenciales se han exagerado o se pueden reducir mucho si usamos la IA “adecuadamente”.
No es blanco o negro. La IA claramente no es perfecta y no deberíamos usarla para todo, pero algunos usos de la IA podrían ser muy beneficiosos para las organizaciones sin fines de lucro y, en general, tener más efectos positivos que negativos. Creo que adoptar posturas extremas como « todo lo relacionado con la IA es horrible, no la usaré para nada » podría perjudicar a la organización y su impacto positivo en el mundo.
Además, es probable que la IA no te quite el trabajo pronto, pero negarte a usarla podría dejarte sin trabajo en pocos años . Es muy probable que lleguemos a un punto en el que sea como decir que te niegas a usar internet, Google o las redes sociales para trabajar, porque estas tecnologías tienen efectos negativos en la sociedad. Muchas organizaciones probablemente lo considerarán demasiado extremo (y negativo para sus resultados e impacto), por lo que contratarán a alguien más.
Analicemos los principales problemas sobre la IA que he escuchado*:
*️⃣ Nota
Nos centraremos principalmente en GenAI, ya que es el tipo de IA más popular y problemático actualmente. Sin embargo, es importante destacar que la IA no se limita a GenAI, LLM o ChatGPT. Existen muchos tipos de IA (algunos se han utilizado durante décadas y no presentan los mismos problemas). Quizás en unos años dejemos de usar GPT o LLM porque encontremos mejores soluciones de IA.
Malos resultados
Este es probablemente el punto más importante. Si la IA da malos resultados, todo lo demás no importa; nadie debería usarla (aunque no tuviera otros problemas).
Pero muchos estudios están mostrando excelentes resultados usando IA (y la mayoría de ellos usaban modelos de IA antiguos, ahora tenemos modelos mucho mejores):
- Los trabajadores que utilizan IA triplicaron su productividad (realizando en 30 minutos tareas que les habrían llevado alrededor de 90 minutos en promedio sin IA).
- El uso de IA generativa mejora la productividad de los empleados en un 66% en promedio .
- Consultores de primer nivel (BCG) utilizando IA finalizaron un 12,2% más de tareas y produjeron resultados de calidad un 40% superior que aquellos que no la utilizaron.

Otro dato: ChatGPT cuenta con más de 400 millones de usuarios activos . Por lo tanto, podemos suponer que millones de personas están obteniendo buenos resultados , al menos en algunas tareas (si solo vieran malos resultados, ya no lo usarían).
Además, muchas grandes empresas están invirtiendo miles de millones en IA, mucho más que en cualquier otra cosa antes (ni siquiera Internet), así que, a menos que pensemos que son simplemente tontos o quieren perder miles de millones sin ningún motivo, deberíamos asumir que están viendo un enorme potencial para aumentar los resultados, la productividad, la innovación, etc.
Sin duda, hay algunas tareas en las que la IA no ofrece buenos resultados (todavía). Pero también hay muchas tareas en las que la IA ya es mejor que los humanos (o al menos mucho más rápida y con resultados similares). No es fácil predecir de antemano quiénes serán los «ganadores», porque la IA no piensa ni se comporta como nosotros. Tenemos que probar diferentes tareas, herramientas y estímulos. Algunos expertos llaman a esto la «frontera irregular» de la IA .

Curiosamente, muchas personas que reportan malos resultados con IA parecen haber probado muy pocas herramientas y tareas. La respuesta más común que he escuchado es » ChatGPT para escribir textos » (que no es una de las tareas en las que ChatGPT se destaca, sobre todo si no se proporcionan ejemplos ni contexto; suele ser mejor para dar ideas, resumir información, detectar problemas, traducir o modificar textos, generar código y muchas otras tareas).
Existen miles de herramientas de IA disponibles actualmente, y también miles de posibles usos. Por eso, algunos dicen: « He probado menos del 1% de la IA y he llegado a la conclusión de que no sirve para nada. No hace falta probar el 99% restante; olvidémonos de la IA para siempre ».
Además, entre el 40 % y el 69 % de las organizaciones sin fines de lucro no han recibido capacitación formal en IA. Por lo tanto, es probable que muchas personas que reportan malos resultados no sepan usar las herramientas de IA correctamente (lo cual es normal, ya que son bastante nuevas y hay mucho que aprender). Probablemente no estén utilizando técnicas de «ingeniería rápida», funciones y configuraciones avanzadas, herramientas especializadas en lugar de ChatGPT para todo, etc. Por lo tanto, no se trata solo de un problema de herramientas, sino de personas y capacitación.
Por ejemplo, algunas personas se quejan de que las respuestas de ChatGPT no siempre son fiables (y es cierto, a veces inventa o alucina información), pero eso no significa que la IA sea inútil. Solo hay que saber usar cada herramienta de IA (usar herramientas de búsqueda de IA como Perplexity o Deep Research cuando se necesiten datos y fuentes fiables, no usarlas para asuntos importantes sin supervisión humana, aprender sobre docenas de casos de uso centrados en la creatividad y la innovación, etc.).
Ahora que sabemos que la IA puede ofrecer buenos resultados (al menos en algunas tareas), debemos determinar si los efectos positivos de sus resultados pueden ser mayores que los negativos generados por sus problemas (y cómo minimizarlos si es posible). Centrémonos ahora en esos problemas…
Impacto ambiental
La industria de la IA está en pleno crecimiento, lo que tiene un gran impacto ambiental . Sin duda. Los grandes centros de datos con miles de chips potentes consumen mucha energía (no 100 % renovable en la mayoría de los casos), agua (aunque esto podría cambiar en el futuro) y materiales.
Pero hacer un uso responsable de la IA probablemente no sea tan malo para el medio ambiente como mucha gente piensa.
Hay dos pasos principales con respecto a los modelos de IA: entrenarlos y ejecutarlos (también llamado “inferencia”).
1) Entrenar nuevos modelos de IA (especialmente los LLM de vanguardia) consume mucha energía, pero en el caso de los modelos populares, ese coste de entrenamiento se repartirá entre millones de usuarios. Además, en teoría, un modelo entrenado puede usarse indefinidamente (especialmente en el caso de los modelos de código abierto). Por lo tanto, el impacto por uso podría no ser muy significativo a largo plazo para algunos de los modelos de IA actuales.
Además, es probable que las empresas de IA sigan entrenando nuevos modelos (al menos durante algunos años) incluso si mucha gente se niega a usarlos. Entre otras cosas, porque se centran en ganar la carrera de la IA/IIA, no tanto en ganar dinero ahora mismo. Incluso hay empresas de IA con miles de millones de dólares en financiación que ni siquiera planean lanzar ningún producto público a corto plazo , porque se centran en entrenar una futura IIA (Superinteligencia Artificial), no en los usos o modelos actuales de la IA.
Algunos podrían argumentar que los costos de entrenamiento de IA no están directamente relacionados con nuestro uso individual. Si las empresas entrenarán esos modelos de todos modos (o ya los han entrenado), mejor que los usemos. No estoy seguro de si estoy de acuerdo con este razonamiento, pero creo que da que pensar.
2) Ejecutar modelos de IA puede tener un gran costo de energía (si estamos haciendo tareas complejas como crear videos largos) o bastante pequeño (si estamos haciendo cosas simples como hacer preguntas cortas a modelos de texto pequeños).
Según el MIT, la energía necesaria para tareas sencillas de un chatbot de IA puede ser de unos 114 julios por respuesta. Eso es muy poca energía. Tu portátil probablemente consume unos 3000 julios por minuto (26 veces más). Ver 1 hora de Netflix puede consumir más de 200 000 julios (1700 veces más). Tu hogar puede consumir unos 100 000 000 de julios al día (800 000 veces más). Así que pedir algunas cosas sencillas a los modelos de IA probablemente no haga casi ninguna diferencia en tu consumo energético total (en la mayoría de los casos, probablemente sea menos del 1 % de tu uso energético) . En lugar de negarte a usar IA, puede ser más eficaz usar menos Netflix u otras aplicaciones de streaming de vídeo, por ejemplo. O cambiar otras cosas en tu vida que pueden tener un impacto medioambiental 100 veces mayor .

Usar IA puede incluso ahorrar energía en algunos casos . Por ejemplo, si obtienes un buen resultado de un chatbot de IA en segundos, en lugar de usar tu portátil durante 20 minutos para obtener lo mismo manualmente (sin IA).
Además, algunos expertos argumentan que la IA podría ayudarnos a reducir las emisiones globales mundiales en la próxima década (al acelerar la innovación, optimizar sistemas complejos en industrias clave, etc.). Pero de momento esto se basa solo en proyecciones y no está garantizado en absoluto.

Es difícil calcular el impacto ambiental exacto del uso de IA. No existen muchos datos fiables y existen decenas de variables (qué indicador y modelo se utiliza, si se utiliza IA en la nube o un modelo instalado en el propio ordenador, si se incluye el coste energético del entrenamiento de IA en el uso individual, qué solución alternativa a la IA se utilizaría para esas tareas, si los resultados de su trabajo podrían contribuir al medio ambiente, etc.).
Pero creo que podemos extraer tres aprendizajes principales:
1) Deberíamos considerar el impacto ambiental de los diferentes usos de la IA e intentar usarla solo cuando el impacto positivo (en la sociedad, nuestras organizaciones o en nosotros mismos) sea mayor que el coste energético . Por ejemplo, probablemente no deberíamos crear vídeos de IA para bromas u otros temas irrelevantes (alto coste energético y cero impacto positivo), pero si encontramos tareas sencillas de IA que nos ahorren mucho tiempo o mejoren nuestros resultados, creo que deberíamos intentarlo (bajo coste energético e impacto positivo en la sociedad). Si aún así te sientes mal, quizás podrías donar a una organización ambiental sin ánimo de lucro o compensar las emisiones de carbono.
2) Deberíamos aprender más sobre IA, para poder usarla de manera más eficiente (aprender “ingeniería rápida” para evitar gastar tiempo y energía en obtener resultados mediocres, evitar usar modelos de IA complejos para tareas fáciles, compartir aprendizajes y ganancias con nuestros colegas en lugar de hacer todo el ensayo y error nosotros mismos, etc.).
3) Si quieres minimizar tu impacto ambiental, probablemente deberías probar a instalar modelos de IA de código abierto en tu ordenador (sobre todo si tienes uno de esos nuevos portátiles que son energéticamente eficientes y compatibles con cargas de trabajo de IA: MacBook M3-M4, PC Copilot+, etc.). Estos modelos de IA de código abierto son suficientes para muchas tareas e incluso puedes ahorrar energía en algunos casos (en comparación con no usar IA y dedicar muchas horas al trabajo manual en el ordenador). Además, pueden ofrecer ventajas en materia de privacidad y seguridad (ya que no compartes información con herramientas de terceros ni servidores en la nube).
Cuestiones de derechos de autor
Los modelos de IA (especialmente los LLM) se entrenan con cantidades masivas de datos y contenido. La mayoría de las empresas de IA no son muy transparentes sobre el contenido que utilizan exactamente, pero, al parecer, podemos asumir que una parte significativa está protegida por derechos de autor.
Existe un gran debate en torno a esto (incluyendo numerosos casos judiciales). Algunos afirman que constituye una grave infracción de derechos de autor. Otros argumentan que entrenar un modelo de IA con contenido protegido por derechos de autor constituye «uso legítimo», ya que se acerca más a aprender e inspirarse en otros creadores (como hacen constantemente los artistas y creadores humanos) que a copiar contenido específico directamente.
De todos modos, creo que la mayoría de nosotros entendemos por qué muchos creadores están enojados con las empresas de IA que usan su contenido y no dan nada a cambio.
Existen algunas soluciones para los creadores que no quieren que su contenido se incluya en el entrenamiento de IA (bloquear los scrapers de IA con robots.txt y otras herramientas , usar herramientas de protección como Glaze en sus obras, etc.). Pero incluso si estas soluciones funcionaran a la perfección, no recibir ninguna compensación no es una buena solución para muchos artistas y creadores (algunos ganan mucho menos que antes de la era de la IA).
Como usuarios, podemos priorizar el uso de modelos de IA entrenados éticamente (que utilizan contenido de dominio público o con licencia). Existen algunos (especialmente para la generación de imágenes y audio), como:
- Shutterstock AI : generador de imágenes de IA que garantiza una compensación justa por las contribuciones de los artistas al modelo de capacitación.
- Blunge.ai : generador de imágenes de IA que evita el robo de arte generado por IA.
- Modelos certificados por la organización sin fines de lucro Fairly Trained .

Hasta donde yo sé, ninguna de las grandes herramientas de IA (ChatGPT, Google Gemini, Claude, etc.) puede considerarse entrenada éticamente en este momento.
Si quieres usar esas herramientas de IA y, al mismo tiempo, apoyar a los creadores, podrías ofrecerles algún tipo de «compensación» comprándoles algo cada mes (arte, productos digitales, membresías, servicios, etc.) o donando a artistas o asociaciones. Sería algo similar a las compensaciones de carbono, pero para los creadores afectados por la IA.
Espero que la industria de la IA encuentre una solución mejor (tal vez obligada por leyes o decisiones judiciales), pero mientras tanto…
Problemas de privacidad y seguridad
No mucha gente me lo ha comentado, pero creo que es importante. Algunas organizaciones suben muchos archivos (incluso sus discos duros completos) a herramientas de IA sin tener cuidado.
La mayoría de las herramientas de IA son probablemente bastante seguras, pero casi cualquier cosa en línea puede ser hackeada. También existen otros posibles problemas de privacidad y seguridad relacionados con el uso de la IA (acceso no autorizado a ciertos mensajes o archivos a través de la IA, exfiltración de datos mediante agentes, etc.).
Además, algunas herramientas de IA se reservan el derecho de entrenar sus modelos con sus mensajes/información , pero generalmente tienen una opción para desactivar esto y/o no lo hacen en absoluto en cuentas pagas y uso de API.
Creo que todas las organizaciones deberían dar formación a su personal para mitigar estos riesgos.
Decirle a la gente que no use IA no funciona. Alrededor del 35% de las personas ocultan el uso de IA a sus organizaciones o empleadores. Por lo tanto, incluso si su organización prohíbe el uso de IA, los riesgos seguirán existiendo (o incluso aumentarán, ya que no pueden compartir sus preocupaciones, consejos de seguridad, etc.).

Muchos de estos riesgos se pueden evitar si simplemente no proporcionamos información confidencial a la IA (hay muchos usos de la IA que no requieren esa información).
Si necesita usar información confidencial, quizá le convenga usar modelos de IA de código abierto instalados en su ordenador (p. ej., Ollama o LM Studio) en lugar de los servicios en la nube (p. ej., ChatGPT). O, al menos, borre los archivos y conversaciones confidenciales de esos servicios de IA en la nube inmediatamente después de finalizarlos.

Impacto en la sociedad (empleos, creatividad, pensamiento crítico, desinformación, sesgos…)
Creo que este es un tema clave para discutir, pero no estoy seguro de si es más un problema o una oportunidad.
La IA ya está impactando muchos empleos y es probable que esta tendencia se acelere en los próximos años. Si logramos la SuperInteligencia Artificial (una IA superior a los humanos en la mayoría de las tareas), probablemente conducirá a la transformación más profunda del mercado laboral de la historia .
Nos guste o no, creo que esto sucederá tarde o temprano; no está en nuestras manos . Los beneficios potenciales son demasiado altos, así que las grandes empresas y los gobiernos seguirán presionando. Incluso si la presión social logra detener esto en un país, el resto continuará la carrera.
Entonces, en lugar de intentar luchar contra cualquier uso de la IA, creo que deberíamos centrarnos en cómo podemos usar la IA para generar más efectos positivos (aumentar nuestra creatividad, productividad, impacto social, etc.) y reducir los riesgos y los efectos negativos (reducir el sesgo y la desinformación con la ayuda de la IA, capacitar a las personas para este nuevo mundo, aprobar leyes para evitar la “IA de alto riesgo”, etc.),
Existen numerosos estudios científicos que demuestran los impactos tanto positivos como negativos de la IA en diferentes organizaciones y en la sociedad en general. Depende de cómo usemos esta poderosa herramienta. Por ejemplo, la IA puede hacer que los estudiantes sean más perezosos, pero también puede mejorar su rendimiento académico y su pensamiento complejo . Además, puede abrir oportunidades que eran imposibles sin la IA (como contar con tutores ilimitados para guiar a cada estudiante individualmente, en cualquier parte del mundo y prácticamente gratis).
Creo que lo mismo aplica a las organizaciones sin fines de lucro. La IA cambiará nuestra forma de trabajar, pero creo que esta es una oportunidad para aumentar nuestro impacto social y también nuestra satisfacción personal (centrándonos más en iniciativas creativas y estratégicas en lugar de tareas repetitivas y trabajo pesado).
La mayoría de las organizaciones sin fines de lucro realmente no quieren reemplazar a los humanos con bots de IA, pero están muy interesadas en tener trabajadores más productivos y felices (con la ayuda de IA o cualquier otra herramienta que puedan usar).
Es normal tener miedo al cambio. Y probablemente habrá algunos efectos negativos en esta «revolución de la IA» (como ocurrió con cada nueva tecnología poderosa). Pero creo que el impacto general puede ser muy positivo si la aceptamos y planificamos nuestro futuro con un uso responsable de la IA, en lugar de luchar contra cualquier uso de la IA y aferrarnos al pasado.
Siguientes pasos
Aprende con el «Curso de IA para ONGs». Mejora resultados y evita riesgos.
Recibe ayuda personalizada. ¿Dudas de IA? ¡Pide consulta gratis!
Descubre las mejores herramientas de IA. ¡No uses ChatGPT para todo!
Apúntate al newsletter «IA para ONGs». No te pierdas nuevas guías y recursos útiles.