T-Systems Connection · Universidad de Granada · 26 marzo 2026

Inteligencia Artificial y Lenguaje en el Mundo Real

Cuando la verdad depende de quién lee

Francisco-Javier Rodrigo-Ginés T-Systems Iberia — Head of AI Engineering

Empecemos con una pregunta

Si dos personas leen
la misma noticia y una ve sesgo
donde la otra no...

¿quién tiene razón?

Quién os habla

Francisco-Javier
Rodrigo-Ginés

Head of AI Engineering en T-Systems Iberia.
Investigador en NLP y sesgo mediático.

Industria

Head of AI Engineering en T-Systems Iberia. Liderando proyectos de NLP e IA en producción.

Investigación

NLP, detección de sesgo mediático, perspectivismo, IA confiable y agentic AI.

Docencia

Bootcamps, charlas y divulgación. Defensor del open source y open science.

T-Systems · Universidad de Granada#TSConnectionUGR
Hoja de ruta

Cinco paradas

01 Subjetividad y Lenguaje

Por qué NLP no tiene respuestas únicas

02 Perspectivismo en NLP

LeWiDi, Manifiesto, modelos multi-perspectiva

03 Sesgo Mediático

El problema computacional y cómo abordarlo

B1 Sist. Distribuidos: FL BONUS

Federated Learning y privacidad

B2 Sist. Distribuidos: Agentes BONUS

Multi-agente como sistema distribuido

T-Systems · Universidad de Granada#TSConnectionUGR
Contexto 2026

¿Por qué importa ahora?

IA generativa

Los LLMs generan noticias sintéticas indistinguibles. Deepfakes de texto. Necesitamos sistemas que detecten no solo si algo es falso, sino si es sesgado.

Regulación europea

EU AI Act (2024): los sistemas de IA de alto riesgo deben ser explicables, auditables y justos. Requiere entender el sesgo en los datos de entrenamiento.

Elecciones y democracia

2024: año de elecciones globales. 49 países votaron. Los sistemas de recomendación y la desinformación afectan a millones de decisiones.

El sesgo no es un problema teórico. Es un problema de ingeniería con impacto social directo.

T-Systems · Universidad de Granada#TSConnectionUGR
Parte 01

Subjetividad
y Lenguaje

¿Por qué las máquinas no entienden lo que leemos?

Tareas objetivas

Una respuesta
correcta

NER: "Madrid" → LOC

POS: categorías definidas

Parsing: estructura determinista

κ > 0.8 · Gold label tiene sentido

Tareas subjetivas

Múltiples respuestas
legítimas

Sentiment: "El film es interesante" → ¿positivo?

Hate speech: depende del contexto cultural

Media bias: ¿sesgado para quién?

κ < 0.4 frecuente · Gold label destruye información

T-Systems · Universidad de Granada | Subjetividad y Lenguaje#TSConnectionUGR
El paso donde todo se rompe

5 anotadores,
1 texto,
0 consenso

"El Gobierno malgasta el dinero de todos en subvenciones inútiles mientras los servicios públicos se desmoronan"

Gold label = Sesgado (3/5).
¿Pero los otros 2 se equivocaron?

Estudiante, 22 añosSesgado
Periodista, 45 añosOpinión legítima
Funcionaria, 38 añosSesgado
Economista, 50 añosParcialmente cierto
Ling. computacionalSesgado

Cohen's κ = (po - pe) / (1 - pe)

En tareas subjetivas κ < 0.4 es habitual

T-Systems · Universidad de Granada | Subjetividad y Lenguaje#TSConnectionUGR
Visión clásica

El desacuerdo
es ruido

Votación mayoritaria. Adjudicación por experto. Filtrar anotadores "malos".

Se silencian las minorías.

El modelo aprende solo la perspectiva dominante. La variabilidad legítima se pierde para siempre.

Visión perspectivista

El desacuerdo
es señal

Preservar todas las anotaciones. Modelar la distribución. Predecir incertidumbre.

El modelo refleja la diversidad humana.

Mejor calibración. Más justo para grupos minoritarios. Reconoce la subjetividad inherente.

T-Systems · Universidad de Granada | Subjetividad y Lenguaje#TSConnectionUGR
"

Si cinco médicos leen
la misma radiografía y tres
ven una fractura...

¿descartamos la opinión
de los otros dos?

En NLP hacemos exactamente eso. Cada día. Con millones de textos.

Parte 02

Perspectivismo
en NLP

De la gold label a la distribución: un cambio de paradigma

Enfoque clásico

Hard label

// clasificación binaria y ∈ {0, 1} // anotadores → mayoría → UNA etiqueta L = -Σ y·log(ŷ) // "Gobierno anuncia recortes históricos" gold = "sesgado" // 3/5 anotadores P(sesgado) = 1.0 // certeza total // ¿3 vs 2 = 5 vs 0? Misma certeza.
Enfoque perspectivista

Soft label

// distribución de probabilidad y ∈ [0, 1] // anotadores → ratio → DISTRIBUCIÓN L = -Σ p(y)·log(ŷ) // "Gobierno anuncia recortes históricos" soft = [0.6, 0.4] // sesgado, neutral // captura la incertidumbre REAL // 3 vs 2 ≠ 5 vs 0. Como debe ser.
T-Systems · Universidad de Granada | Perspectivismo en NLP#TSConnectionUGR
Cómo modelar perspectivas

Cuatro enfoques técnicos

Soft Label Training

L = KL(p_soft ‖ p_model)

Plug-and-play. Sin cambios de arquitectura. Hinton et al. (2015).

Multi-Annotator Head

hₖ(x) = Wₖ·enc(x) + bₖ

Un head por anotador. Captura patrones individuales. Davani et al. (2022).

Annotator Embeddings

ŷ = f(enc(x), aₖ ∈ ℝ^d)

Cada anotador como vector. Generaliza a nuevos anotadores. ≈ user embeddings.

Bayesian / Evidential

p(y|x) ~ Dir(α₁,...,αₖ)

Incertidumbre epistémica + aleatoria. "No sé" vs "es ambiguo". Sensoy (2018).

Todos tratan el desacuerdo como DATO, no como PROBLEMA

T-Systems · Universidad de Granada | Perspectivismo en NLP#TSConnectionUGR
SemEval 2021 & 2023

LeWiDi
Learning with
Disagreements

Shared task que evalúa modelos contra la distribución completa de juicios humanos, no contra la mayoría.

CED = -Σ p_real(y)·log(p_pred(y))

Penaliza sobreconfianza. Mide distancia real entre distribución predicha y distribución humana.

Soft labels siempre mejoran

Hard → soft mejora todos los modelos sin cambios de arquitectura.

Desacuerdo predice dificultad

Textos controvertidos son también los más difíciles para los modelos.

Diversidad > cantidad

5 anotadores diversos > 20 similares. La homogeneidad enmascara sesgo.

Transfer perspectivista

Soft labels actúan como regularizador natural. Mejor generalización cross-dataset.

T-Systems · Universidad de Granada | Perspectivismo en NLP#TSConnectionUGR
Cabitza, Campagner & Basile (2023)

El Manifiesto Perspectivista

La noción de ground truth es un artefacto dañino. Para muchas tareas, es una construcción social que refleja la perspectiva del grupo dominante.

1 No a la GT única

En tareas subjetivas no hay verdad objetiva. La agregación crea ilusión de consenso.

2 Preservar desacuerdo

El desacuerdo es información sobre complejidad, no ruido.

3 Diversidad de voces

Demografía, ideología y experiencia son variables relevantes.

4 Modelos multi-perspectiva

Distribuciones, no clasificaciones binarias. Humildad epistémica.

5 Evaluar contra distribuciones

No contra gold labels artificiales.

6 Responsabilidad ética

Documentar qué perspectivas se privilegian. Model Cards, Datasheets.

T-Systems · Universidad de Granada | Perspectivismo en NLP#TSConnectionUGR
Aplicaciones cross-domain

Perspectivismo: no solo NLP

Visión por computador

Dermatología: ¿es melanoma? Interobserver κ ≈ 0.56. Radiología: desacuerdo clínico legítimo y frecuente. Conducción autónoma: ¿es peligroso? Percepción de riesgo subjetiva.

Sistemas de recomendación

Ratings subjetivos (1-5 estrellas). User embeddings ≈ annotator embeddings. Cold start = annotator desconocido. ¿Para quién optimizamos la fairness?

Justicia algorítmica

COMPAS: predicción de reincidencia. Jueces discrepan entre sí. Hiring algorithms: "buen candidato" es subjetivo. Content moderation: normas culturales variables.

Patrón común: cuando la tarea involucra juicio humano, la "verdad" no es un punto sino una distribución.

T-Systems · Universidad de Granada | Perspectivismo en NLP#TSConnectionUGR
Deep dive técnico

Jury Learning

Gordon et al. (2022): en lugar de un modelo que aprende una verdad, un jurado de modelos que aprende perspectivas.

# Jury Learning — Arquitectura # 1. Encoder compartido h = encoder(x) # BERT, RoBERTa... # 2. Un head por "juror" (anotador) for k in annotators: ŷₖ = head_k(h) # predicción individual # 3. Agregación: distribución, no mayoría p(y|x) = mean([ŷ₁, ŷ₂, ..., ŷₖ]) # 4. Loss: contra cada anotador individualmente L = Σₖ CE(ŷₖ, yₖ)

Ventajas

Captura la perspectiva individual de cada anotador. Puede predecir cómo un nuevo anotador etiquetaría un texto. Encoder compartido evita sobreajuste.

Resultados

En datasets de hate speech: mejora 8-15% en CED vs. hard labels. Mejor calibración. El modelo "sabe lo que no sabe".

Conexión con MoE

Mixture of Experts: cada expert = una perspectiva. Router aprende cuándo activar cada perspectiva. Similar a multi-head attention.

T-Systems · Universidad de Granada | Perspectivismo en NLP#TSConnectionUGR
Parte 03

Sesgo
Mediático

El problema, las formas, y cómo abordarlo computacionalmente

Acceso a más información
que nunca

4.9B

usuarios en redes sociales

24/7

ciclo de noticias digital

contenido IA generativa

Y sin embargo, estamos
menos informados

Cámaras de eco · polarización · solo el 40% confía en los medios (Reuters 2024) · desinformación sanitaria masiva

T-Systems · Universidad de Granada | Sesgo Mediático#TSConnectionUGR
Misma noticia, diferente realidad

Evento: reforma laboral aprobada por el gobierno

Medio A

"El Gobierno aprueba la histórica reforma que moderniza el mercado laboral"

→ Sensationalism + subj. adjectives

→ Source selection: solo gobierno

→ Omission: impacto en temporales

Medio B

"La polémica reforma laboral impuesta por el Ejecutivo entra en vigor"

→ Labeling / word choice

→ Source selection: solo oposición

→ Omission: objetivos económicos

Ambos reportan hechos reales. El sesgo está en el CÓMO, no en el QUÉ.

T-Systems · Universidad de Granada | Sesgo Mediático#TSConnectionUGR
Por qué es tan difícil

Cuatro desafíos computacionales

01 Sin definición

15+ esquemas distintos en la literatura. Sin benchmark unificado. Cada paper reinventa la rueda.

02 Datasets limitados

Mayoría USA-centric. Pocos en español. Contextos políticos no transferibles.

03 No generaliza

BERT en MBIC → F1=0.76. Mismo modelo en BABE → F1=0.45. Cross-dataset: -30-50%.

04 Subjetividad

Sesgo = juicio + percepción + contexto. Gold labels = perspectiva dominante.

Tendencia 2024-25: perspectivista + holístico + LLMs
Las mejoras vienen de cambiar QUÉ modelamos (distribuciones), no solo CÓMO (más parámetros)

T-Systems · Universidad de Granada | Sesgo Mediático#TSConnectionUGR
Cómo se aborda hoy

Estado del arte en detección de sesgo

Lexical / Features

BoW, TF-IDF, lexicones de sentimiento. Interpretable y rápido pero sin contexto. Recasens et al. (2013). Baseline clásico.

Encoder Transformers

BERT, RoBERTa, DeBERTa fine-tuned. SOTA en benchmarks cerrados. Caja negra. No generaliza cross-dataset. Spinde (2021).

LLMs + Prompting

GPT-4, Claude con few-shot + CoT. Explicable, flexible. Pero costoso, inconsistente y con alucinaciones. Fan et al. (2024).

Hybrid / Multi-level

Heurísticas + Transformers + LLMs. Ensemble y stacking. Más robusto y mejor generalización. Línea más prometedora.

La tendencia: perspectivismo + multi-nivel + LLMs como evaluadores

Las mejoras más grandes vienen de cambiar la formulación del problema, no la arquitectura

T-Systems · Universidad de Granada | Sesgo Mediático#TSConnectionUGR
La conexión natural

Perspectivismo
+ sesgo mediático

¿Por qué el sesgo mediático es la tarea perspectivista por excelencia?

La percepción depende del lector

Un votante de izquierdas y otro de derechas perciben sesgo en textos diferentes. El sesgo existe en la relación texto-lector.

Desacuerdo legítimo

Ideología, cultura y experiencia profesional afectan la percepción del sesgo. Un κ bajo no indica datos malos: indica un fenómeno genuinamente subjetivo.

El contexto lo cambia todo

"Recortes presupuestarios" puede ser informativo o sesgado según el contexto. Sin contexto, la anotación es incompleta.

La agregación distorsiona

3 perciben sesgo, 2 no. Gold = "sesgado" (100%). Soft = P(sesgado) = 0.6. La segunda es más honesta y más útil.

T-Systems · Universidad de Granada | Sesgo Mediático#TSConnectionUGR
"

La neutralidad no es
la ausencia de perspectiva.

Es la incapacidad de ver
que siempre la hay.

Bonus 1 — Sistemas Distribuidos en IA

Federated
Learning

Entrenar IA sin mover los datos

El problema

Los datos no pueden
viajar

Hospitales, bancos, móviles: los datos más valiosos son los que no puedes centralizar. GDPR, HIPAA, regulación.

Traer el modelo
a los datos

No los datos al modelo

El algoritmo
# FedAvg — McMahan et al. (2017) for round t = 1, 2, ...: # 1. Servidor envía modelo global broadcast(w_t) → N nodos # 2. Cada nodo entrena localmente for each client k: wₖ ← wₜ − η·∇L(wₜ; Dₖ) # 3. Servidor agrega (nunca ve datos) w_{t+1} = Σₖ (nₖ/n) · wₖ

Los datos NUNCA abandonan el dispositivo

T-Systems · Universidad de Granada | Federated Learning#TSConnectionUGR

Desafíos abiertos y algoritmos

Non-IID Data

Nodos con distribuciones distintas. Hospital rural ≠ urbano. → FedProx: L + (μ/2)‖w-wₜ‖²

Communication Cost

Millones de parámetros × N × R. → Gradient compression, quantización, top-k sparsification.

Privacidad Real

No enviar datos ≠ privacidad total. Model inversion attacks. → Differential Privacy + Secure Aggregation.

Byzantine Attacks

Un nodo envía gradientes maliciosos. → Robust aggregation: median, trimmed mean, Krum.

Fairness

¿El modelo global es justo para todos? Nodos pequeños infrarepresentados. → Agnostic FL (Mohri 2019).

Personalization

¿Un modelo sirve a todos? → Per-FedAvg (meta-learning), local fine-tuning, FedBN.

T-Systems · Universidad de Granada | Federated Learning#TSConnectionUGR

FL en el mundo real

Google Gboard

Predicción de texto en Android. Millones de dispositivos. Primer despliegue masivo (2017). Datos de escritura nunca salen del móvil.

NVIDIA FLARE (Salud)

20 hospitales entrenando detector de tumores sin compartir historiales. Nature Medicine 2022. HIPAA by design.

Anti-fraude financiero

Bancos colaboran sin compartir transacciones. WeBank: primer banco FL. OpenFL de Intel para el sector.

Framework open source: Flower (flower.ai)

FL con PyTorch / TensorFlow / JAX en ~15 líneas de Python

T-Systems · Universidad de Granada | Federated Learning#TSConnectionUGR
Código real

FL con Flower
en Python

# client.py — Nodo federado import flwr as fl class Client(fl.client.NumPyClient): def fit(self, params, config): set_params(self.model, params) train(self.model, self.loader) return self.get_parameters(), len(self.loader), {} def evaluate(self, params, config): set_params(self.model, params) loss, acc = test(self.model) return loss, len(self.loader), {"accuracy": acc}
# server.py — Orquestador import flwr as fl strategy = fl.server.strategy.FedAvg( fraction_fit=0.3, min_fit_clients=2, min_available_clients=5, ) fl.server.start_server( server_address="0.0.0.0:8080", config=fl.server.ServerConfig( num_rounds=10 ), strategy=strategy, ) # Eso es todo. ~15 líneas.

Flower soporta PyTorch, TensorFlow, JAX

flower.ai — open source, producción-ready

T-Systems · Universidad de Granada | Federated Learning#TSConnectionUGR
La conexión con vuestra carrera

FL es un problema de
sistemas distribuidos

Consistencia

¿El modelo global converge aunque los nodos tengan datos distintos? Análogo al problema de consistencia eventual en bases de datos distribuidas (CAP theorem).

Tolerancia a fallos

¿Qué pasa si un nodo se cae o envía basura? Byzantine fault tolerance. Robust aggregation. Misma teoría que en Paxos/Raft.

Comunicación

El cuello de botella no es el cómputo sino la red. Gradient compression, async FL. Mismos trade-offs que en MapReduce o Spark.

Si entendéis sistemas distribuidos, ya entendéis la mitad de FL.

Consenso · replicación · particionado · serialización · idempotencia — todo aplica

T-Systems · Universidad de Granada | Federated Learning#TSConnectionUGR
"

Los datos son el nuevo petróleo.

Federated Learning es la refinería
que no necesita que el petróleo
viaje hasta ella.

Bonus 2 — Sistemas Distribuidos en IA

Agentic AI

Sistemas autónomos que razonan, planifican y actúan

Antes

LLM clásico

Prompt → respuesta. Sin estado. Sin acciones. Sin decisiones.

User: "¿Clima en Madrid?" LLM: "No tengo acceso a datos en tiempo real."

Analogía: una calculadora

Ahora

Agente IA

Objetivo → planifica → ejecuta → evalúa. Memoria. Herramientas. Autonomía.

User: "¿Clima en Madrid?" Agent: search_api("weather Madrid") → parse_json(response) → "22°C, soleado, viento 12km/h"

Analogía: un empleado junior competente

T-Systems · Universidad de Granada | Agentic AI#TSConnectionUGR

Anatomía de un agente

LLM (Cerebro)

GPT-4, Claude, Gemini. Razonamiento, planificación. Chain-of-Thought, Tree-of-Thought.

Herramientas (Manos)

APIs, código, web, filesystem. Function calling. MCP protocol.

Memoria (Contexto)

Corto plazo: buffer. Largo plazo: vector DB. Episódica, semántica, procedimental.

Planificación

Descomponer → priorizar → ejecutar → replanificar. ReAct, Reflexion, Plan-and-Execute.

OBSERVE THINK ACT REFLECT loop
T-Systems · Universidad de Granada | Agentic AI#TSConnectionUGR
La conexión con sistemas distribuidos

Multi-agente IS
un sistema distribuido

Orquestador central

Hub-and-spoke. ≈ microservicios con API gateway. CrewAI, AutoGen.

Peer-to-peer

Sin coordinador. Resiliente, escalable. ≈ blockchain, gossip protocol.

Pipeline / DAG

Flujo en grafo. ≈ CI/CD pipelines, MapReduce. LangGraph, DSPy.

Debate adversarial

Agentes argumentan. ≈ sistema judicial, consenso Bizantino.

paso de mensajes · tolerancia a fallos · consenso · escalabilidad · observabilidad

T-Systems · Universidad de Granada | Agentic AI#TSConnectionUGR
Ejemplo real

Un agente de coding
en acción

> "Añade autenticación con Google OAuth a mi app Next.js"

THINKNecesito librería auth, rutas API, middleware, UI
ACTLee package.json, tsconfig, estructura del proyecto
THINK"Next.js 15 + App Router → Auth.js v5"
ACTpnpm add next-auth @auth/core
ACTCrea auth.ts, route.ts, middleware.ts, button.tsx
ERRORBuild → falta GOOGLE_CLIENT_ID
ACTCrea .env.example, fix importación
DONEBuild ✓ · Tests 12/12 ✓

Frameworks

LangGraph · Claude Agent SDK · CrewAI · AutoGen · DSPy · Smolagents

Retos en producción

Fiabilidad (alucinaciones) · Coste ($30/1M tokens × N agentes) · Seguridad (prompt injection) · Gobernanza (EU AI Act)

El futuro

Computer use · Agentes persistentes 24/7 · Agentic OS · La interfaz desaparece

T-Systems · Universidad de Granada | Agentic AI#TSConnectionUGR
Patrones de diseño

4 patrones clave de Agentic AI

ReAct

Yao et al. (2023). Thought → Action → Observation, en bucle. Base de LangChain, Claude tools. El patrón más usado en producción hoy.

Reflexion

Shinn et al. (2023). El agente evalúa su propio output. Si es subóptimo: genera crítica → reintenta. Mejora ~30% en coding tasks.

Plan-and-Execute

Fase 1: plan completo. Fase 2: ejecutar paso a paso. Separa planning de execution. Más predecible. Usado en Claude Code, Devin.

Tool Use

Toolformer (Schick 2023). El LLM decide cuándo y qué herramienta usar. Function calling (OpenAI, Anthropic). MCP protocol.

En la práctica se combinan: ReAct + Tool Use + Reflexion + Planning

T-Systems · Universidad de Granada | Agentic AI#TSConnectionUGR
Los problemas reales

Retos de llevar agentes a producción

Fiabilidad

Los LLMs alucinan → el agente actúa mal. Un error se propaga y amplifica. No-determinismo: misma entrada ≠ misma salida. Solución: guardrails, validación, sandboxing.

Coste

GPT-4: ~$30/1M tokens. Un agente complejo: 50K-500K tokens/tarea. Multi-agente: ×N agentes. Solución: routing inteligente, modelos más pequeños para subtareas.

Observabilidad

¿Qué decidió el agente y por qué? Traces, logs estructurados, métricas. LangSmith, Langfuse, Arize. Debugging agéntico ≈ debugging de sistemas distribuidos.

Seguridad

Prompt injection: manipular al agente. Tool misuse: acciones no autorizadas. Data exfiltration. Solución: principio de mínimo privilegio, sandboxing.

Evaluación

¿Cómo medir si un agente es "bueno"? No hay test set: tareas abiertas. Benchmarks: SWE-bench, WebArena, GAIA. Human eval sigue siendo gold standard.

Gobernanza

¿Quién es responsable si el agente falla? Autonomía vs. control humano. EU AI Act: sistemas de alto riesgo. Human-in-the-loop vs. human-on-the-loop.

T-Systems · Universidad de Granada | Agentic AI#TSConnectionUGR
Hacia dónde va esto

El futuro de Agentic AI

Agentes especializados

Coding: Devin, Claude Code, Cursor. Research: Elicit, Consensus. Data: Julius. DevOps: auto-deploy. Cada dominio tendrá su agente.

Computer Use

Agentes que usan GUI como humanos. Click, type, scroll. Anthropic Computer Use (2024). Cualquier software = herramienta del agente.

Agentes persistentes

No solo responder: ejecutar 24/7. Monitorizar, reaccionar, aprender. Background agents en CI/CD. De asistente a empleado digital.

Agentic OS

El sistema operativo como orquestador. Apple Intelligence, Windows Copilot. Inter-app agent communication. La interfaz desaparece.

La pregunta no es si los agentes cambiarán la informática...

...sino con qué garantías. Fiabilidad, seguridad y gobernanza son los cuellos de botella.

T-Systems · Universidad de Granada | Agentic AI#TSConnectionUGR
"

El mejor código es el que
no tienes que escribir.

El mejor agente es el que
no tienes que supervisar.

Pero hasta que lleguemos ahí, necesitamos ingenieros que entiendan LLMs y sistemas distribuidos. Es decir: vosotros.

Lo que quiero que recordéis

Cinco ideas

1

El lenguaje es subjetivo

Y eso no es un bug, es un feature. Nuestros modelos deben reflejarlo.

2

El desacuerdo es información

Cuando los anotadores discrepan, están mostrando la complejidad del fenómeno.

3

El sesgo mediático es el test definitivo

Subjetivo, cultural, político. Si resolvemos esto, avanzamos en IA justa.

4

FL: IA distribuida sin exponer datos

Privacidad como derecho, no como trade-off.

5

Los agentes son sistemas distribuidos

Multi-agente = paso de mensajes + consenso + tolerancia a fallos. Vuestro futuro.

T-Systems · Universidad de Granada | Cierre#TSConnectionUGR
Para vosotros

¿Qué podéis hacer?

Investigación

TFGs/TFMs en perspectivismo, detección de sesgo, NLP multilingüe. Contribuir a shared tasks (SemEval). Publicar en workshops. Open source: datasets, modelos, código.

Ingeniería

Sistemas de fact-checking automático. Dashboards de transparencia mediática. Pipelines de ML distribuido (FL). Agentes IA para tareas complejas. DevOps para IA.

Impacto social

Herramientas para periodistas. Extensiones de navegador anti-sesgo. Educación mediática con IA. Auditoría algorítmica participativa. IA responsable aplicada.

Recursos para empezar hoy

LeWiDi

semeval.github.io

Flower

flower.ai

LangGraph

langchain-ai.github.io

HuggingFace

huggingface.co

T-Systems · Universidad de Granada | Cierre#TSConnectionUGR
Una última reflexión

Construimos sistemas
que leen millones de textos
al segundo.

Pero aún no hemos
aprendido a escuchar
todas las voces
que los escriben.

Esa es la tarea. Vuestra y nuestra.

francisco.rodrigo@t-systems.com T-Systems Iberia #TSConnectionUGR