miércoles, 26 de marzo de 2025

Más allá de los números: reflexiones sobre el sistema CTS y las patentes

Los sistemas CTS siempre han sido un tema que despierta opiniones encontradas. Por un lado, es innegable que se han logrado avances y que hay proyectos que realmente impulsan la innovación. Tampoco es un secreto que es necesario tener mecanismos que permitan cuantificar los avances o retrocesos en la materia. Sin embargo, lo que más llama mi atención es cómo, en ocasiones, el sistema parece estar más enfocado en "engrosar números" que en generar resultados tangibles y en cumplir con las funciones sociales de la ciencia que, como bien resumíamos hace unos días, consisten en mejorar la vida de las personas. Creo que un ejemplo claro de esto es el tema de las patentes. Me resulta curioso pensar que en ocasiones se patentan inventos o soluciones que, en muchos casos, nunca llegan a utilizarse pero sí suman puntos y cuentan como grandes logros dentro del sistema CTS (conozco varios casos en el ámbito del desarrollo de software). Más asombro aún me ha parecido ver el otro extremo en el que hasta los genes, esos hilos con los que se teje la vida, se han convertido en un objeto mercantil, utilizado además para obstaculizar el avance de la ciencia.

Otro aspecto que llama mi atención es esta "obsesión" en los sistemas CTS por los números y los indicadores, cosa que también se refleja en el afán por publicar de muchos científicos. La presión por aparecer en revistas y tener un gran portafolio de publicaciones a veces puede llevar a que se priorice la cantidad sobre la profundidad o el impacto real de la investigación. Se genera un ambiente en el que se valora más el "score" académico que el avance genuino en áreas cruciales. Es, paradójicamente, como esa fuerza que empuja a cruzar la barrera que nos mostraba Joaquín en la presentación del primera sesión presencial, esa línea invisible entre lo "permitido" y lo prohibido.  En mi opinión es un ejercicio valioso reflexionar acerca de si la acumulación de patentes y publicaciones realmente se traduce en progreso o si, por el contrario, se está creando una cultura en la que el éxito se mide únicamente en números. Una reflexión que invita a mirar más allá de los indicadores y a valorar hasta que punto el sistema ayuda a que la ciencia cumpla con su función esencial.

Por otra parte, trasladándome a mi área de interés particular, considero que la existencia de software "libre" (que no por ello deja de ser patentable) es una verdadera revolución para el avance de la ciencia. Al eliminar barreras económicas y de acceso, permite que investigadores de cualquier parte del mundo colaboremos y podamos compartir acceso a herramientas de software para construir sobre el trabajo de otros sin restricciones. Pienso que esta apertura no solo acelera el desarrollo de nuevos métodos y tecnologías, sino que también fomenta una cultura de colaboración y transparencia que impulsa la innovación. En la orilla contraria se encuentran las grandes empresas tecnológicas con su lucha constante por las patentes que les permitan, no solo lucrarse de sus productos de hardware y software, lo cual me parece muy bien, sino en ocasiones monopolizar el mercado y excederse con prácticas tan ruines como la obsolescencia programada

El fraude del generador de Artículos SCIgen: una lección para la evaluación científica

En el dinámico mundo de la inteligencia artificial y las ciencias de la computación, la integridad de la investigación es fundamental para el avance del conocimiento. Sin embargo, en ocasiones se han producido casos que ponen en tela de juicio los mecanismos de revisión y validación científica. Un ejemplo paradigmático es el caso del generador automático de artículos SCIgen, desarrollado por estudiantes del MIT.

SCIgen es un programa que genera artículos científicos de manera completamente automática, combinando terminología técnica y estructuras formales propias de la literatura académica en ciencias de la computación. El propósito del programa es generar papers automáticamente para someterlos en congresos que se sospeche que tienen estándares de calidad muy bajos o que directamente son eventos falsos, creados con el único fin de engrosar la lista de publicaciones de científicos que hacen uso de estas malas prácticas. En efecto, para sorpresa de muchos, en 2005 se presentó un artículo generado por SCIgen en una conferencia internacional, logrando ser aceptado pese a carecer de cualquier contenido real o aportación científica. Este hecho expuso vulnerabilidades en el proceso de revisión por pares, evidenciando su falta de rigurosidad y criterio científico. Años más tarde, en 2015, Springer descubrió 18 artículos fraudulentos, dentro de los cuales se encontraban algunos generados por SCIgen. 

Lo rescatable de este tipo de casos de fraude es que no se limitan a una simple anécdota, sino que sirven como un llamado de atención sobre la importancia de establecer mecanismos de control más rigurosos en la evaluación de la calidad de la investigación científica. En los tiempos que corren, la inmediatez que ofrece la inteligencia artificial puede llevar a que nos olvidemos de lo fundamental en la ciencia, por eso considero que el caso SCIgen continúa siendo un recordatorio de que la integridad y la crítica rigurosa son pilares esenciales en nuestra labor científica.

Referencias:
[1] Para conocer más sobre el funcionamiento y la historia de SCIgen, se puede consultar la página oficial del proyecto en el MIT. También hay ejemplos y se cita el caso del paper de 2005 que he mencionado: https://pdos.csail.mit.edu/archive/scigen/

[2] Dejo un enlace que habla acerca de una herramienta desarrollada en el 2015 para detectar papers generados con herramientas como SCIgen: 
https://www.lasexta.com/tecnologia-tecnoxplora/ciencia/divulgacion/pesadilla-cientifico-tramposo-sistema-que-detecta-papers-fraudulentos_2015040657fcc2580cf2a2e945ba53ae.html

El paradigma de las Redes Neuronales Artificiales

La evolución de las ciencias de la computación ha estado marcada por paradigmas que han transformado la forma en la que abordamos la resolución de problemas complejos. Uno de los paradigmas más influyentes en este ámbito hoy por hoy es, sin duda, el de las redes neuronales artificiales. Este paradigma se inspira en la estructura y funcionamiento del cerebro humano para desarrollar modelos computacionales capaces de aprender, adaptarse y generalizar a partir de grandes volúmenes de datos.

El paradigma de las redes neuronales artificiales ha experimentado una evolución que refleja tanto los avances teóricos como tecnológicos en el campo de la computación. En sus inicios, los modelos neuronales eran relativamente simples, implementando arquitecturas limitadas en profundidad y capacidad. Durante las décadas de 1950 y 1960, investigaciones pioneras como la del perceptrón marcaron el comienzo de esta área, aunque sus capacidades se veían restringidas por la falta de métodos de aprendizaje eficientes y la escasez de datos. Con el tiempo, la investigación acerca de las redes neuronales artificiales se enfrentó a desafíos significativos, como el problema de la convergencia y la dificultad para modelar funciones no lineales complejas. En la década de 1980, el resurgimiento de estas técnicas se debió, en parte, al desarrollo del algoritmo de retropropagación, que permitió ajustar los pesos de las conexiones de forma sistemática y mejorar el desempeño de las redes en tareas de reconocimiento y clasificación. No en vano, las contribuciones del creador del algoritmo de retropropagación Geoffrey Hinton y de John J. Hopfield con la introducción de un mecanismo que permitía a las redes neuronales almacenar y recuperar patrones, les hicieron acreedores del premio nobel de física en 2024. Sin embargo, el gran salto en la evolución de las redes neuronales se produjo con la llegada del big data y el incremento exponencial en la capacidad computacional a entre del siglo XX y principios del XXI. Estos avances permitieron la implementación de modelos de mayor profundidad y complejidad, dando origen al concepto de redes neuronales profundas o deep learning. Las redes neuronales profundas, caracterizadas por tener múltiples capas ocultas, han demostrado una capacidad excepcional para extraer patrones de grandes volúmenes de datos, permitiendo aplicaciones que van desde la visión por computador hasta el procesamiento de lenguaje natural.

Hoy en día, las redes neuronales no solo son reconocidas por su capacidad de aprendizaje supervisado y no supervisado, sino también por su utilidad para gestionar la incertidumbre y manejar información imprecisa, lo que las convierte en una herramienta fundamental dentro de la inteligencia artificial. La integración de técnicas de regularización, optimización avanzada y arquitecturas híbridas ha potenciado aún más su rendimiento, consolidándolas como el paradigma dominante en el tratamiento de problemas complejos y multidimensionales.

Comentarios finales sobre ABAI 2 (reflexión que sustituye asistencia a la última sesión presencial)

Desde mi punto de vista, para las personas que iniciamos la carrera hacia "sacarnos el carnet de científicos", como bien dice Joaq...