miércoles, 5 de marzo de 2025

Los riesgos de la redes sociales

 

Como documenta de manera exhaustiva Haidt, en el libro La generación ansiosa (2024), desde 2010, (los smartophone aparecen en 2009) la salud mental de los adolescentes se está desplomando y las tasas de depresión, ansiedad y autolesiones se han disparado, pues, entre otros factores, se sienten incapaces de conseguir el sueño del modelo ideal de imagen que desean proyectar.

Son variadas las respuestas que se están dando en los centros educativos, y también las familias van regulando los límites que deben tener los alumnos. Como suelo comentar, del mismo modo que no se deja a menores de 18 años beber alcohol o conducir un coche, debe tener limitaciones con los móviles incluso prohibiciones: 14 compañías europeas han llegado a un acuerdo para imponer limitaciones al acceso de los menores a cotenidos nocivos. Lo que sigue a continuación es una publicación en The Conversation que merece la pena consultar



Internet y las redes sociales son armas de doble filo. Por un lado, proporcionan información valiosa al instante, eliminan barreras y fomentan la conectividad. Pero simultáneamente también ponen en riesgo nuestra salud mental, en especial la de los menores, que se enganchan al contenido adictivo y acaban perdiendo el control de las horas que pasan conectados a las redes, desplazando al juego físico y la socialización en persona. Para colmo, durante el tiempo que pasan conectados, los chavales se exponen a peligros serios como el ciberacoso, el abuso o la pornografía.

Desde The Conversation consideramos que es el momento de analizar en profundidad qué relación tiene el uso actual de las tecnologías e internet con la salud mental de niños y adolescentes. El momento de escuchar lo que tienen que decir los expertos y expertas que investigan sobre ello. El momento de poner la evidencia científica en el centro del debate, compartiendo las certezas, pero también las incertidumbres. Por eso, a lo largo de 2025 publicaremos en nuestra plataforma una serie de artículos en los que conoceremos de primera mano los estudios científicos que abordan el bienestar digital de los menores desde la salud mental, la psicología, la educación, la pedagogía, la psiquiatría, la ingeniería o el derecho. Entre ellos los que nos explican cómo TikTok se ‘come’ nuestro tiempo“, cómo tener buenos amigos previene el ciberacoso, de qué modo reconducir un uso problemático de las redes sociales o cuál es el verdadero efecto de las pantallas en el sueño de los adolescentes.

Paralelamente, con el apoyo de Fundación “La Caixa”, celebraremos seis eventos presenciales (Madrid, Valencia, Zaragoza, Sevilla, Bilbao y Barcelona) en los que expertos y expertas conversarán sobre este asunto con los miembros de la sociedad directamente afectados: médicos de familia, pediatras, psicólogos, asistentes sociales, docentes, padres y madres, tomadores de decisiones… Y, por supuesto, con los propios jóvenes.

Confiamos en que de estas conversaciones surjan estrategias, medidas y prácticas que permitan a las nuevas generaciones crecer haciendo un uso responsable y saludable de las prometedoras herramientas digitales que tienen a su alcance, sin exponerse a riesgos innecesarios. Y esperamos poner nuestro granito de arena por el bienestar mental de los adolescentes, cuyo día mundial se conmemora mañana, 2 de marzo.

Elena Sanz. Directora. The Conversation


Si lo desea, puede volver a publicar este artículo, en forma impresa o digital. Pero le pedimos que cumpla estas instrucciones: por favor, no edite la pieza, asegúrese de que se la atribuye a su autor, a su institución de referencia (universidad o centro de investigación), y cite de este modo el artículo: García Moriyón, F. Los retos de las redes sociales? El Mito de Theuth 05/03/0205 


 

sábado, 15 de febrero de 2025

Musk y Altman: sainete de titanes tecnológicos

Jordi Linares Pellicer
 
14/2/2025 08:00 CEST

El mundo de la inteligencia artificial se ha convertido en un escenario lleno de rivalidades, ambiciones y poderosos intereses. En el centro de todo ello, Sam Altman y Elon Musk, cofundadores de OpenAI en 2015, protagonizan un enfrentamiento que va más allá de las disputas personales. Su lucha refleja la batalla global por controlar una tecnología que podría cambiarlo todo. Mientras las superpotencias se posicionan, la pregunta sigue siendo: ¿quién dominará el futuro de la IA?

Sam Altman (izquierda) y Elon Musk, cofundaron OpenAI en 2015. / EFE

Todo empezó, como muchas buenas historias, con una noble intención. Allá por 2015, Sam Altman y Elon Musk unieron fuerzas con otros visionarios para crear OpenAI. Su misión: un Proyecto Manhattan para la IA, pero en plan open source, para que los beneficios de esta tecnología revolucionaria llegaran a toda la humanidad. Sí, cuando se es joven es más fácil creer en principios filantrópicos y nobles objetivos; las cosas cambian cuando el dinero entra en juego en cantidades inimaginables. El mundo de la inteligencia artificial se ha convertido en un escenario lleno de rivalidades, ambiciones y poderosos intereses. En el centro de todo ello, Sam Altman y Elon Musk, cofundadores de OpenAI en 2015, protagonizan un enfrentamiento que va más allá de las disputas personales. Su lucha refleja la batalla global por controlar una tecnología que podría cambiarlo todo. Mientras las superpotencias se posicionan, la pregunta sigue siendo: ¿quién dominará el futuro de la IA?

Pero, como en toda buena telenovela, los egos chocaron. Musk, con su visión de un futuro donde los coches Tesla se conducirán solos gracias a la IA (y, quizás, conquistar Marte), quería integrar OpenAI en su imperio. Altman, por su parte, tenía otros planes. El resultado: Musk abandonó el barco en 2018, fundó su propia compañía, X.AI (muy original, Elon), y comenzó una guerra de declaraciones, tuits incendiarios y demandas judiciales contra su antiguo ‘amigo’.

"Elon Musk quería integrar OpenAI en su imperio. Altman, por su parte, tenía otros planes. El resultado: Musk abandonó el barco en 2018, fundó su propia compañía, X.AI "
 

La expansión y la lucha de poder

Mientras tanto, OpenAI, lejos de hundirse, despegó. Y la llegada de Trump al poder otorgó aún más influencia a Musk, en una situación donde el mayor poder político y el mayor poder económico se entrelazan sin ningún rubor.

OpenAI, viendo la oportunidad (y, quizás, un poquito de presión), decidió que lo de "sin ánimo de lucro" ya no tenía tanto sentido y se lanzó a la aventura empresarial.

Aquí es donde la trama se complica. Musk, en un alarde de poderío económico y, por qué no decirlo, de ganas de fastidiar a Altman, lanza una oferta de casi 100.000 millones de dólares para comprar OpenAI. Un movimiento que, más allá del dinero, está claramente diseñado para encarecer al máximo la transformación de OpenAI en una empresa con ánimo de lucro.

Musk lanzó una oferta de casi 100.000 millones de dólares para comprar OpenAI, un movimiento que busca encarecer su transformación en una empresa con ánimo de lucro

Trump, por otro lado, muestra mucho amor a Musk, pero no tanto, y proclama una inversión de 500.000 millones de dólares en el proyecto Stargate para consolidar el liderazgo de la IA en América, pero lo hace con Altman, no con Musk.

La competencia global

Pero ¡sorpresa! En este culebrón no solo hay dos protagonistas con visiones políticas y empresariales enfrentadas. China, cual villano silencioso, entra en escena con DeepSeek, una apuesta por la IA abierta que, de paso, pone las cosas difíciles a los gigantes americanos (Google, Microsoft y la propia OpenAI). Y, para rematar, Europa, que hasta ahora solo se había preocupado de regular, organiza una cumbre en París y anuncia una inversión de 200.000 millones de euros para no quedarse atrás en la carrera. Como siempre, tarde, Europa, tarde.

China entró en escena con DeepSeek, una apuesta por la IA abierta que desafía a los gigantes de EE UU. Mientras tanto, Europa organiza una cumbre en París y anuncia una inversión de 200.000 millones de euros para no quedar atrás en la carrera

IA: más allá del juego de poder

Si has llegado hasta aquí pensando que esto es solo un circo de egos y billetes, déjame decirte que estás muy equivocado. Detrás de este sainete se esconde algo mucho más grande: la geopolítica del siglo XXI y, posiblemente, el mayor desafío al que se ha enfrentado la humanidad. Y sí, me temo que no necesariamente esté en buenas manos

La inteligencia artificial no es una broma. No es solo un chatbot que te ayuda a escribir o generar imágenes. Lo va a cambiar todo. Rectifico: ya lo está cambiando todo. El 99,9 % de la población es ajena a los últimos avances en el campo y la profunda transformación que se avecina en nuestra sociedad.

Los expertos, que antes predecían décadas o siglos para que la IA alcanzara la inteligencia humana, ahora hablan de años. Las mentes más brillantes del planeta están trabajando a contrarreloj para desarrollar sistemas cada vez más potentes. Estamos a las puertas de un momento en el que la IA podría superar nuestra capacidad para resolver problemas, innovar y, en última instancia, liderar el progreso.

Estamos a las puertas de un momento en el que la IA podría superar nuestra capacidad para resolver problemas, innovar y, en última instancia, liderar el progreso

¿Hacia dónde vamos?

¿Por qué tanto revuelo? Porque la IA tiene el potencial de solucionar los mayores desafíos de la humanidad en salud, energía, sostenibilidad y exploración espacial. No, ni los casi 8.000 millones de humanos con todo nuestro poder cognitivo podemos resolver los grandes problemas en los plazos que queremos. Sin embargo, también conlleva riesgos: la pérdida de control sobre sistemas más inteligentes que nosotros, la ampliación de la brecha social si queda en manos de unos pocos y el peligro de su uso malintencionado en guerra, vigilancia masiva o manipulación social.

Pero lo que subyace en este sainete es lo de siempre: dinero y poder.

Muchos tenemos el sueño de una IA abierta y accesible para todos. Irónicamente, China nos está haciendo un favor al desafiar a los gigantes estadounidense con modelos libres, permitiendo que los europeos y otros actores globales puedan utilizar estos desarrollos como trampolín para no perder el ritmo. Y para los usuarios finales, esto significa poder acceder a IA de alto nivel sin depender de las grandes corporaciones y sus intereses.

El modelo chino de IA abierta permitiría a Europa y otros actores globales acceder a estos avances y a los usuarios usar IA de alto rendimiento sin depender de las grandes corporaciones

La historia se repite

Siempre igual: una historia de egos desmedidos, intereses económicos y ombligos demasiado contemplados. Otra vez, estamos ansiosos por encender la hoguera sin preguntarnos si llevamos suficiente protector contra incendios. La tecnología es neutra, pero la estupidez humana no tiene freno. Y aquí estamos, repitiendo el mismo sainete, jugando con fuego y esperando un final distinto.

Para citar esta entrada

Blake, Michael: «Musk y Altman: sainete de titanes tecnológicos». El mito de Theuth 15/02/2025 

Es un articulo publicado previamente en SINC bajo licencia Creative Commons, 



miércoles, 17 de julio de 2024

Inteligencia Artificial en la Educación: Beneficios, Riesgos y Perspectivas Éticas para el Futuro

Borja García Haendler

Jefe de MRPC Asia y científico de datos CRO Asia Innovation AI Lab.

El uso de la inteligencia artificial (IA) en la educación ha generado mucho entusiasmo pero también ciertas preocupaciones. Voy a analizar, de manera muy resumida los beneficios y riesgos de esta tecnología, adoptando un enfoque reflexivo y ético, para tratar de anticipar lo que nos depara el futuro

Para empezar, y creo que uno de los elementos más importantes a destacar, es la capacidad que tiene la IA para personalizar el aprendizaje. Los sistemas de IA pueden analizar el rendimiento y las necesidades de los estudiantes, adaptando los contenidos y métodos de enseñanza a sus ritmos y estilos de aprendizaje. Esto no solo mejora la eficiencia del aprendizaje, sino que también aumenta la motivación y el compromiso de los estudiantes. Por ejemplo, un informe del Foro Económico Mundial menciona que la tecnología, incluyendo la IA, puede ayudar a los docentes a reorientar entre el 20% y el 30% de su tiempo hacia actividades que apoyen el aprendizaje de los estudiantes, en lugar de tareas administrativas rutinarias. Además, un estudio de Axon Park señala que el uso de sistemas de tutoría inteligentes basados en IA puede mejorar el rendimiento académico de los estudiantes en un 30% en algunas áreas específicas, como las matemáticas​​. 

















Sin embargo, esta personalización plantea desafíos éticos. Por ejemplo, hay que tener mucho cuidado para poder garantizar la equidad y evitar sesgos en los algoritmos. Las IA pueden perpetuar o incluso amplificar los sesgos existentes en los datos de entrenamiento, lo que podría perjudicar a ciertos grupos de estudiantes. En este aspecto, los desarrolladores y educadores deben trabajar juntos para crear sistemas transparentes y justos, sometiéndolos a evaluaciones constantes para identificar y corregir posibles sesgos. Esto también demuestra que la IA va a cambiar la manera de trabajar, pero aparecerán nuevos trabajos.

 



Otra ventaja, la IA puede aliviar a los docentes de tareas rutinarias, permitiéndoles centrarse en actividades más creativas y en la atención individualizada a los estudiantes. Las tareas administrativas, como la corrección de exámenes y la gestión de asistencia, pueden automatizarse, liberando tiempo para que los docentes se centren en el desarrollo de habilidades críticas y en la  resolución de problemas complejos.

No obstante, la implementación de IA en las aulas debe ser complementaria y no sustitutiva. La interacción humana sigue siendo fundamental para el desarrollo social y emocional de los estudiantes. Como señaló Seymour Papert, pionero en el uso de la tecnología en la educación, "la mejor manera de aprender es mediante la interacción con otros seres humanos, no solo con las máquinas".

Finalmente, la IA en la educación debe ser accesible para todos. La brecha digital sigue siendo un desafío significativo, especialmente en regiones desfavorecidas. Para que la IA tenga un impacto positivo global, es imprescindible desarrollar infraestructuras tecnológicas adecuadas y programas de formación que capaciten tanto a docentes como a estudiantes en el uso efectivo de estas herramientas.

En resumen, la IA tiene el potencial de transformar la educación, pero su implementación debe ser cuidadosa y ética. Es necesario un equilibrio entre la tecnología y la interacción humana, junto con un compromiso firme con la equidad y la inclusión. Solo así podremos aprovechar plenamente las ventajas de la IA en la educación y preparar a las futuras generaciones para un mundo cada vez más digitalizado.

lunes, 24 de junio de 2024

¿A qué edad puede tener un teléfono móvil una persona?

El notable efecto que tienen las redes sociales, junto con los teléfonos móviles que multiplican su impacto, ha despertado la atención de la opinión pública en muchos sectores; existe una seria preocupación, en general relacionada con la masiva difusión de noticias falsas, pero también con la polarización de la convivencia social y política, dada la facilidad que se tiene para dañar el prestigio de las personas y las dificultades que provocan para distinguir lo verdadero de lo falso. Este artículo de El País nos describe cómo todos estamos siendo víctimas de las redes sociales y algunos daños pueden ser irreparables.


Especial es la atención que ha recibido este tema en los medios educativos: incide en la enseñanza modificando prácticas tradicionales y también afecta a menores de edad, más vulnerables a las influencias de las redes sociales, tanto en el campo de los juegos como en el de las confrontaciones entre niños y adolescentes. La formación del espíritu crítico, el incremento del acoso escolar que va más allá de lo que ocurre en las aulas gracias a las redes y las dificultades de atención suponen nuevos retos educativos. Parece claro que niños y niñas desde la infancia y más en la adolescencida, pasan mucho tiempo utilizando sus móviles ylas consecuencias no son muy positivas.

Desde luego hay propuestas muy diversas, algunas radicales: desde prohibir los móviles en los colegios, algo que prácticamente ya se ha implantado en la mayor parte de los centros educativos de España, hasta dejar que sean las familias las que decidan, e incluso los propios adolescentes. La prohibición ya ha sido autorizada por el Consejo escolar del Estado y está siendo aplicada por muchos centros. Esto es algo que también se viene haciendo en muchos países, con polémica incluida

Una pregunta frecuente es:¿a qué edad debe darse el móvil a un niño? El debate sobre cuándo dar acceso al primer teléfono inteligente crece entre madres y padres, pero sin soluciones claras. No deja de ser una propuesta sensata retrasar el uso del móvil. Nadie duda de que debe estar prohibido el consumo de alcohol a los menores de 18 años,  del mismo modo que no pueden conducir un coche antes de esa edad. Prácticamente todo el mundo está de acuerdo con esas prohibiciones. Nadie plantea dudas al respecto, fundamentalmente porque expertos y no expertos consideran que tanto el alcohol como los coches pueden provocar daños graves y las personas menores de 18 años no tienen suficiente madurez para gestionar esos riesgos. Ahora bien, también las redes sociales pueden provocar daños graves.

El gobierno de España maneja ya un "anteproyecto de ley de protección de los menores en los entornos digitales, que obliga, entre las novedades más destacadas, a los fabricantes a incorporar por defecto un sistema de control parental en todos sus móviles, tablets, ordenadores de uso personal y televisores inteligentes".

Incluso se está trabajando bastante el proyecto de fabricar móviles especialmente diseñados para menores de edad en los que estarían accesibles algunas funciones, pero no todas. No será fácil, porque las multinacionales del sector son conscientes de que los menores son clientes muy provechosos pues son sensibles a la capacidad de manipulación que permiten los sofisticados recursos de las redes, manipulación más fácil todavía con los menores.

En todo caso, ocurra lo que ocurra, debemos ser conscientes de que no hay marcha atrás por el momento en la difusión masiva de los móviles. Prohibir suele ser una estrategia con poco recorrido y, sin negar que puedan, e  incluso deban, existir restricciones, está claro que hay que trabajar seriamente en una inserción sensata de los móviles y las redes sociales en el proceso de aprendizaje de los menores y de los adolescentes.

El M learning es una propuesta interesante y, en cierto sentido, esta página web, vinculada a una asignatura específica del Máster para la formación del profesorado de secundaria, parte precisamente de la constatación de que el mundo digital está ya aquí y hay que buscar formas de aprovechar sus ventajas en la educación formal, y también en la no formal y la informal. 

Si lo desea, puede volver a publicar este artículo, en forma impresa o digital. Pero le pedimos que cumpla estas instrucciones: por favor, no edite la pieza, asegúrese de que se la atribuye a su autor, a su institución de referencia (universidad o centro de investigación), y cite de este modo el artículo: García Moriyón, F. ¿A qué edad puede tener un teléfono móvil una persona? El Mito de Theuth 24/09/2023 


domingo, 24 de septiembre de 2023

El lado oscuro de las redes sociales

En esta primera entrada, encontramos una exposicion sobre el lado oscuro de las redes sociales., algo que tiene especial interés para valorar lo ha ocurrido con la manipulación y posterior difusión de imágenes dañinas para las personas, en este caso adolescentes.

Pablo Javier Piacente llamó la atención sobre un estudio que identificaba casi cincuenta consecuencias negativas concretas, relacionadas con aspectos sociales, psicológicos, físicos, económicos y que afectan la calidad de vida en general

Los investigadores agruparon los efectos negativos en seis temas:

  1. Coste del intercambio social: incluye tanto daños psicológicos, como depresión, ansiedad o celos, como otros costes, como pérdida de tiempo, energía y dinero.
  2. Contenidos molestos: incluye una amplia gama de contenidos que molestan, perturban o irritan, como los contenidos perturbadores o violentos o los contenidos sexuales u obscenos.
  3. Preocupación por la privacidad: incluye cualquier amenaza a la privacidad personal relacionada con el almacenamiento, la reutilización o el intercambio de información personal con terceros.
  4. Amenazas a la seguridad: se refiere a los perjuicios derivados del fraude o el engaño, como la suplantación de identidad o la ingeniería social.
  5. Ciberacoso: incluye cualquier abuso o acoso por parte de grupos o individuos, como mensajes abusivos, mentiras, acoso o difusión de rumores.
  6. Bajo rendimiento: se refiere al impacto negativo en el rendimiento laboral o académico.

El enorme crecimiento de las redes sociales, incluyendo las que han aparecido más tarde como Tik Tok en 2018, podemos afirmar que las redes sociales tienen una influencia muy notable en la sociedad globalizada en la que vivimos


Una peligrosa invasión

¿Cómo «escapar» en determinados momentos a su influencia para evitar el abuso en su utilización? No parece una tarea sencilla para muchas personas: en el caso de los adolescentes o de quienes sufren patologías psicosociales, no saber controlar su «invasión» en el tiempo y la vida individual puede derivar en peligrosos efectos negativos.

Según una nota de prensa, esto es precisamente lo constatado por los investigadores australianos en el nuevo estudio, publicado recientemente en la revista Journal of Global Information Management (JGIM).

Además de los impactos psicológicos y sociales, los especialistas verificaron consecuencias no deseadas de las redes sociales en otros campos. Identificaron un notable aumento en los problemas para mantener la privacidad, como así también un descenso en el rendimiento en tareas laborales o educativas e inconvenientes para acceder a las mismas, mayormente por el tiempo y la atención que «roban» las redes sociales.

En el mismo sentido, se advierten problemáticas económicas ligadas al fraude electrónico o al robo de información financiera mediante estas plataformas. A esto se suma el constante crecimiento del acoso cibernético, una práctica que consiste en molestar e intimidar a otras personas a través de las redes sociales y que incluso puede generar patologías como fobias sociales o depresión en personas previamente sanas.

Los «costos» de las redes sociales

Es así que los científicos denominaron a uno de los bloques en los que dividieron a los más de 40 efectos perjudiciales de las redes sociales como «costo de interacción social». La categoría expresa que existe una faceta nociva directamente relacionada al supuesto incremento de las interacciones sociales que generarían estas plataformas: en algunos casos, ese «costo» supone más soledad, ansiedad y el sacrificio del tiempo y la energía que previamente se dedicaban a otras tareas.

Un punto a destacar en la nueva investigación es que sus autores remarcaron la escasa producción de trabajos científicos relativos al impacto negativo de las redes sociales en el área de las tecnologías de la información. Al mismo tiempo que advirtieron una sobreabundancia de estudios psicosociales, invitaron a los especialistas en tecnología a abordar esta clase de problemáticas inherentes al uso de las herramientas informáticas.

Luego de poner a prueba sus conclusiones mediante entrevistas con otros expertos en diferentes campos del conocimiento, los investigadores sostuvieron que la identificación de estos efectos nocivos de las redes sociales puede ser el punto de partida para diseñar estrategias que logren mitigarlos.

Por ejemplo, creen que un mayor compromiso de los tecnólogos, ingenieros e informáticos puede derivar en nuevas aplicaciones, características de diseño y otras soluciones que logren reducir las consecuencias nocivas de las redes sociales.

Referencias

The Dark Side of Using Online Social Networks: A Review of Individuals’ Negative Experiences. Layla Boroon, Babak Abedin and Eila Erfani. Journal of Global Information Management (JGIM) (2021).DOI:https://doi.org/10.4018/JGIM.20211101.oa34

Tiene gran interés un estudio realizado por la fundación Mapfre que hace un detallado análisis del impacto que están teniendo las redes, centrado en un tema específico: Los comentarios negativos en las redes sociales. Madrid, 2022


Si lo desea, puede volver a publicar este artículo, en forma impresa o digital. Pero le pedimos que cumpla estas instrucciones: por favor, no edite la pieza, asegúrese de que se la atribuye a su autor, a su institución de referencia (universidad o centro de investigación), y cite de este modo el artículo: García Moriyón, F. El lado oscuro de las redes sociales. El Mito de Theuth 24/09/2023



miércoles, 17 de mayo de 2023

ChatGPT: ética e inteligencia (sin conciencia)

Javier Morales Mediano y Diana Loyola Chávez

Una participación del 49 % en la compañía OpenAI, propietaria de ChatGPT, ha sido recientemente adquirida por Microsoft por 10 000 millones de dólares.

ChatGPT es una plataforma de inteligencia artificial con un modelo de procesamiento del lenguaje natural (NLP, por sus siglas en inglés) que genera texto coherente y natural en respuesta a una variedad de consultas. Para ello, el modelo ha sido entrenado con un gran corpus de texto. Esto permite su utilización para tareas como la generación de texto, la respuesta a preguntas y el procesamiento del lenguaje natural en general.

Uso académico: problemas de integridad y originalidad

El uso de modelos de lenguaje como ChatGPT para trabajos académicos plantea una serie de preocupaciones éticas. Aunque pueden hacer que las tareas de investigación y escritura sean más eficientes, permitiendo a los académicos enfocarse en aspectos de su trabajo más complejos y de mayor valor añadido, surgen dudas sobre la integridad y originalidad del trabajo que se está produciendo.

Una de las principales preocupaciones éticas con el uso de modelos de lenguaje para el trabajo académico es el problema del plagio. Al utilizar un modelo para generar texto, se vuelve mucho más fácil para las personas presentar el trabajo de otros como propio. Simplemente parafraseando de manera automática, es decir, diciendo lo mismo con otras palabras y otro orden sintáctico, el mismo trabajo puede hacerse pasar por otro.

Esto puede llevar a una devaluación del arduo trabajo y dedicación que se requiere para producir trabajos de investigación. Lo que a su vez también puede socavar la credibilidad de la comunidad académica en su conjunto.

La propia detección del plagio es mucho más difícil. Esta dificultad se produce porque el texto generado por el modelo probablemente será diferente de la fuente original. Como mencionaba el investigador Daniel González Padilla, los modelos de lenguaje generativo como ChatGPT pueden ser utilizados para generar textos plagiados cuyos contenidos son siempre distintos a los originales y, por tanto, difíciles de detectar.

Falta de originalidad

Otra preocupación ética es que el uso de modelos de lenguaje para el trabajo académico podría conducir a una homogeneización de las ideas y los puntos de vista.

Si las personas se basan en estos modelos, es posible que el texto generado sea menos diverso que el producido únicamente mediante esfuerzo humano. Esto podría conducir a un estancamiento de las ideas y una falta de pensamiento crítico. Un tipo de pensamiento especialmente necesario dentro de la comunidad académica.

Falta de contexto e implicaciones

Además, los modelos de lenguaje no están diseñados para proporcionar un contexto completo para la información que genera, como el propio ChatGPT reconoce. El modelo genera texto basado en la entrada y sus datos de entrenamiento, pero no tiene la capacidad de entender las implicaciones éticas, culturales o políticas de la información proporcionada.

Esta falta de reflexión podría conducir a la propagación de información falsa, sesgos o incluso discriminación. Todas estas preocupaciones éticas deben ser tenidas en cuenta antes de utilizar estos modelos para el trabajo académico.

También sería conveniente desarrollar directrices y mejores prácticas para garantizar la integridad y originalidad del trabajo que se está produciendo.


Inteligencia con conciencia

El filósofo Juan Arana afirma que la conciencia es y seguirá siendo un misterio inabordable para la ciencia. La conciencia moral nos hace libres para la acción moral y trasciende la experiencia meramente cognitiva.

Si los nuevos y sofisticados avances llegarán a generar conciencia es algo tan incierto como resolver el enigma de por qué los humanos la tenemos, continúa Arana. Así, advierte de la necesidad de detenernos a pensar sobre los avances científicos y sus consecuencias. Para ello, apela precisamente a la conciencia, afirmando que es una facultad irreductible a los sistemas de información técnicos. Los seres humanos tendremos que pensar sobre nosotros mismos y nuestras producciones en nuestro quehacer profesional y personal.

¿Una ayuda?

Como quizá todavía no se haya notado, este artículo ha sido escrito con la ayuda de ChatGPT. La finalidad ha sido doble: probar el modelo e invitar al lector a plantearse algunas cuestiones.

Inicialmente, utilizamos ChatGPT lanzándole la pregunta sobre cuáles serían los dilemas éticos que su propia utilización podría acarrear. Enseguida nos dio la idea de los tres problemas presentados.

Luego quisimos profundizar en uno de ellos y nos llevó a uno de los autores citados. Por último, tomamos sus propias respuestas como referencias en algunas partes del artículo.

Podemos decir que la prueba fue un éxito, pero no pudimos dejar de hacernos las siguientes cuestiones que creemos trascienden el mundo académico: ¿debemos acudir al uso de estas aplicaciones para lograr satisfacer una cada vez mayor exigencia de nuestro trabajo? ¿Cuáles serían los límites de este uso en caso de ser aceptado?

Inteligencia con o sin conciencia

En palabras del filósofo François Vallaeys, debemos preguntarnos cuál es la combinación idónea entre inteligencia sin conciencia (como sería ChatGPT) y la inteligencia con conciencia (la nuestra). Sin querer posicionarnos respecto a las cuestiones planteadas, sí es necesaria la reflexión sobre su uso, utilidad y consecuencias.

Según Vallaeys, no podemos ignorar las herramientas que nos ayudan en la simplificación de algunas tareas. Pero su uso se debe completar con la experiencia personal y empática del autor del trabajo. Es esta aportación la que permitirá profundizar en el diálogo y la reflexión crítica.

Se trata de buscar equilibrios y posibles soluciones entre todos. Respuestas que vayan más allá de salidas simplistas. Sólo así salvaremos lo diferente, lo asombroso, lo no trivial y verdadero de la condición humana.

Este artículo fue publicado por The Conversation  y lo reproducimos aquí con su autorización.

Si lo desea, puede volver a publicar este artículo, en forma impresa o digital. Pero le pedimos que cumpla estas instrucciones: por favor, no edite la pieza, asegúrese de que se la atribuye a su autor, a su institución de referencia (universidad o centro de investigación), y mencione que el artículo fue publicado en El Mito de Theuth con autorizacion de The Conversation