Estados Unidos y Europa tienen posiciones opuestas para regular la IA. Hay una tercera vía: Japón

Estados Unidos y Europa tienen posiciones opuestas para regular la IA. Hay una tercera vía: Japón

Suele ocurrir que la regulación en el campo de la tecnología va varios pasos por detrás. Precisamente eso es lo que se está intentando evitar en el campo de la inteligencia artificial, donde la explosión de ChatGPT ha hecho que se advierta de los riesgos que pueden tener estos modelos de IA generativa. Varios países están ya poniéndose en marcha para regular la IA, pero por ahora no parece fácil llegar a un consenso.

EEUU. Según Bloomberg, el gobierno de Joe Biden parece estar dividido acerca de cómo regular la IA. Mientras que algunos miembros del gobierno apoyan las estrictas medidas que la Unión Europea ha planteado para productos como ChatGPT o Dall-E 2. Otros creen que una regulación tan fuerte puede poner a Estados Unidos en desventaja.

Recordando las redes sociales. Gina Raimondo, Secretaria de Comercio en EEUU, comparaba estos avances en IA con lo que ocurrió con las redes sociales. Con los años parece claro que debería haberse restringido su desarrollo, pero es que ahora "hay mucho más en juego", explicaba en el reciente evento Trade and Technology Council que EEUU y la UE han celebrado en Suecia. Según Raimondo "el hecho de que puedas hacerlo no significa que debas hacerlo".

Europa y su AI Act. Mientras, en Europa ya se está perfilando esa AI Act que para algunos es demasiado restrictiva. Entre otras cosas, forzaría a los desarrolladores de estas soluciones a documentar si han usado material con copyright para entrenar sus modelos y hacer un seguimiento detallado de cómo se está usando esa información. La UE será probablemente el primero en restringir el uso y desarrollo de la IA, pero sigue sin quedar claro cuáles serán los términos finales de esa regulación.

Vestager avisa. Margethe Vestager, vicepresidenta ejecutiva de la Comisión Europea, explicaba en ese encuentro cómo "podemos impulsar algo que hará que todos nos sintamos mucho más cómodos con el hecho de que la IA generativa ya está en el mundo y se está desarrollando a velocidades asombrosas".

La regulación ya va tarde. A pesar de los esfuerzos de la UE por acelerar en este ámbito, la AI Act aún sigue en proceso legislativo. Vestager explicaba que "en el mejor de los casos tomará efecto en dos años y medio o tres años. Eso, obviamente, es demasiado tarde. Necesitamos actuar ya". Para la mandataria europea es necesario que haya acuerdos específicos y no solo declaraciones genéricas.

¿Está Europa yendo contra EEUU? En Bloomberg añaden otro punto importante: la regulación europea en materia tecnológica afecta muy especialmente —y lo hemos visto con las multas multimillonarias— a las empresas norteamericanas. Esa industria ha criticado a Biden por no apoyarla más, y con esta nueva regulación podría repetirse esa forma de coartar el desarrollo tecnológico de EEUU al limitar su alcance, al menos en el viejo continente.

Altman ya avisó: si la UE sigue por ese camino, peligro. El CEO de OpenAI realizó una gira por varios países europeos y se reunió con los reguladores para hablar sobre el crítico tema de la regulación. Su opinión sobre la AI Act de la Unión Europea parece ser clara: la ve demasiado restrictiva, y de hecho comentó que "trataremos de cumplir [con la regulación], pero si no podemos dejaremos de operar [en la UE]".

Japón. El gobierno japonés plantea una regulación más laxa, y su objetivo es según Japan News promover el uso de IA generativa y fortalecer las capacidades de Japón para desarrollar este tipo de modelos. Eso sí, solucionando problemas como la violación del copyright o la exposición de datos confidenciales.

Alianza con EEUU. El borrador de la llamada "Integrated Innovation Strategy for 2023" revela cómo esta tecnología tiene el potencial de mejorar la productividad y solucionar problemas sociales. Además plantea un plan para establecer el llamado Global Startup Campus, un centro de I+D conjunto de Japón y EEUU que promocione la "ciencia abierta" utilizando la información de instituciones académicas y de investigación para beneficiar a la sociedad.

G7. Este grupo que engloba a las grandes potencias mundiales acordó hace unos días la creación de un foro intergubernamental llamado el "Hiroshima AI Process" con un objetivo: debatir sobre el auge de las herramientas de inteligencia artificial y plantear una regulación conjunta para esta tecnología. Se espera que de ese debate se planteen estándares internacionales para lograr que la IA sea "digna de confianza" y que esté "alineada con nuestros valores democráticos comunes", como explicaban los responsables de esa iniciativa.

Imagen | Xataka con Midjourney

En Xataka | Hemos probado el nuevo buscador de Google con IA. La duda es si realmente supone una revolución

-
La noticia Estados Unidos y Europa tienen posiciones opuestas para regular la IA. Hay una tercera vía: Japón fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Hemos probado el nuevo buscador de Google con IA. La duda es si realmente supone una revolución

Hemos probado el nuevo buscador de Google con IA. La duda es si realmente supone una revolución

Google necesitaba ponerse las pilas. La firma le vio las orejas al lobo tras la aparición de ChatGPT, y activó su particular código rojo en diciembre de 2022. La reacción, no obstante, ha sido mucho más templada de lo que cabría esperar.

La firma ha ido con pies de plomo en el lanzamiento de novedades en este ámbito. Google Bard, su competidor directo a ChatGPT y a Bing Chat con ChatGPT, por fin está disponible en 180 países —pero no en España ni la UE— tras haber sido anunciado a principios de febrero hace ya cuatro meses con algún que otro desliz

Mientras, en Google I/O 2023 conocimos a PaLM 2, el competidor de Google para GPT-4. El impacto de este modelo de IA es aún una incógnita, pero se supone que aporta sus prestaciones tanto a Bard como a la nueva experiencia de búsqueda generativa de Google.

Esa fue la otra gran novedad de aquel evento. En Google plantearon al fin una singular revolución para su producto estrella, el buscador. Lo han llamado Search Generative Experience (SGE), y trata de conservar lo mejor del buscador de Google y combinarlo con esa prometedora tecnología de la IA generativa de texto.

La firma no puede arriesgar aquí: el daño reputacional sería tremendo si lo que presenta no está al nivel del buscador de toda la vida. Precisamente por eso el despliegue está siendo también muy cauteloso, y la empresa ha ido invitando a los interesados que iban solicitando acceso.

Nosotros hemos conseguido ya disfrutar de dicho acceso y hemos podido comprobar el funcionamiento de Google SGE durante unas pocas horas. Lo hemos hecho, como en el caso de Google Bard, gracias al uso de una VPN que permite simular que nos encontramos en EEUU, donde está restringido el uso de esa experiencia. 

¿Con qué nos hemos encontrado? Eso es precisamente lo que hemos querido explicar en este texto que representa un primer acercamiento a lo que teóricamente puede ser el futuro buscador de Google. Vamos allá.

Avisos: privacidad "made in Google" y cuidado, que esto puede fallar

Lo primero que Google hace cuando activamos la nueva Search Generative Experience (SGE) es mostrar un aviso de privacidad. En él se destaca cómo al usar este buscador Google "recolecta datos de uso consistentes con nuestra Política de Privacidad".

Captura De Pantalla 2023 05 31 A Las 9 47 26

En un párrafo en negrita Google advierte de que "por favor no se incluya información sensible (por ejemplo, confidencial) o personal que pueda usarse para identificarte a ti o a otros en tus interacciones con las características de SGE".

También se clara cómo esos datos que introducimos en SGE podrán acabar siendo "leídos, procesados o anotados por evaluadores humanos para ayudar con la calidad y mejora de nuestros productos".

Hay otro mensaje de advertencia importante, pero en este caso no relacionado con la privacidad, sino con la propia fiabilidad del nuevo motor de búsqueda. Como explican en Google:

"La IA Generativa es una tecnología experimental y sólo tiene fines informativos. La calidad, precisión y disponibilidad pueden variar. No confíe en las respuestas de la IA Generativa como consejo médico, legal, financiero u otro consejo profesional. Las respuestas no constituyen un tratamiento o diagnóstico médico".

Es importante esa apreciación de Google que la empresa por ejemplo no hace en su motor de búsqueda convencional aun cuando en él puede ocurrir lo mismo: los resultados de búsqueda del buscador tradicional no son ni mucho menos garantía de que podamos seguir consejos médicos legales o financieros como los que se muestran en esos enlaces.

Aquí Google prefiere prevenir, y ciertamente tiene sentido: la forma en la que funciona el buscador "conversacional" hace que esas respuestas parezcan redactadas por alguien muy seguro de sí mismo y muy convincente, así que el tono engaña

Como sucede con ChatGPT o Bing Chat con ChatGPT, esta SGE se muestra confiado, pero no siempre dará datos precisos o incluso reales, y en temas sensibles —como recomendaciones médicas, legales, o financieras, por ejemplo— hay que tener muy claro que no debemos fiarnos al 100% de las respuestas dadas.

Buscando que es gerundio

Una vez aceptamos esos términos y activamos la casilla de SGE para habilitar esa opción, podemos comenzar a buscar con esa nueva experiencia del buscador de Google. Es importante destacar que el buscador con IA solo funciona si preguntamos en inglés: al preguntar en español solo muestra la interfaz tradicional con los resultados como lista de enlaces.

Captura De Pantalla 2023 05 31 A Las 11 31 59

La interfaz del buscador cambia ligeramente. La página principal del buscador muestra casi los mismos elementos, pero nos invita en la parte baja a probar las búsquedas con resultados generados por IA. Al desplegar esa opción aparecen algunos ejemplos que podremos ir rotando con otros adicionales, pero si no queremos utilizar de momento esa opción, podremos introducir directamente cualquier búsqueda como siempre lo habíamos hecho.

Captura De Pantalla 2023 05 31 A Las 11 34 08

A partir de ahí las cosas se ponen interesantes. Los primeros resultados de búsqueda que se presentan tienen el formato tradicional de Google: una lista de enlaces con una pequeña descripción y, según el caso, algunas búsquedas internas de ese sitio, como ocurre al buscar "Xataka". Hay unna diferencia importante con el buscador tradicional: los enlaces aparecen en negro, y no en azul, como hasta ahora ocurría. 

Captura De Pantalla 2023 05 31 A Las 11 35 42

Si pulsamos la opción "Generate" marcada con un fondo morado, podremos comenzar a ver cómo se comporta la experiencia de búsqueda generativa. El motor de búsqueda tardará unos instantes mientras muestra el mensaje "Generating" y una ligera animación, pero momentos después se mostrará la respuesta que el motor considera que buscamos en una sección superior que desplaza el resto de resultados —y toda la interfaz de búsqueda tradicional— hacia abajo.

En esa misma sección generada por IA aparecen diversos enlaces. A la derecha surgen las tarjetas con enlaces a diversas fuentes relacionadas con la búsqueda —en nuestro ejemplo aparecían Xataka Móvil, Xataka y la página de Xataka en Crunchbase, entre otras—, pero además el motor da pie a añadir una nueva pregunta relacionada con esa búsqueda ("Ask a follow up") o a consultar la información en otros enlaces de interés como Wikipedia.

Captura De Pantalla 2023 05 31 A Las 12 41 54

Podremos además valorar la calidad de la respuesta con los iconos de pulgar hacia arriba o hacia abajo, e incluso dar preferencia a esas tarjetas para que se muestren de forma más prominente en lugar de la descripción generada por la IA con los llamados "Knowledge Panels", que ponen algo más de relieve a las fuentes reales del contenido con pequeñas miniaturas.

Captura De Pantalla 2023 05 31 A Las 11 39 51

Más interesante no obstante es el nuevo botón que aparece debajo de la caja de introducción de la búsqueda. En ella se puede leer la palabra "Converse" ("Conversar"), y al pulsarla desaparecen los resultados tradicionales y la interfaz nos invita a charlar sobre el tema sobre el que habíamos preguntado... o sobre cualquier otro.

World

La información de Google no es del todo correcta, como se puede ver al comparar los datos que presenta con la tabla real que hemos podido obtener en Wikipedia.

Quisimos comprobar el comportamiento de SGE con alguna de las preguntas que le hicimos a Bard y a ChatGPT en nuestras pruebas de hace unas semanas. En concreto, quisimos que nos creara una lista con los 10 países que más títulos y segundos puestos han logrado en los Mundiales de fútbol. El resultado fue decente pero no del todo preciso, y aquí una vez más se demuestra que nos diga lo que nos digan estos motores de IA generativos, habrá que revisar la respuesta y dudar de ella.

Movil

También quisimos comprobar cómo de útil era por ejemplo a la hora de buscar el mejor móvil fotográfico de 2023. Aquí comienza a notarse esa vocación del buscador por plantear la compra del dispositivo: junto a la imagen del móvil y una breve descripción de su capacidad fotográfica se muestra información sobre dónde poder comprarlo y a qué precio. Curiosamente marca varios modelos como "buenos para jugar", y la información relevante al apartado fotográfico, que es el que buscábamos, es quizás algo escasa.

Compara

Si nos estuviéramos intentando decidir entre el Pixel 7 Pro y el iPhone 14 Pro Max, podemos plantearle a SGE que nos los compare, lo que genera un resultado también algo escaso y poco claro.

Se ofrecen las ya mencionadas tarjetas con posibles enlaces que nos ayuden a saber cuál es el más adecuado, pero aquí Google no consigue el objetivo de responder a la pregunta de cuál puede ser mejor para nosotros ni de orientarla demasiado. 

Para ello, eso sí, aporta en la parte inferior preguntas adicionales "¿Es el Google Pixel mejor que Apple?", "¿Qué hace diferente el iPhone 14 pro Max?" que podemos usar para tratar de averiguar algo más.

Si pinchamos en cualquiera de las dos imágenes no hay información que nos ayude a entender mejor qué ofrece cada dispositivo. No al menos de primeras, porque aparece una especie de ventana pop-up en la búsqueda con una ficha del teléfono y, en primer lugar, las tiendas donde podemos encontrarlo y a qué precio. Vender  es lo que parece primar aquí —suponemos que con comisión para Google—. No hay de momento resultados aparentemente promocionados, 

Captura De Pantalla 2023 05 31 A Las 11 22 28

En cualquier momento podremos pinchar en el botón "Reset" en la parte inferior de la interfaz para cambiar de tema, algo que hará que vayamos a una página inicial en la que se nos proponen alternativas de preguntas —todas en inglés— que nos ayudan a tomar contacto con este motor de búsqueda conversacional.

Captura De Pantalla 2023 05 31 A Las 12 15 38

Aquí hay todo tipo de consultas posibles, pero en general nuesta impresión es que las respuestas generativas de Google, al menos por ahora, se quedan cortas. Al preguntar por ejemplo por las últimas noticias en inteligencia artificial, la respuesta generativa da titulares sin enlaces asociados, aunque luego muestre tarjetas con enlaces a algunos medios con resultados relacionados.

Captura De Pantalla 2023 05 31 A Las 12 19 29

Aquí Bing Chat con ChatGPT tampoco se comporta mucho mejor, aunque lo parezca. Al pedirle las 10 principales noticias recientes sobre IA da una lista con titulares interesantes, como Google, pero sus citas y referencias son siempre la misma (en este caso, enlace a la sección de IA de The Guardian). 

En ambos casos la búsqueda orgánica tradicional con resultados de búsqueda (SERP) resuelve mucho mejor, sobre todo si accedemos a Google Noticias o a Bing Noticias. Si quieres informarte, los buscadores conversacionales no aportan demasiado de momento.

Primeras impresiones: mucho margen de mejora

Tras estas primeras horas con Google y su nueva Experiencia de Búsqueda Generativa (SGE), lo cierto es que en la mayoría de los casos las respuestas que plantea el motor suelen ser demasiado escuetas. Eso sirve para ciertas preguntas y búsquedas, pero en la mayoría de nuestras pruebas ha sido insuficiente.

Bolas

Son amarillas. Estaba claro.

De hecho el buscador tradicional suele comportarse mejor a la hora de lograr que ni siquiera tengas que salir de Google para encontrar la respuesta. La compañía de Mountain View lleva años trabajando en lograr contestar a tus preguntas con el primer resultado y extractos de contenidos de terceros.

El resultado de eso es un buscador casi mágico —y demasiado dominante— que entiende lo imposible, como saber que cuando buscamos "Aguanchu bi fri" sale el vídeo que queríamos de Queen. Aquí ese papel de "adivino" de Google no es ni mucho menos tan patente, y el motor generativo se ciñe más a la búsqueda sin intentar ir mucho más allá.

Plantea nuevas búsquedas para continuar la inicial, pero eso hace que en cierto modo se nos obligue a conversar cuando lo que queremos es, simplemente, encontrar la respuesta a nuestra pregunta, no estar charlando una y otra vez hasta dar con lo que queríamos. Es preferible recorrer la lista de enlaces de la página de resultados tradicional y visitarla para averiguar la respuesta.

¿Será suficiente la respuesta generativa en algún momento? Ese debería ser el objetivo de Google: evitar que tengamos que recorrer la lista de enlaces tradicional. Lo ha logrado en muchos casos con el buscador tradicional, pero la búsqueda generativa, aunque prometedora, tiene mucho margen de mejora.

Search

Hay aquí una situación contradictoria: Google afirma seguir queriendo llevar tráfico a los creadores de contenido, pero en las respuestas generativas no hay apenas forma de que esa interacción se produzca. Están las tarjetas (Snippets) y esos "Knowledge Panels", sí, pero no hay citas o referencias al texto generado (algo que sí nos gusta que haga Bing Chat).

Eso plantea un problema: ¿de dónde ha sacado Google esa información? No queda claro, y eso es peligroso. Cuando en el buscador tradicional Google da respuesta a nuestra pregunta con un extracto de un contenido de terceros, el enlace a ese contenido aparece justo debajo, lo que nos permite visitar esa URL para ampliar la información si lo deseamos. Aquí el origen y la fuente del texto generado por la IA queda oculto, y uno simplemente puede suponer que es una respuesta adecuada construida a partir de uno o varios sitios web en los que había información (teóricamente) fidedigna.

¿Es esta la revolución que esperábamos? De momento, desde luego, no. En mi caso, la SGE de Google resulta curiosa como experimento, pero me resulta mucho más natural buscar como siempre en Google. Si quiero conversar, las interfaces de ChatGPT (o de Bing Chat) me parecen mucho más llamativas por ahora a la hora de dar respuesta a mis preguntas de formas distintas a como lo hacía Google.

Esto, por supuesto, es solo el principio. Habrá que dar tiempo al tiempo.

En Xataka | 5.000 "tokens" de mi blog están siendo usados para entrenar una IA. No he dado mi permiso

-
La noticia Hemos probado el nuevo buscador de Google con IA. La duda es si realmente supone una revolución fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Ingenuity, el helicóptero de la NASA en Marte, pasó seis agónicos días en silencio. Hasta que despertó

Ingenuity, el helicóptero de la NASA en Marte, pasó seis agónicos días en silencio. Hasta que despertó

Cada día que Ingenuity sigue ahí es como un es un pequeño milagro. El helicóptero que la NASA envió a Marte como singular compañero del rover Perseverance era, sobre todo, un experimento. Los científicos de la agencia espacial no esperaban que hiciese más de tres vuelos. Lleva diez veces más, ha sobrevivido al terrorífico invierno de Marte y ha seguido volando a pesar de todo. Estos días nos ha dado un buen susto.

Volando voy. En los vuelos 46 y 47 llevaron a Ingenuity a la llamada Región Tenby, una zona "científicamente importante" en la que el helicóptero servía como de costumbre de avanzadilla para el rover Perseverance. Las imágenes capturadas "fueron desafortunadamente de poco valor práctico", pero en el vuelo 48 la cosa cambió y Ingenuity sobrevoló otras zonas llamadas Castell Henllys y Foel Drygarn. Esas imágenes sí fueron de gran valor, y permitían preparar el trayecto de Perseverance durante dos semanas.

Captura De Pantalla 2023 05 30 A Las 11 03 25

El helicóptero estaba situado en el punto verde, y el rover con uno rojo en los lugares donde la comunicación no era posible. El punto amarillo muestra la posición de Perseverance justo antes del vuelo 50 de Ingenuity. Fuente: NASA/JPL-Caltech.

Ingenuity no responde. Tras ese éxito, los ingenieros de la NASA hicieron —tras un par de intentos fallidos— un nuevo vuelo, el 49, para que Ingenuity se acercara al muro sur del cráter Belva, pero algo pasó tras lograr descargar las imágenes capturadas por el helicóptero. De repente Ingenuity dejó de responder. ¿Qué estaba pasando?

Seis soles agónicos. Los días solares marcianos, llamados "soles" sin más, son algo más largos que los días de la Tierra: duran 24 horas, 39 minutos y 35,244 segundos. Y sol tras sol, Ingenuity no daba señal. Ya habían vivido problemas para "despertar" a Ingenuity en la fecha de la misión Sol 685, así que no estaban del todo alarmados. Ahora que se cumplía Sol 755, la idea era ir probando contactar con él de forma metódica. El problema no era solo de Ingenuity, sino de Perseverance.

Sombra comunicativa. El rover se había trasladado a estudiar una zona al sudeste de Castell Henllys, y eso provocó que estuviera mal situado para poder comunicarse con Ingenuity. La NASA fue ordenando que se trasladase a Foel Drygarn, más cerca del helicóptero, pero seguía sin haber señal. Ahí empezaron los agobios, y en la agencia espacial no tenían claro que pudieran recuperar la señal.

Casi siete días en silencio.  Por fin en Sol 761, casi una semana después de perder la señal, el equipo de comunicaciones recibió un ACK (confirmación de señal recibida por radio). Lo mismo ocurrió al día siguiente, y por fin descubrieron el problema, que eran dos. El primero, que la topología entre el rover y el helicóptero complicaba que las señales de radio que se usan entre esos vehículos se transmitieran. El segundo, que la antena HBS del Ingenuity está situada en su parte inferior derecha, algo que puede dificultar las comunicaciones en esas condiciones.

Voy pitando. Tras concluir su análisis de Foel Drygarn, la NASA mandó el rover Perseverance hacia el punto del último aterrizaje de Perseverance. Se arriesgaron a que Perseverance se pasara y accediera a terreno no pre-explorado por el helicóptero, pero todo salió bien.

Vuelo 50 con récord incluido. Los ingenieros pudieron enviar el nuevo plan de vuelo a Ingenuity, que acabó realizando su vuelo 50 con éxito, cubriendo una distancia de 300 metros y llegando a ascender a una altitud de 18 metros, la máxima hasta la fecha. La mañana siguiente, Sol 763, la NASA recibió la telemetría de vuelo completa, lo que significaba que una vez más Ingenuity estaba vivito y coleando. El historial de vuelo muestra de hecho un vuelo 51, realizado el pasado 22 de abril, pero desde entonces no ha habido nuevos trayectos.

El escondite seguirá (afortunadamente). Aún así, en la NASA explicaban que aunque ahora llega el verano marciano, los paneles solares de Ingenuity tienen bastante polvo y eso hará que el helicóptero entrará en modo de ahorro de energía a menudo. "Esto significa que, para disgusto de su equipo, aún no hemos terminado de jugar al escondite con el pequeño helicóptero", concluían. Un juego, eso sí, que por ahora siempre está teniendo final feliz.

En Xataka | El robot Mars InSight se despide antes de morir. Perseverance e Ingenuity no pueden hacer nada por él

-
La noticia Ingenuity, el helicóptero de la NASA en Marte, pasó seis agónicos días en silencio. Hasta que despertó fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Captcha se ha propuesto ponérnoslo más difícil todavía: generando puzzles mediante IA

Captcha se ha propuesto ponérnoslo más difícil todavía: generando puzzles mediante IA

La tecnología Captcha lleva más de una década acompañándonos cuando interactuamos en la web. Este método permite esquivar a los bots y, de paso, entrenar a sistemas de reconocimiento de texto o imágenes. Ahora ha aparecido una nueva y singular versión.

¿Qué es un Yoko? En Vice cuentan cómo recientemente la gente que quería usar Discord se encontró con un desafío. Un nuevo Captcha les pedía que identificaran imágenes que contuvieran un "Yoko". Al mostrar la imagen de referencia aparecía un objeto que era una especie de mezcla entre un yo-yo y un caracol. Si no te suena ese objeto, es normal. No existe.

Creado por IA. Resulta que el sistema hCaptcha —que ya conocíamos— utilizado en estos "acertijos de autenticación" había usado un objeto creado por un modelo de inteligencia artificial generativa. Lo singular no es solo eso: el resto de imágenes que aparecían en la matriz de este hCaptcha también habían sido generadas por IA, así que en esencia nos enfrentaba a un conjunto de imágenes de objetos que en realidad no existían.

Discord se explica. En declaraciones a ese medio, los responsables de Discord explicaban que "la tecnología que genera estos mensajes es propiedad de nuestro socio externo y Discord no determina directamente lo que se presenta a los usuarios". El sistema hCaptcha genera cientos de millones de usuarios, y reconocían que la aparición del objeto llamado "Yoko" había formado parte de una "breve prueba que vio un pequeño número de usuarios", pero lo extraño de ese objeto hizo que algunos compartieran esa experiencia en redes como Twitter.

Cómo funciona hCaptcha. El sistema hCaptcha nació en 2017, pero ha evolucionado en estos años y según sus creadores ahora está totalmente enfocado en ofrecer una plataforma de seguridad. Sus peticiones, indican, se generan para clientes que buscan respuestas de alta calidad de usuarios humanos "para sus necesidades de aprendizaje automático".

Un Captcha que entrena IA. Todo ello significa que los captchas que se muestran ayudan a entrenar sistemas de aprendizaje automático y redes generativas antagónicas. Se prevé que la aparición de este tipo de matrices de imágenes generadas por IA —algunas de ellas, de objetos no existentes— se produzcan con cada vez mayor frecuencia.

Críticas. Sin embargo, las críticas sobre este tipo de imágenes son numerosas entre usuarios que simplemente no han logrado "acertar" con el sistema porque la propia IA debe esperar una respuesta que los seres humanos no proporcionamos. Un usuario de Reddit se quehaba de cómo en un Captcha que pedía que identificásemos a un robot, no quedaba claro cuál de esas imágenes lo representaba (como se puede ver en la imagen.

Imagen | Xataka con Midjourney

En Xataka | El test de Turing ya no sirve: siete pruebas alternativas para comprobar que una IA no es un humano

-
La noticia Captcha se ha propuesto ponérnoslo más difícil todavía: generando puzzles mediante IA fue publicada originalmente en Xataka por Javier Pastor .

Leer más

JPMorgan está creando su propio ChatGPT: uno que te dará recomendaciones de inversión

JPMorgan está creando su propio ChatGPT: uno que te dará recomendaciones de inversión

Las posibilidades de ChatGPT y de los grandes modelos de lenguaje parecen ilimitadas, y hay muchas empresas que están explorando esas opciones en todo tipo de escenarios. Uno de los más llamativos es el financiero. ¿Puede una máquina ser útil en el mundo de las inversiones? ¿Puede lograr que un cliente gane más dinero con su dinero? JPMorgan cree que sí.

IndexGPT. Así se llama el chatbot que está siendo desarrollado por este gigante financiero. Así lo señala CNBC, que indica cómo ese nombre se reveló en la solicitud de registro de una marca registrada con ese nombre que recientemente realizó JPMorgan. Este chatbot hará uso del "software de computación en la nube usando inteligencia artificial" para, segú dicha solicitud, "analizar y seleccionar valores adaptados a las necesidades de los clientes".

El primero de muchos. La decisión estratégica de JPMorgan es hasta cierto punto sorprendente para una entidad tan relevante como esta, pero los analistas creen que eso demuestra precisamente el potencial de herramientas como ChatGPT en este segmento.

Un lanzamiento seguro. Josh Gerben, abogado especializado en marcas registradas, explicaba que "las empresas como JPMorgan no solicitan marcas registradas por diversión". Esa petición deja claro que su objetivo es usar esa marca para ese producto: tienen un plazo de tres años para lanzar IndexGPT tras la aprobación de esa marca, que puede llegar aproximadamente en un año.

La intención es clara. Aunque en este tipo de solicitudes las empresas tratan de proteger sus intenciones y son vagas en la descripción de esas marcas, en este caso JPMorgan ha sido explícita. En el documento se indica que IndexGPT hace uso de la misma tecnología de inteligencia artificial que ChatGPT, y que el banco prepara el uso de la inteligencia artificial basada en modelos GPT (Generative Pre-trained Transformer).

¿Asesores financieros en peligro? Hace años que los asesores financieros temen la llegada de algoritmos lo suficientemente buenos como reemplazarlos total o parcialmente. De momento su labor sigue siendo muy importante, pero poco a poco hemos ido viendo cómo algunos experimentos en este ámbito han sido prometedores. Un experimento reciente mostró como las recomendaciones de ChatGPT permitieron crear un fondo de inversión virtual que se comportó mucho mejor que la media de otros importantes fondos financieros.

A por todas. En la plantilla de JPMorgan hay 1.500 científicos de datos e ingenieros especializados en aprendizaje profundo que están evaluando "ciertos casos de uso" que pueden plantearse con la tecnología GPT, afirmó Lori Beer, la máxima responsable de tecnología en esta entidad. Tienen claro el potencial de estas herramientas, afirmó, "y nos comprometemos a explorar todas las formas en que pueden aportar valor a la empresa". 

JPMorgan lleva tiempo apostando por la IA. No es el primer acercamiento de esta entidad a esta tecnología: recientemente anunciaban un sistema de IA para lograr descifrar los mensajes de la Reserva Federal. Anteriormente hizo algo aún más llamativo y anunció un sistema de inteligencia artificial que dejaba obsoleto a Don Draper: estaba dedicado a crear textos publicitarios para sus productos.

En Xataka | JP Morgan rescata al First Republic Bank y da por cerrada la crisis bancaria apagando la bomba de las hipotecas jumbo

-
La noticia JPMorgan está creando su propio ChatGPT: uno que te dará recomendaciones de inversión fue publicada originalmente en Xataka por Javier Pastor .

Leer más

WhatsApp prepara una opción definitiva para ganarle la batalla a Telegram: hola, nombres de usuario

WhatsApp prepara una opción definitiva para ganarle la batalla a Telegram: hola, nombres de usuario

WhatsApp fue como un regalo caído del cielo cuando llegó a nuestras vidas. Aquel servicio nos liberaba del yugo de los SMS y planteaba una forma de comunicación que nos ha conquistado por completo. En España lo usan nueve de cada diez personas, algo que explica que las llamadas de voz tradicionales hayan "muerto" en cierto sentido.

Pero WhatsApp no era perfecto entonces y tampoco lo es ahora. Una de sus condenas es la de aquel requisito original de ligar una cuenta de WhatsApp con un número de teléfono. Esa relación indivisible podría romperse —o más bien camuflarse— ahora con la llegada de una característica que desde luego sería fantástica: los nombres de usuario.

La opción ha aparecido en la versión beta de WhatsApp para Android (v2.23.11.15) que ya han podido probar en WaBetaInfo. Al hacerlo han descubierto esa nueva opción que permite elegir a los usuarios un nombre de usuario asociado a su cuenta, algo que plantea al fin la posibilidad de que nuestra cuenta no esté ligada de forma tan visible —aunque seguirá estándolo en esencia— a nuestro número de teléfono.

Whats

La propuesta de WhatsApp aún no está disponible de forma pública, pero aquí la idea es exactamente la misma que Telegram plantea desde hace años: que cada usuario tenga su nombre de usuario al estilo Twitter, precedido por la arroba.

Como indican nuestros compañeros de Xataka Móvil, los nombres de usuario sí están disponibles para perfiles de empresas y también lo estarán próximamente en los canales, pero hasta ahora los perfiles de usuario individuales estaban ligados al número de teléfono del móvil en el que instalábamos WhatsApp.

Muchas ventajas, pero sobre todo una: privacidad

Poder usar nombres de usuario en WhatsApp plantea mejoras importantes en el servicio. Una de las más evidentes es esa flexibilidad y personalización del servicio, que podremos asociar a nuestro nombre o un alias como los que usamos en Twitter. Nos identificamos mucho más con ese nombre de usuario que con un número de teléfono, desde luego.

Esos nombres de usuario también facilitan que compartamos ese nombre de usuario con otras personas y que memoricemos mejor esas cuentas de usuario. La sincronización de la cuenta en múltiples dispositivos es también más fácil y potente con este sistema, y aunque WhatsApp tiene el tradicional sistema de vinculación basado en códigos QR, este tipo de característica probablemente haría que usar WhatsApp en otros dispositivos aparte del móvil pudiera ser más sencillo.

La característica también elimina barreras geográficas, ya que una vez más al no depender de número de móvil, la comunicación con usuarios de otros países, con números de teléfono distintos por los prefijos nacionales y locales, se simplifica.

Sin embargo, la mayor ventaja que plantea este sistema es la de la privacidad: con los nombres de usuario podremos comunicarnos con otras personas sin necesidad de compartir nuestro número de teléfono.

Esto es muy llamativo no ya para entablar conversaciones con conocidos, sino para hacerlo con gente con la que lo hacemos ocasionalmente pero que preferiríamos que no pudiera acceder a nuestro número de teléfono.

Queda por ver si WhatsApp efectivamente activa esta característica, pero sin duda se tratará de una opción muy interesante que además eliminaría de raíz esa ventaja que hasta ahora tenía Telegram.

En Xataka | WhatsApp es una app cada vez más compleja. En el camino ha perdido lo que más valorábamos: la simplicidad

-
La noticia WhatsApp prepara una opción definitiva para ganarle la batalla a Telegram: hola, nombres de usuario fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Opera renueva su navegador y presenta Aria, su chatbot de IA basado en ChatGPT: lo hemos probado

Opera renueva su navegador y presenta Aria, su chatbot de IA basado en ChatGPT: lo hemos probado

En abril Opera presentaba su nuevo navegador, Opera One, y lo hacía con un elegante diseño modular que apostaba por el tema oscuro y por una "navegación flexible". Ese lanzamiento ha sido reforzado hoy con la presentación de una característica a la que apuntaban ya hace meses y que es aún más llamativa: la integración de Aria, su propio asistente de inteligencia artificial integrado en el navegador.

Un chatbot de IA gratuito y siempre disponible. La nueva versión del navegador de Opera se renueva con este chatbot, llamado Aria, que como indican en el blog oficial de la compañía está basado en la tecnología GPT de OpenAI. Este asistente está siempre disponible en la barra lateral izquierda del navegador y podremos usarlo de forma gratuita. Esta implementación es una evolución del desarrollo inicial de Opera en este ámbito que se presentó el pasado mes de marzo.

Navegación con la ayuda de ChatGPT. El  navegador con IA integrada de Opera está diseñado para potenciar la  creatividad y productividad de los usuarios al incorporar el poder de la  inteligencia artificial a las funcionalidades propias del explorador.  Aria, basado en la infraestructura "Composer" propia de Opera, ofrece funciones avanzadas como resultados  actualizados como ya hacía Bing Chat en Microsoft Edge, aunque no incluye referencias o citas a sus fuentes.

Un chatbot que crecerá en prestaciones. La  infraestructura de Opera “Composer” es según la empresa fácilmente adaptable, y posibilitará que Aria se conecte a diferentes modelos de IA. En el futuro, Aria podrá  ampliarse aún más para integrar nuevas funciones, como servicios de  búsqueda, gracias a los socios de Opera.

¿Cómo funciona? Basta con pinchar en el botón de Aria en la barra lateral izquierda para que aparezca un panel lateral en el que podremos comenzar a realizar preguntas de cualquier tipo. En dichas respuestas podremos incluso pedir que nos muestre enlaces. Las respuestas suelen ser concisas y, como siempre, aparentemente coherentes.

Registro y privacidad. Antes de poder usar Aria es necesario iniciar sesión con nuestra cuenta de Opera o crear una si no la teníamos. En Opera aclaran que al usar Aria, los textos que introducimos son procesados por Opera de forma que puedan proporcionarse respuestas relevantes. Aún así, aseguran, no comparte ningún dato sobre el usuario con OpenAI. Los chats se guardan durante 30 días como máximo y tendremos acceso a ellos en todo momento, pero también podremos borrarlos en cualquier momento.

Captura De Pantalla 2023 05 24 A Las 16 07 48

Primeras impresiones. Ya hemos instalado el nuevo navegador de Opera con Aria y las primeras impresiones son agridulces: es capaz de hablar y chatear en español, y aunque da información adecuada en algunos casos, Aria también es propensa a inventar datos o a contestar de forma errónea.

Captura De Pantalla 2023 05 24 A Las 16 38 28

Una de cal, otra de arena. Contestó por ejemplo bastante bien a la pregunta de qué era Xataka, pero también le pedimos información sobre la última versión de Opera y nos indicó que la última era una versión de 2011 con el motor de renderizado Opera Presto 2.10. Al tratar de corregirle y preguntarle por Opera One y Aria, el chatbot dio error y pidió que cambiásemos de tema.

El que avisa no es traidor. Los propios responsables de Opera avisan de que las aplicaciones de inteligencia artificial como Aria "tienen limitaciones". Así, podríamos ver contenido dañino o subjetivo e información falsa, imprecisa o engañosa.

Aria tiene margen de mejora. Las prestaciones de Aria están de momento siguiendo la estela de las que por ejemplo plantea Bing en Microsoft Edge. Además de ofrecer información actualizada, citas y referencias, Bing se ha comportado de forma más precisa en nuestras pruebas —quizás porque está basado en GPT-4, no está claro en qué versión está basado Aria—, pero además será pronto capaz de interactuar con el contenido que estamos visitando, algo que de momento Aria no puede hacer en Opera.

En Xataka | Windows 11 pone más difícil que nunca cambiar el navegador por defecto: en Firefox, Chrome y Opera están que trinan

-
La noticia Opera renueva su navegador y presenta Aria, su chatbot de IA basado en ChatGPT: lo hemos probado fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Un fake del Pentágono en llamas generado por IA generó el caos. El culpable no fue la IA: fue Twitter

Un fake del Pentágono en llamas generado por IA generó el caos. El culpable no fue la IA: fue Twitter

El pasado lunes por la mañana apareció un preocupante mensaje en Twitter. Según (entre otras) la cuenta verificada de Bloomberg Feed, había habido una explosión en el Pentágono. Bajo el llamativo titular aparecía una foto con una gran columna de humo negro muy cerca de un edificio que tenía una construcción similar a la de otros edificios del Pentágono. Era todo mentira: esa cuenta no tiene relación alguna con Bloomberg aunque su nombre tratara de indicar lo contrario, y Twitter la suspendió poco después de publicar esa falsa noticia.

Deepfake peligroso. El mensaje publicado por esa cuenta verificada se comenzó a compartir de forma viral y vertiginosa. Aunque ningún gran medio de noticias en EEUU lo difundió, si lo hicieron muchos usuarios e incluso la organización de medios rusa Russia Today (RT). El impacto de esa noticia fue importante en el ámbito financiero.

Caída repentina en bolsa. En pocos minutos se produjeron bajadas en varios índices bursátiles. El S&P 500 cayó un 0,3%, mientras que el índice Dow Jones también cayó sensiblemente en apenas 4 minutos. Ambos se recuperaron con la misma rapidez tras revelarse que la noticia era falsa.

Daños leves. A pesar de esas repentinas caídas, el daño real parece haber sido mínimo. El Cuerpo de Bomberos del Condado de Arlington (donde está situado el Pentágono) rápidamente desmintió la noticia en un tuit. Uno de sus integrantes, el capitán Nate Hiner, explicó que “simplemente mirando la imagen, eso no es el Pentágono. No tengo ni idea de qué edificio es. No hay un edificio como ese en Arlington”.

Era todo mentira.Una inspección detallada de la foto dejaba claro que se trataba de un deepfake, una imagen falsa creada digitalmente. Aparentemente podría haber sido creada por algún modelo de IA generativa, pero como explicaban los expertos, en realidad el problema no era ese. Así lo indicaba Renée DiResta, directora de investigación del Observatorio de Internet de Stanford y experta en cómo circula la desinformación, que lo indicaba en The Washington Post:

“No se trata de un problema de IA en sí. Cualquiera con experiencia en Photoshop podría haber hecho esa imagen; irónicamente, probablemente podría haberla hecho mejor. Pero es una muestra de cómo las señales que ayudan a la gente a decidir si la información sobre noticias de última hora es digna de confianza en Twitter se han vuelto inútiles, del mismo modo que la capacidad de crear irrealidad de alta resolución se ha puesto al alcance de todo el mundo”.

De quién es la culpa. No es de la IA, desde luego. Una de las claves está en Twitter, que tras los despidos masivos se ha quedado sin los equipos que moderaban y censuraban en el ámbito de la desinformación. También es un problema que ahora cualquiera pueda conseguir una cuenta verificada pagando la suscripción de Twitter Blue de 8 dólares al mes y confirmando con su teléfono móvil. Eso ya ha provocado bromas pesadas recientemente.

Cuidado con retuitear. La culpa la tiene la forma en la que funciona esa viralidad de estas imágenes: si uno no comprueba si el tuit es real, el problema se agranda. Como indican en WaPo, el problema aquí es que otras cuentas verificadas como OSINTdefender retuitó el mensaje a sus 336.000 seguidores.

Más tarde borraron el mensaje —ya se había visto al menos 730.000 veces—, pero explicaron que vieron la noticia en Discord por parte de alguien llamado "Walter Bloomberg" y la imagen de la explosión provenía de alguien que la había publicado en Facebook y que afirmaba trabajar en Arlington. Esa página de Facebook fue borrada posteriormente.

Si no tienes check azul, no te creo (tanto). Otras cuentas con miles de seguidores —sean o no bots— republicaron la noticia, y algunas de ellas tenían la marca verificada. La Agencia de Los Cuerpos de Protección del Pentágono que precisamente protege este organismo no tiene esa marca de verificada y Twitter no le ha concedido el check gris que muestra que es una institución verificada.

Este organismo retuiteó el mensaje del Cuerpo de Bomberos de Arlington que precisamente desmentía los hechos. Ese tuit tiene ahora mismo más de 117.000 reproducciones, mucho menos que los originales en los que se difundía la falsa noticia, y que replicaron multitud de cuentas. Desde entonces Twitter ha marcado varios de los tuits que difundieron la información falsa y ha añadido un recuadro con el texto "Mantente informado" avisando de que probablemente ese mensaje es falso.

Un viejo problema que probablemente se haga más frecuente. Aunque en este caso la imagen podía engañar a primera vista, detectar que era falsa era relativamente sencillo. Eso es cada vez más complicado con los modelos de IA generativa y probablemente sea casi imposible detectar que una imagen es falsa a corto plazo, pero el problema en realidad no será ese: los usuarios y sobre todo los medios y organismos oficiales serán los que tendrán que estar muy atentos para no ayudar a que esas informaciones falsas se propaguen. Aquí plataformas como Twitter harían bien en dedicar más personal este problema, sobre todo ahora que con estos modelos de IA probablemente aparezca con mucha mayor frecuencia. Mientras, eso sí, tratan de aparecer sistemas que validen o al menos etiqueten esos contenidos generados por IA.

En Xataka | Verificar información de internet en tiempos de las ‘fake news’: un problema que ni Facebook ni Google van a resolver

-
La noticia Un fake del Pentágono en llamas generado por IA generó el caos. El culpable no fue la IA: fue Twitter fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Ya hay profesores utilizando ChatGPT para descubrir si sus alumnos utilizan ChatGPT. No funciona así

Ya hay profesores utilizando ChatGPT para descubrir si sus alumnos utilizan ChatGPT. No funciona así

En estos meses hemos oído y leído como ChatGPT plantea el fin de los deberes de toda la vida. Los alumnos pueden utilizar la herramienta para redactar trabajos y completar tareas impuestas en clase, y eso preocupa cada vez más en el entorno académico. Lo que ha ocurrido estos días es distinto, porque quien ha usado ChatGPT no han sido los alumnos, sino un profesor. El resultado, por cierto, ha sido desastroso.

Voy a corregir vuestros trabajos con ChatGPT. Jared Mumm, profesor de la Universidad de Texas, informó recientemente a sus estudiantes de que había usado ChatGPT para comprobar si sus trabajos para su asignatura habían sido escritos por una máquina. En un mensaje de Reddit que se ha hecho viral el novio de una de las alumnas de ese curso publicaba el aviso del profesor, que avusaba de que ChatGPT "me dirá si el programa generó el contenido [de vuestros trabajos]".

"Si habéis usado IA, estáis suspensos". Como indica The Register, en el mensaje Mumm explicaba cómo haría la prueba con los tres trabajos finales de sus alumnos y pasaría esa prueba dos veces. Si ChatGPT detectaba que los textos habían sido generados por este modelo, "suspendería ese trabajo". Tras hacerlo, comunicó a sus alumnos que "voy a calificar a todos en esta clase con una X". Varios de sus estudiantes afirmaron que después les dijo a varios de ellos que "no voy a calificar mierda [generada por] IA". Esa letra "X" significa que el curso no se ha completado, y también sirve como medida temporal para investigar el problema.

ChatGPT no sirve para detectar copias. Este profesor fue introduciendo los textos de los alumnos en ChatGPT y luego preguntó a este modelo de IA si ese texto había sido escrito por el propio ChatGPT. El problema es que ChatGPT no está hecho para detectar contenido generado por IA (ni por sí mismo). Hay sistemas que tratan de detectar contenidos generados por IA como Winston AI o Content at Scale, pero ChatGPT no puede hacerlo. Un estudio reciente de la Universidad de Maryland revela que detectar texto generado por una IA es muy difícil y en el futuro probablemente sea imposible.

Investigación en marcha. Algunos estudiantes ya han sido calificados correctamente y han sido "absueltos" de la acusación de haber copiado, mientras que otros han preferido enviar de nuevo sus ensayos para ser calificados. Al menos uno de esos alumnos ha admitido haber usado ChatGPT para sus trabajos. La institución ha publicado un comunicado en el que revelan que "a ningún alumno se le ha suspendido ni se le ha impedido graduarse por este problema". También cometaban cómo el incidente se está investigando de cara a desarrollar medidas para evitar "el mal uso de la tecnología de IA en clase".

Situación (más o menos) resuelta. En una actualización del mensaje original se explica que "la situación está prácticamente resuelta: la universidad ha admitido a sus estudiantes que sus notas no debían haber sido suspendidas. Era algo fuera del protocolo y un uso inapropiado de ChatGPT".

Pero intentarán detectar contenidos generados por IA. Aún así en el comunicado de la universidad se especificaba cómo en esta institución se está trabajando para "adoptar herramientas de detección de IA y otros recursos para gestionar la intersección de la tecnología de IA en la educación superior. El uso de la IA en trabajos de clase es un problema cambiante que confronta con todas las instituciones académicas".

Imagen | Xataka con Midjourney

En Xataka | El identificador de IA de OpenAI tiene un problema: ellos ponen el zorro y ellos vigilan las gallinas

-
La noticia Ya hay profesores utilizando ChatGPT para descubrir si sus alumnos utilizan ChatGPT. No funciona así fue publicada originalmente en Xataka por Javier Pastor .

Leer más

Ya hay profesores utilizando ChatGPT para descubrir si sus alumnos utilizan ChatGPT. No funciona así

Ya hay profesores utilizando ChatGPT para descubrir si sus alumnos utilizan ChatGPT. No funciona así

En estos meses hemos oído y leído como ChatGPT plantea el fin de los deberes de toda la vida. Los alumnos pueden utilizar la herramienta para redactar trabajos y completar tareas impuestas en clase, y eso preocupa cada vez más en el entorno académico. Lo que ha ocurrido estos días es distinto, porque quien ha usado ChatGPT no han sido los alumnos, sino un profesor. El resultado, por cierto, ha sido desastroso.

Voy a corregir vuestros trabajos con ChatGPT. Jared Mumm, profesor de la Universidad de Texas, informó recientemente a sus estudiantes de que había usado ChatGPT para comprobar si sus trabajos para su asignatura habían sido escritos por una máquina. En un mensaje de Reddit que se ha hecho viral el novio de una de las alumnas de ese curso publicaba el aviso del profesor, que avusaba de que ChatGPT "me dirá si el programa generó el contenido [de vuestros trabajos]".

"Si habéis usado IA, estáis suspensos". Como indica The Register, en el mensaje Mumm explicaba cómo haría la prueba con los tres trabajos finales de sus alumnos y pasaría esa prueba dos veces. Si ChatGPT detectaba que los textos habían sido generados por este modelo, "suspendería ese trabajo". Tras hacerlo, comunicó a sus alumnos que "voy a calificar a todos en esta clase con una X". Varios de sus estudiantes afirmaron que después les dijo a varios de ellos que "no voy a calificar mierda [generada por] IA". Esa letra "X" significa que el curso no se ha completado, y también sirve como medida temporal para investigar el problema.

ChatGPT no sirve para detectar copias. Este profesor fue introduciendo los textos de los alumnos en ChatGPT y luego preguntó a este modelo de IA si ese texto había sido escrito por el propio ChatGPT. El problema es que ChatGPT no está hecho para detectar contenido generado por IA (ni por sí mismo). Hay sistemas que tratan de detectar contenidos generados por IA como Winston AI o Content at Scale, pero ChatGPT no puede hacerlo. Un estudio reciente de la Universidad de Maryland revela que detectar texto generado por una IA es muy difícil y en el futuro probablemente sea imposible.

Investigación en marcha. Algunos estudiantes ya han sido calificados correctamente y han sido "absueltos" de la acusación de haber copiado, mientras que otros han preferido enviar de nuevo sus ensayos para ser calificados. Al menos uno de esos alumnos ha admitido haber usado ChatGPT para sus trabajos. La institución ha publicado un comunicado en el que revelan que "a ningún alumno se le ha suspendido ni se le ha impedido graduarse por este problema". También cometaban cómo el incidente se está investigando de cara a desarrollar medidas para evitar "el mal uso de la tecnología de IA en clase".

Situación (más o menos) resuelta. En una actualización del mensaje original se explica que "la situación está prácticamente resuelta: la universidad ha admitido a sus estudiantes que sus notas no debían haber sido suspendidas. Era algo fuera del protocolo y un uso inapropiado de ChatGPT".

Pero intentarán detectar contenidos generados por IA. Aún así en el comunicado de la universidad se especificaba cómo en esta institución se está trabajando para "adoptar herramientas de detección de IA y otros recursos para gestionar la intersección de la tecnología de IA en la educación superior. El uso de la IA en trabajos de clase es un problema cambiante que confronta con todas las instituciones académicas".

Imagen | Xataka con Midjourney

En Xataka | El identificador de IA de OpenAI tiene un problema: ellos ponen el zorro y ellos vigilan las gallinas

-
La noticia Ya hay profesores utilizando ChatGPT para descubrir si sus alumnos utilizan ChatGPT. No funciona así fue publicada originalmente en Xataka por Javier Pastor .

Leer más