Filtrado el borrador de la regulación europea sobre IA: primeras impresiones de tres expertos en la materia

Filtrado el borrador de la regulación europea sobre IA: primeras impresiones de tres expertos en la materia

La Unión Europea lleva tiempo trabajando sobre la regulación en materia de Inteligencia Artificial. El objetivo de dicho documento es crear una especie de normativa tipo GDPR, pero para esta tecnología, marcando los usos y límites en los que se puede utilizar.

Además, es un documento muy importante porque las iniciativas nacionales, como la de España, tendrán que atenerse a este marco jurídico.

Ante la filtración de un borrador muy avanzado de esta regulación En Xataka hemos preguntado a tres expertos en Inteligencia Artificial (Andrés Torrubia, cofundador del Instituto de Inteligencia Artificial, Richard Benjamin, autor de “El mito del algoritmo” y “A Data-Driven Company” ,y David Pereira, Responsable de Data & Intelligence para everis y del Centro de Excelencia global de IA para el grupo NTT DATA) sobre sus primeras impresiones de este documento y esto es lo que nos han contado.

Qué se quiere legislar

Básicamente, podríamos decir que este documento pretende sentar las bases de la legislación sobre la Inteligencia Artificial en la UE. Por un lado, se pretende establecer un marco legal que permita la innovación pero que, al mismo tiempo, garantice la seguridad y proteja los derechos humanos.

En este sentido, la Unión Europea siempre ha defendido que quiere aprovechar las oportunidades que esta tecnología presenta, pero dando respuesta a algunos de los desafíos que están sobre la mesa.

Con esta regulación, se pretende establecer un marco de confianza en la tecnología y en su potencial impacto, tanto en los ciudadanos a nivel individual como en la sociedad y economía.

Buen punto de partida

Richard Benjamin cree que esta regulación “es lo que estábamos esperando: una aproximación basada en riesgo, donde los sistemas de IA de alto riesgo tienen que cumplir algunos requisitos”.

Este experto valora que hay muchos más detalles sobre la implementación de la idea general, algo que faltaba en el “White paper”, publicado antes.

Para David Pereira, “el hecho de que exista ya este borrador es una buena noticia, porque significa que hay avance”. Según su visión, “la duda en forma de ausencia de regulación, pero a la vez expectativa de tenerla, y que esta sea muy rígida, está haciendo que la inversión privada en IA en Europa, la adopción por parte de las empresas esté por debajo de USA o China. Puede que la regulación que analizamos hoy no sea la mejor, pero al menos empieza a concretar derechos de los ciudadanos y obligaciones de las empresas fabricantes de soluciones de IA y de empresas/ instituciones públicas que las implementan”, expone.

Usos de alto riesgo

Los tres expertos destacan que el documento refleje y se detenga en lo que se consideran “usos de alto riesgo” de la inteligencia artificial.

Foto Andres

La regulación considera usos de alto riesgo a aspectos tan amplios que van desde “una larga lista desde sistemas biométricos usados en espacios públicos, sistemas usados para enviar ayuda médica o bomberos; usados para determinar acceso a estudios, empleo, crédito, beneficios sociales, verificación de información relativa a ofensas criminales o limitación de libertad de una persona; sistemas de predicción de crímenes o altercados de cara a asignar recursos de vigilancia; visados; y asistencia a jueces”. Eso sí, “están explícitamente excluidos de la regulación los usos militares”.

Sin embargo, una de las cosas que más ha llamado la atención a Torrubia son los criterios por los que “se actualizarán los usos de alto riesgo”. Entre estos parámetros está el impacto adverso en las oportunidades financieras, educativas o profesionales de las personas.

“Por un impacto adverso en las oportunidades profesionales los artesanos que cardaban la lana en el año 1821 destruyeron las máquinas que introducía la revolución industrial para hacer esa tarea”, rememora. “Ese fue el primer evento del movimiento ludita en España. Mi esperanza es que esa línea no sea la puerta del Neoludismo en Bruselas”.

Cambio de posición

Para Benjamin, un asunto importante es que ya no se habla de sectores y aplicaciones de alto riesgo, sino de sistemas de IA de alto riesgo. “Esto es bueno porque evita el posible lobby de sectores para no ser considerados alto riesgo. Implícitamente se pueden detectar algunos sectores como AAPP y justicia”, detalla. Como Torrubia, también destaca que los sistemas de IA para defensa están fuera del alcance de esta regulación. “Y en general, hay muchas excepciones cuando la seguridad nacional está en juego”.

Según este borrador, habría dos tipos de uso de alto riesgo: sistemas que requieren una evaluación por terceros (como reconocimiento con biométrica como reconocimiento facial en espacios públicos o sistemas de IA con una función de “safety” para otros productos); y sistemas que requieren una autoevaluación por la propia organización.

Por todo ello, Richard Benjamin cree que es positivo que no se regule por sectores y que los sistemas de alto riesgo son limitados a casos concretos. “Esto permite seguir desarrollar la tecnología, pero con atención cuando se prevé impacto”. Además, considera “curioso que el sector Salud no está como alto riesgo (solo está incluido sistemas médicos de emergencia), aunque implícitamente está por el posible impacto (muerte)”.

Evitar la manipulación

En este sentido, David Pereira valora muy positivamente que se destaque la prohibición de sistemas “que manipulen a personas en su detrimento, se dediquen a la vigilancia indiscriminada o bien establezcan sistemas de social scoring que puedan tener consecuencias negativas y/o desproporcionadas en contextos distintos a los que originaron los datos con los que se ha construido dicho scoring”.

Foto David

Para él, es “muy relevante” que haya un listado de lo que la UE considera “sistema de alto riesgo”, y que incluyen “muchos de los sistemas que más debate y quejas desde una perspectiva ética han generado”: desde sistemas de riesgo de crédito, aplicaciones de identificación biométrica, gestión de infraestructuras, médicas, acceso a justicia, educación….

“Es interesante la interpretación que se hace de riesgo, al estar íntimamente relacionado con aspectos como el riesgo de exclusión financiera o educativa, de justicia, y que por tanto se vincula con el compromiso del documento con cómo se va a conformar la sociedades en los próximos años ante el progreso tecnológico para garantizar los derechos de los individuos”, reflexiona.

Las sanciones previstas

En este punto, coincide con Andrés Torrubia en lo que a la proporcionalidad de las sanciones respecto a otras tecnologías o formas de manipulación. “Entendiendo la necesidad de regular y limitar los sistemas pero, ¿significa esto que vamos a multar de forma equivalente a empresas que promueven la adición al juego online a través de la publicidad con el correspondiente perjuicio para los ciudadanos?”, se cuestiona.

Según Andrés Torrubia, a lo largo de sus 81 páginas, el documento pone énfasis en lo que considera “usos de alto riesgo de la Inteligencia Artificial y cuantifica multas por infracciones: hasta 20 millones de euros o el 4% ingresos anuales (la que sea superior)”.

Cabe señalar que este documento considera Inteligencia Artificial de forma tan amplia que en incluye “por supuesto a los sistemas de aprendizaje automático o aprendizaje profundo o de refuerzo que acaparan portadas de prensa (GPT3, Alphafold, AlphaGo, etc.)” pero también “sistemas mucho más convencionales que mucha gente clasificaría simplemente como "software": sistemas lógicos, sistemas expertos, estadísticos hasta métodos de búsqueda y optimización”. Esto, por tanto, conlleva que todos ellos también estén sometidos a la regulación.

Usos prohibidos

La regulación también enumera algunos casos en los que está prohibido emplear la IA. Para Torrubia, la definición es bastante amplia: "Sistemas de inteligencia artificial diseñados o utilizados de una manera que manipulen el comportamiento, las opiniones o las decisiones humanas a través de arquitecturas de elección u otros elementos de interfaz de usuario, para que una persona se comporte, forme una opinión o tome una decisión en su detrimento."

Foto Richard

Por eso, considera que “habrá que ver hasta qué punto toda la publicidad o motores de recomendación en los que se basa Google, Facebook, etc. que por recientemente ha sido acusada de promover desinformación no estaría retratada en ese párrafo”.

Además, expresa sus dudas respecto a que se permita a autoridades públicas realizar estos usos prohibidos “siempre que la ley los permita y orientados a la seguridad pública”. “Hay muchas voces alertando de que el potencial de abuso de esta excepción es tremendo (escenario China)”, añade.

Eso sí, este experto se alegra de que en el documento haya compromisos respecto a cuestiones como la prohibición del uso de reconocimiento facial, la obligatoriedad de la IA explicable, o la imposición de aspectos que, motivados por exigencias de la privacidad, podían reducir prestaciones de sistemas de IA. “Se acepta pseudo-anonimización (en lugar de anonimización completa) como compromiso de cara a medir y mitigar sesgos”, lo que, en su opinión, es algo positivo.

Mecanismos de feedback y transparencia

Pereira también valora positivamente que se garantizaría la existencia de mecanismos de feedback y transparencia para sistemas de alto riesgo, “de cara a poder gestionar impactos sociales negativos, en particular sesgos”.

Sin embargo, cree que falta desarrollar más en detalle “qué sucede con los propios datos de entrenamiento y las plataformas empleadas para ellas; es decir, cómo se garantiza que no se van a reutilizar para otros fines que sí pueden tener impacto negativo aunque no sean considerados de alto riesgo, teniendo en cuenta que la trazabilidad del sistema productivo va a requerir que tanto datos de entrenamiento como plataforma de entrenamiento se conserven en el tiempo”.

En este sentido, cree que uno de los principales retos para las organizaciones que empleen IA para procesos de alto riesgo va a ser el “asegurar mecanismos específicos de supervisión humana, identificando a las personas concretas que tengan el conocimiento y la autoridad necesarios para, una vez identificado un riesgo mediante la interpretación de las salidas de la IA, intervenir el sistema y “desconectar” la toma de decisiones del algoritmo”.

Bots y deep fakes

Respecto a la transparencia, este borrador también regula aspectos que han sido ampliamente discutidos, sobre todo el de los asistentes virtuales y deepfakescada vez más indiferenciables de personas reales. En este sentido, el artículo 41 de la regulación obliga a "los sistemas que interactúen con personas humanas o que manipulen imágenes, audio o vídeo para parecerse a personas reales a informar de ello”, detalla David Pereira.

Algo que también destaca Torrubia. "Aunque un chatbot llegue a ser tan convincente que pueda parecer una persona, el chatbot deberá identificarse como un chatbot", remarca.

Según este documento, Irene, el bot de Renfe, estaría haciendo mal las cosas mientras que DulcineIA, un chatbot para ayudar con el Quijote, lo estaría haciendo adecuadamente.

Bandera

Efectos sobre la innovación, startups y PYMES

Torrubia también cree que para una gran multinacional este tipo de regulaciones “pueden ser incluso beneficiosas porque pueden desarrollar sistemas fuera de la Unión Europea y luego adaptarlos técnica y/o regulatoriamente (lo que seguramente harán empresas con los centros de desarrollo de IA que ya están en China, EEUU y Reino Unido; o incluso en lugares de Europa como Suiza que no forman parte de la Unión Europea, y por tanto no están sujetas a regulaciones como GDPR o esta futura regulación de IA)”.

Sin embargo, cree que esto puede generar más barreras a empresas que están empezando y “da ventaja a empresas establecidas con muchos más recursos legales. Para una start-up o una PYME o los inversores potenciales de éstas, el número al que hace referencia la multa (20 millones de euros) es suficientemente disuasoria como para plantearse que estar en Europa pueda incluso ser una desventaja".

Sandbox e innovación

Para evitarlo, el documento hace mención al concepto de sandboxes (entornos de prueba donde proyectos pilotos operan bajo estrecha vigilancia del regulador) y donde "supuestamente puede fomentarse la innovación y dar prioridad a las startups", explica Torrubia. Su opinión como emprendedor es qye "lo último que quieres ver es estar en un sitio donde la IA está entrando en la categoría de tecnología sospechosa y acceder al propio sandbox supone burocracia en sí misma”.

Sin embargo, para Richard Benjamin, dado que la regulación aplica a toda la cadena de valor (diseño, productor, distribuidor, proveedor, operador, etc.) “pero el responsable final es el quien lo pone en el mercado” sí se fomenta la innovación a través de regulatory sandboxes donde es posible experimentar.

Algo en lo que coincide Pereira, quien tilda de “interesante” precisamente el párrafo en el que esto se detalla. “Si esto sirve como base a la existencia de sandboxes regulatorios, creo que se trata de una muy buena noticia para combinar innovación y regulación”, expone, aunque añade que “habrá que ver cómo se desarrolla”.

Torrubia considera que esta regulación no supone un impedimento a la innovación y la competitividad europea en IA. Pero, insiste, “si a la montaña de problemas que conlleva crear una startup que YA tienen los emprendedores europeos (parten de una peor casilla de salida, por ejemplo en financiación, fragmentación de mercado, etc), le añadimos el laberinto legal y regulatorio, corremos el riesgo de espantar esa necesaria inversión en IA, y en España al menos... montaremos bares”.

Algo que se eche en falta

¿Qué echa en falta en la regulación? “No queda claro qué pasa con sistemas ya en producción que, según esta regulación, son de alto riesgo”, como los algoritmos trading en las bolsas; así como especificar “cuánto tiempo hay para cumplir con la regulación a partir de su entrada en vigor” (con GDPR había 2 años), señala Richard Benjamin.

Por eso, y aunque como punto de partida lo ve suficiente (“el listado de alto riesgo se revisa cada 6 meses”), considera que va a requerir una inversión por parte de organizaciones que usan IA y por parte del sector de IA así como “una inversión importante por las autoridades competentes responsable para la implementación y seguimiento de la regulación (están muy lejos de poder hacerlo bien por falta de conocimiento y experiencia). Estoy a su disposición para ayudarlas”.

-
La noticia Filtrado el borrador de la regulación europea sobre IA: primeras impresiones de tres expertos en la materia fue publicada originalmente en Xataka por Arantxa Herranz .

Leer más

Filtrado el borrador de la regulación europea sobre IA: primeras impresiones de tres expertos en la materia

Filtrado el borrador de la regulación europea sobre IA: primeras impresiones de tres expertos en la materia

La Unión Europea lleva tiempo trabajando sobre la regulación en materia de Inteligencia Artificial. El objetivo de dicho documento es crear una especie de normativa tipo GDPR, pero para esta tecnología, marcando los usos y límites en los que se puede utilizar.

Además, es un documento muy importante porque las iniciativas nacionales, como la de España, tendrán que atenerse a este marco jurídico.

Ante la filtración de un borrador muy avanzado de esta regulación En Xataka hemos preguntado a tres expertos en Inteligencia Artificial (Andrés Torrubia, cofundador del Instituto de Inteligencia Artificial, Richard Benjamin, autor de “El mito del algoritmo” y “A Data-Driven Company” ,y David Pereira, Responsable de Data & Intelligence para everis y del Centro de Excelencia global de IA para el grupo NTT DATA) sobre sus primeras impresiones de este documento y esto es lo que nos han contado.

Qué se quiere legislar

Básicamente, podríamos decir que este documento pretende sentar las bases de la legislación sobre la Inteligencia Artificial en la UE. Por un lado, se pretende establecer un marco legal que permita la innovación pero que, al mismo tiempo, garantice la seguridad y proteja los derechos humanos.

En este sentido, la Unión Europea siempre ha defendido que quiere aprovechar las oportunidades que esta tecnología presenta, pero dando respuesta a algunos de los desafíos que están sobre la mesa.

Con esta regulación, se pretende establecer un marco de confianza en la tecnología y en su potencial impacto, tanto en los ciudadanos a nivel individual como en la sociedad y economía.

Buen punto de partida

Richard Benjamin cree que esta regulación “es lo que estábamos esperando: una aproximación basada en riesgo, donde los sistemas de IA de alto riesgo tienen que cumplir algunos requisitos”.

Este experto valora que hay muchos más detalles sobre la implementación de la idea general, algo que faltaba en el “White paper”, publicado antes.

Para David Pereira, “el hecho de que exista ya este borrador es una buena noticia, porque significa que hay avance”. Según su visión, “la duda en forma de ausencia de regulación, pero a la vez expectativa de tenerla, y que esta sea muy rígida, está haciendo que la inversión privada en IA en Europa, la adopción por parte de las empresas esté por debajo de USA o China. Puede que la regulación que analizamos hoy no sea la mejor, pero al menos empieza a concretar derechos de los ciudadanos y obligaciones de las empresas fabricantes de soluciones de IA y de empresas/ instituciones públicas que las implementan”, expone.

Usos de alto riesgo

Los tres expertos destacan que el documento refleje y se detenga en lo que se consideran “usos de alto riesgo” de la inteligencia artificial.

Foto Andres

La regulación considera usos de alto riesgo a aspectos tan amplios que van desde “una larga lista desde sistemas biométricos usados en espacios públicos, sistemas usados para enviar ayuda médica o bomberos; usados para determinar acceso a estudios, empleo, crédito, beneficios sociales, verificación de información relativa a ofensas criminales o limitación de libertad de una persona; sistemas de predicción de crímenes o altercados de cara a asignar recursos de vigilancia; visados; y asistencia a jueces”. Eso sí, “están explícitamente excluidos de la regulación los usos militares”.

Sin embargo, una de las cosas que más ha llamado la atención a Torrubia son los criterios por los que “se actualizarán los usos de alto riesgo”. Entre estos parámetros está el impacto adverso en las oportunidades financieras, educativas o profesionales de las personas.

“Por un impacto adverso en las oportunidades profesionales los artesanos que cardaban la lana en el año 1821 destruyeron las máquinas que introducía la revolución industrial para hacer esa tarea”, rememora. “Ese fue el primer evento del movimiento ludita en España. Mi esperanza es que esa línea no sea la puerta del Neoludismo en Bruselas”.

Cambio de posición

Para Benjamin, un asunto importante es que ya no se habla de sectores y aplicaciones de alto riesgo, sino de sistemas de IA de alto riesgo. “Esto es bueno porque evita el posible lobby de sectores para no ser considerados alto riesgo. Implícitamente se pueden detectar algunos sectores como AAPP y justicia”, detalla. Como Torrubia, también destaca que los sistemas de IA para defensa están fuera del alcance de esta regulación. “Y en general, hay muchas excepciones cuando la seguridad nacional está en juego”.

Según este borrador, habría dos tipos de uso de alto riesgo: sistemas que requieren una evaluación por terceros (como reconocimiento con biométrica como reconocimiento facial en espacios públicos o sistemas de IA con una función de “safety” para otros productos); y sistemas que requieren una autoevaluación por la propia organización.

Por todo ello, Richard Benjamin cree que es positivo que no se regule por sectores y que los sistemas de alto riesgo son limitados a casos concretos. “Esto permite seguir desarrollar la tecnología, pero con atención cuando se prevé impacto”. Además, considera “curioso que el sector Salud no está como alto riesgo (solo está incluido sistemas médicos de emergencia), aunque implícitamente está por el posible impacto (muerte)”.

Evitar la manipulación

En este sentido, David Pereira valora muy positivamente que se destaque la prohibición de sistemas “que manipulen a personas en su detrimento, se dediquen a la vigilancia indiscriminada o bien establezcan sistemas de social scoring que puedan tener consecuencias negativas y/o desproporcionadas en contextos distintos a los que originaron los datos con los que se ha construido dicho scoring”.

Foto David

Para él, es “muy relevante” que haya un listado de lo que la UE considera “sistema de alto riesgo”, y que incluyen “muchos de los sistemas que más debate y quejas desde una perspectiva ética han generado”: desde sistemas de riesgo de crédito, aplicaciones de identificación biométrica, gestión de infraestructuras, médicas, acceso a justicia, educación….

“Es interesante la interpretación que se hace de riesgo, al estar íntimamente relacionado con aspectos como el riesgo de exclusión financiera o educativa, de justicia, y que por tanto se vincula con el compromiso del documento con cómo se va a conformar la sociedades en los próximos años ante el progreso tecnológico para garantizar los derechos de los individuos”, reflexiona.

Las sanciones previstas

En este punto, coincide con Andrés Torrubia en lo que a la proporcionalidad de las sanciones respecto a otras tecnologías o formas de manipulación. “Entendiendo la necesidad de regular y limitar los sistemas pero, ¿significa esto que vamos a multar de forma equivalente a empresas que promueven la adición al juego online a través de la publicidad con el correspondiente perjuicio para los ciudadanos?”, se cuestiona.

Según Andrés Torrubia, a lo largo de sus 81 páginas, el documento pone énfasis en lo que considera “usos de alto riesgo de la Inteligencia Artificial y cuantifica multas por infracciones: hasta 20 millones de euros o el 4% ingresos anuales (la que sea superior)”.

Cabe señalar que este documento considera Inteligencia Artificial de forma tan amplia que en incluye “por supuesto a los sistemas de aprendizaje automático o aprendizaje profundo o de refuerzo que acaparan portadas de prensa (GPT3, Alphafold, AlphaGo, etc.)” pero también “sistemas mucho más convencionales que mucha gente clasificaría simplemente como "software": sistemas lógicos, sistemas expertos, estadísticos hasta métodos de búsqueda y optimización”. Esto, por tanto, conlleva que todos ellos también estén sometidos a la regulación.

Usos prohibidos

La regulación también enumera algunos casos en los que está prohibido emplear la IA. Para Torrubia, la definición es bastante amplia: "Sistemas de inteligencia artificial diseñados o utilizados de una manera que manipulen el comportamiento, las opiniones o las decisiones humanas a través de arquitecturas de elección u otros elementos de interfaz de usuario, para que una persona se comporte, forme una opinión o tome una decisión en su detrimento."

Foto Richard

Por eso, considera que “habrá que ver hasta qué punto toda la publicidad o motores de recomendación en los que se basa Google, Facebook, etc. que por recientemente ha sido acusada de promover desinformación no estaría retratada en ese párrafo”.

Además, expresa sus dudas respecto a que se permita a autoridades públicas realizar estos usos prohibidos “siempre que la ley los permita y orientados a la seguridad pública”. “Hay muchas voces alertando de que el potencial de abuso de esta excepción es tremendo (escenario China)”, añade.

Eso sí, este experto se alegra de que en el documento haya compromisos respecto a cuestiones como la prohibición del uso de reconocimiento facial, la obligatoriedad de la IA explicable, o la imposición de aspectos que, motivados por exigencias de la privacidad, podían reducir prestaciones de sistemas de IA. “Se acepta pseudo-anonimización (en lugar de anonimización completa) como compromiso de cara a medir y mitigar sesgos”, lo que, en su opinión, es algo positivo.

Mecanismos de feedback y transparencia

Pereira también valora positivamente que se garantizaría la existencia de mecanismos de feedback y transparencia para sistemas de alto riesgo, “de cara a poder gestionar impactos sociales negativos, en particular sesgos”.

Sin embargo, cree que falta desarrollar más en detalle “qué sucede con los propios datos de entrenamiento y las plataformas empleadas para ellas; es decir, cómo se garantiza que no se van a reutilizar para otros fines que sí pueden tener impacto negativo aunque no sean considerados de alto riesgo, teniendo en cuenta que la trazabilidad del sistema productivo va a requerir que tanto datos de entrenamiento como plataforma de entrenamiento se conserven en el tiempo”.

En este sentido, cree que uno de los principales retos para las organizaciones que empleen IA para procesos de alto riesgo va a ser el “asegurar mecanismos específicos de supervisión humana, identificando a las personas concretas que tengan el conocimiento y la autoridad necesarios para, una vez identificado un riesgo mediante la interpretación de las salidas de la IA, intervenir el sistema y “desconectar” la toma de decisiones del algoritmo”.

Bots y deep fakes

Respecto a la transparencia, este borrador también regula aspectos que han sido ampliamente discutidos, sobre todo el de los asistentes virtuales y deepfakescada vez más indiferenciables de personas reales. En este sentido, el artículo 41 de la regulación obliga a "los sistemas que interactúen con personas humanas o que manipulen imágenes, audio o vídeo para parecerse a personas reales a informar de ello”, detalla David Pereira.

Algo que también destaca Torrubia. "Aunque un chatbot llegue a ser tan convincente que pueda parecer una persona, el chatbot deberá identificarse como un chatbot", remarca.

Según este documento, Irene, el bot de Renfe, estaría haciendo mal las cosas mientras que DulcineIA, un chatbot para ayudar con el Quijote, lo estaría haciendo adecuadamente.

Bandera

Efectos sobre la innovación, startups y PYMES

Torrubia también cree que para una gran multinacional este tipo de regulaciones “pueden ser incluso beneficiosas porque pueden desarrollar sistemas fuera de la Unión Europea y luego adaptarlos técnica y/o regulatoriamente (lo que seguramente harán empresas con los centros de desarrollo de IA que ya están en China, EEUU y Reino Unido; o incluso en lugares de Europa como Suiza que no forman parte de la Unión Europea, y por tanto no están sujetas a regulaciones como GDPR o esta futura regulación de IA)”.

Sin embargo, cree que esto puede generar más barreras a empresas que están empezando y “da ventaja a empresas establecidas con muchos más recursos legales. Para una start-up o una PYME o los inversores potenciales de éstas, el número al que hace referencia la multa (20 millones de euros) es suficientemente disuasoria como para plantearse que estar en Europa pueda incluso ser una desventaja".

Sandbox e innovación

Para evitarlo, el documento hace mención al concepto de sandboxes (entornos de prueba donde proyectos pilotos operan bajo estrecha vigilancia del regulador) y donde "supuestamente puede fomentarse la innovación y dar prioridad a las startups", explica Torrubia. Su opinión como emprendedor es qye "lo último que quieres ver es estar en un sitio donde la IA está entrando en la categoría de tecnología sospechosa y acceder al propio sandbox supone burocracia en sí misma”.

Sin embargo, para Richard Benjamin, dado que la regulación aplica a toda la cadena de valor (diseño, productor, distribuidor, proveedor, operador, etc.) “pero el responsable final es el quien lo pone en el mercado” sí se fomenta la innovación a través de regulatory sandboxes donde es posible experimentar.

Algo en lo que coincide Pereira, quien tilda de “interesante” precisamente el párrafo en el que esto se detalla. “Si esto sirve como base a la existencia de sandboxes regulatorios, creo que se trata de una muy buena noticia para combinar innovación y regulación”, expone, aunque añade que “habrá que ver cómo se desarrolla”.

Torrubia considera que esta regulación no supone un impedimento a la innovación y la competitividad europea en IA. Pero, insiste, “si a la montaña de problemas que conlleva crear una startup que YA tienen los emprendedores europeos (parten de una peor casilla de salida, por ejemplo en financiación, fragmentación de mercado, etc), le añadimos el laberinto legal y regulatorio, corremos el riesgo de espantar esa necesaria inversión en IA, y en España al menos... montaremos bares”.

Algo que se eche en falta

¿Qué echa en falta en la regulación? “No queda claro qué pasa con sistemas ya en producción que, según esta regulación, son de alto riesgo”, como los algoritmos trading en las bolsas; así como especificar “cuánto tiempo hay para cumplir con la regulación a partir de su entrada en vigor” (con GDPR había 2 años), señala Richard Benjamin.

Por eso, y aunque como punto de partida lo ve suficiente (“el listado de alto riesgo se revisa cada 6 meses”), considera que va a requerir una inversión por parte de organizaciones que usan IA y por parte del sector de IA así como “una inversión importante por las autoridades competentes responsable para la implementación y seguimiento de la regulación (están muy lejos de poder hacerlo bien por falta de conocimiento y experiencia). Estoy a su disposición para ayudarlas”.

-
La noticia Filtrado el borrador de la regulación europea sobre IA: primeras impresiones de tres expertos en la materia fue publicada originalmente en Xataka por Arantxa Herranz .

Leer más

Esa oferta de trabajo en LinkedIn es falsa: el archivo zip te instalará una puerta trasera abierta para atacantes

Esa oferta de trabajo en LinkedIn es falsa: el archivo zip te instalará una puerta trasera abierta para atacantes

Un grupo, conocido como Golden Chicken, está llevando a cabo ataques aprovechándose de la red social LinkedIn dando a conocer ofertas de trabajo falsas y cuyo único objetivo es infectarles con troyanos tipo puerta trasera (backdoor).

Según explica eSentire, los atacantes envían un archivo zip malicioso utilizando el puesto de trabajo que figura en el perfil de LinkedIn del objetivo. Es decir, si eres un Ejecutivo de cuentas sénior, el archivo zip malicioso se llamaría “Ejecutivo de cuentas sénior position”.

Si se abre este archivo, la víctima, sin saberlo, inicia la instalación de una puerta trasera denominada more_eggs. Una vez cargada, esta puerta trasera puede descargar otros archivos maliciosos y facilitar el acceso al ordenador de la víctima.

Malware como Servicio

El grupo que está detrás de more_eggs es Golden Chickens y, según explica eSentire, se dedica a vender esta puerta trasera como malware como servicio (MaaS) a otros ciberdelincuentes. Una vez que more_eggs está en el sistema informático de la víctima, los “clientes” de Golden Eggs pueden infectar la máquina con cualquier tipo de malware.

Lo más peligroso de este ataque es el hecho de que el malware se ejecuta en modo sigiloso y utiliza procesos normales de Windows para ejecutarse. Esto podría hacer que ni siquiera que el programa antivirus de lo detecte.

Cabe señalar, no obstante, que quienes han descubierto este ataque aseguran también que las campañas que utilizan MaaS no parecen muy numerosas y que, además, son selectivas. En cualquier caso, se tiene constancia forense de que este malware como servicio ha sido utilizado por tres grupos: FIN6, Cobalt Group y Evilnum.

Keyboard

Unos “viejos conocidos”

Estos tres grupos organizados son “viejos conocidos” en el mundo de la seguridad. FIN6 es un grupo de delitos informáticos financieros que principalmente roba datos de tarjetas de pago y los vende en mercados clandestinos.

Mientras, Evilnum es más conocido por comprometer a las empresas de tecnología financiera, empresas que proporcionan plataformas y herramientas de negociación de acciones. Su objetivo es la información financiera sobre las empresas fintech y sus clientes.

Por su parte, The Cobalt Group es conocido por perseguir a las empresas financieras, y ha utilizado en varias ocasiones la puerta trasera more_eggs en sus ataques.

Parece que de momento el grupo profesional más afectado por este ataque podría ser aquel que trabaje en la industria de la tecnología de la salud.

En cualquier caso, no es la primera vez que se tiene constancia de este tipo de ataques, ya que en febrero de 2019 también se detectó una campaña similar, pero dirigido al sector retail de Estados Unidos. Los mensajes se enviaban a través de la mensajería de LinkedIn.

-
La noticia Esa oferta de trabajo en LinkedIn es falsa: el archivo zip te instalará una puerta trasera abierta para atacantes fue publicada originalmente en Xataka por Arantxa Herranz .

Leer más

Intel quiere recuperar a Apple como cliente y ve “inaceptable” que la industria de semiconductores depende demasiado de Asia: el nuevo CEO sienta las bases del futuro de la compañía

Intel quiere recuperar a Apple como cliente y ve “inaceptable” que la industria de semiconductores depende demasiado de Asia: el nuevo CEO sienta las bases del futuro de la compañía

El CEO de Intel, Pat Gelsinger, daba a conocer las líneas maestras que quiere seguir durante su mandato. Ahora, en una entrevista a la BBC, asegura que quiere recuperar a Apple como cliente. No solo eso, asegura que la industria de semiconductores depende demasiado de la fabricación en Asia. Algo que, según sus palabras, no es “aceptable”.

Para lograr lo primero y evitar lo segundo, Gelsinger anunció la creación de una nueva división, denominada Intel Foundry Services (IFS), que permitirá a la compañía fabricar chips para otras empresas.

Dejar de depender de Asia

"Tener el 80% de todo el suministro en Asia simplemente no es una manera aceptable para que el mundo tenga una visión de la tecnología más crítica", dijo Gelsinger, añadiendo que el reto es emplear IFS para reducir esta dependencia asiática.

“Cada teléfono inteligente, cada telemedicina, cada trabajador remoto, cada educación remota, cada vehículo autónomo, cada aspecto de la humanidad se está volviendo más digital. Y cuando se vuelve digital, funciona con semiconductores”, reflexiona, añadiendo que lo digital está en el corazón de todos los aspectos de la existencia humana en el futuro. “El mundo necesita una cadena de suministro más equilibrada”, sentencia, añadiendo que Intel está dando sus propios pasos para lograrlo.

El CEO de Intel ha asegurado que su intención es construir una nueva fabrica de chips en Europa, sin determinar qué país podría ser el elegido. No quiso entrar en detalles, limitándose a decir que “estas son inversiones de capital extraordinarias” pero que “también son extraordinarios generadores de empleo”.

Cabe recordar que la Unión Europea también tiene sus propios planes para ser más fuerte en la fabricación de semiconductores y depender menos de Estados Unidos y Asia y que China ha previsto invertir 47.000 millones de dólares para ser más independiente en esta industria.

Intel Ocotillo Fab 42 1

Querer a Apple como cliente

En principio, esta división fabricará chips de núcleo x86, Arm y RISC-V para empresas como IBM, Qualcomm, Microsoft y Google. Una lista de nombres a la que Gelsinger quiere añadir a Apple, quien hasta hace no mucho tiempo utilizaba los procesadores de Intel en sus máquinas y que ha decidido desarrollar los suyos propios bajo licencias ARM. Estos procesadores están diseñados por Apple pero fabricados por Taiwan Semiconductor Manufacturing Company (TSMC).

¿Por qué quiere recuperar a este cliente? Entre otras cosas porque “es uno de los mayores usuarios de capacidades avanzadas de semiconductores", asegura en esta entrevista.

Sin embargo, sabe que el camino no va a ser fácil. “Tengo que ganarme ese negocio”, asegura. A su favor, está el hecho de que “todo el mundo quiere varios proveedores”.

La complicada relación entre Intel y Apple

La decisión de Apple de dejar los procesadores Intel acababa con 15 años de alianza entre las dos compañías. La respuesta del fabricante de chips fue realizar una campaña de marketing contra Apple. Según una información de Apple Insider, Gelsinger dijo, en un correo electrónico interno para empleados, que Apple era una “empresa de estilo de vida en Cupertino”.

Además, Intel y Apple no dejan de ser competidores en el mercado de PC. “Tenemos un gran respeto por Apple como empresa. Son innovadores. Han hecho cosas increíbles en la industria. Tim Cook es un gran líder”, explica Gelsinger, quien avanza que “seremos competidores agresivos y buscaremos revitalizar el ecosistema de PC”.

“Vamos a divertirnos. Vamos a competir agresivamente. Y también voy a cuidar a mis clientes”, sentencia.

-
La noticia Intel quiere recuperar a Apple como cliente y ve “inaceptable” que la industria de semiconductores depende demasiado de Asia: el nuevo CEO sienta las bases del futuro de la compañía fue publicada originalmente en Xataka por Arantxa Herranz .

Leer más

“La estrategia de Xerox es crecer comprando compañías y habrá novedades en breve”, Mariola Martínez, directora general de Xerox España

“La estrategia de Xerox es crecer comprando compañías y habrá novedades en breve”, Mariola Martínez, directora general de Xerox España

Lleva casi toda su vida profesional ligada a Xerox. Tras haber pasado por diversos puestos de responsabilidad, algunos de ellos internacionales, recientemente la compañía anunciaba su designación como directora general en nuestro país.

Mariola Martínez charla con Xataka acerca de esta nueva responsabilidad, así como del futuro de una compañía de impresión que se abre camino hacia los servicios o la impresión 3D.

Tres objetivos al frente de la filial

Martínez asegura que, después de 25 años en la compañía, “dirigir la filial española es un sueño”.

En su nuevo puesto, Mariola Martínez asegura tener “tres grandes obsesiones”. Por un lado, “seguir creciendo en las áreas donde lo hemos estado haciendo bien todos estos años”. Es decir, en el segmento de la impresión de gama alta, en el mercado más corporativo.

En segundo lugar, Martínez quiere que se conozca a Xerox por más que la impresión. “Desarrollamos soluciones en cloud, tenemos aplicaciones y facilitamos el trabajo en sectores verticales”, especifica.

Su tercer objetivo hace referencia a la comunicación. “En un momento como el que vivimos, en el que hemos pasado de estar en la ofician a estar en casa, necesitamos tener esta comunicación continua, más enlace”, detalla.

“Seguiremos imprimiendo”

Martínez no esconde que el impacto del coronavirus en el negocio de la impresión “ha sido grande”, aunque asegura que, en el caso de Xerox, en el último trimestre ya han registrado crecimientos. “Este año, 2021, también debe marcar incrementos”, enfatiza.

Primelink

La responsable de Xerox confirma que en abril del año pasado descendieron los volúmenes de impresión, pero asegura que ahora están volviendo a incrementarse, y tanto en oficina como en remoto. “Seguimos imprimiendo y siempre lo haremos”, asegura, añadiendo que en la alta producción no se ha dejado de imprimir mucho durante todos estos meses.

Es más, asegura que se están produciendo nuevos nichos de oportunidad. “Algunos partners nuestros imprimen pegatinas y ahora en todas partes se colocan para indicar las rutas de entrada o de salida así como los lugares donde hay gel hidroalcóholico o instrucciones para mantener las distancias de seguridad”, pone como ejemplo.

En su opinión, el reto del sector de la impresión es “cómo hacer un trabajo eficiente, y lograr ser más ágiles en estos entornos híbridos de gestión del trabajo que se están imponiendo”. “La forma de transformar el negocio de impresión no es seguir imprimiendo”, sentencia. “Tenemos soluciones para que la gente siga siendo productiva, para añadir seguridad a tus entornos de trabajo, para la digitalización de los negocios, para trabajar en cloud…”.

La reconversión de Xerox

Martínez defiende que su compañía lleva transformándose digitalmente “desde hace mucho tiempo” aunque, como otros directivos, reconoce que la pandemia ha acelerado todo este proceso. “Simplemente que tus empleados tengan portátiles supone una transformación. Nosotros hemos desarrollado aplicativos de outsourcing de impresión, que permiten a las empresas tener mayor agilidad. Pero con la pandemia hicimos examen de conciencia y vimos que no estábamos todo lo preparados que debíamos, porque ni siquiera muchos empleados tenían una herramientas básica como un portátil para poder trabajar en casa” pone como ejemplo.

Este margen de mejora en su propia digitalización ha hecho que estén invirtiendo más para el desarrollo de aplicaciones cloud para la gestión de contenido y otros productos muy específicos para el modelo de trabajo híbrido, como todo lo relativo a la seguridad de los documentos.

Xerox tiene una galería de aplicaciones corporativas con las que pueden trabajar sus máquinas, como algunas aplicaciones de Microsoft, Oracle, Salesforce y otras compañías.

Crecer vía adquisición

“La pandemia nos ha dado una lección de realidad”, insiste Martínez, quien asegura que todo esto ha servido para que Xerox haya “avanzado para pasar de ser una compañía orientada a producto a estar orientada en soluciones”. Así pues, el enfoque de la compañía pasa más por el software que por la impresión pura y dura, aunque “mantenemos el enfoque en nuestro negocio principal”.

Hablando de futuro, Martínez tiene claro que buena parte del crecimiento de la compañía va a venir ligado a adquisiciones. “El problema de Xerox no es de liquidez”, asegura. Por eso, y aunque declara no saber mucho más que lo publicado acerca de la operación de compra fallida del negocio de impresión de HP, certifica que, en esta industria, “puedes ludes crecer por ti mismo o comprando. La segunda es la estrategia de Xerox”.

Es más, vaticina que “muy pronto” habrá novedades en este sentido y que “habrá más compras, y a corto plazo. Eso sí, puede que no todas sean adquisiciones de empresas de impresión. De hecho, una de las últimas compras que ha efectuado Xerox es una firma de Realidad Aumentada, CareAR.

Impresión 3D

Más allá de estas posibles adquisiciones, Xerox en España quiere seguir creciendo por sectores verticales como educación, retail o justicia. Además, el reto de Martínez es pasar del cinco al siete por ciento de cuota de mercado en el segmento de las oficinas e iniciar en breve la comercialización de las impresoras 3D de la compañía, que hasta ahora no estaban en Europa. Un nuevo negocio en el que Martínez reconoce que están yendo “despacio, con pies de plomo”.

Cabe señalar que, como en el resto de los productos, la impresión 3D se está destinando a sectores empresariales. Uno de los primeros clientes es, de hecho, la Naval Postgraduate School, una universidad de investigación aplicada del Departamento de la Marina de Estados Unidos.

-
La noticia “La estrategia de Xerox es crecer comprando compañías y habrá novedades en breve”, Mariola Martínez, directora general de Xerox España fue publicada originalmente en Xataka por Arantxa Herranz .

Leer más

Así se reparten Microsoft y Google el negocio de la educación en España: 12 de 17 Comunidades Autónomas tienen acuerdos para usar gratis sus productos

Así se reparten Microsoft y Google el negocio de la educación en España: 12 de 17 Comunidades Autónomas tienen acuerdos para usar gratis sus productos

El 9 de marzo de 2020 Vitoria fue la primera región en España en decretar el cierre de los colegios ante el avance del coronavirus . Una medida que, solo tres días después, se extendía a toda España.

Con el cierre de los centros formativos al estallar la pandemia de la Covid-19, la comunidad educativa se tuvo que enfrentar al problema de dar las clases de forma virtual.

Algo que, como hemos visto, lejos de democratizar la educación puso de relieve las grandes brechas que había.

Promover las herramientas educativas

Desde entonces, centros docentes y comunidades autónomas han intentado remediar los errores del pasado y facilitar la incorporación de herramientas tecnológicas en las escuelas.

Tanto Google como Microsoft han llegado a diversos acuerdos con los gobiernos regionales para que los centros públicos adscritos a cada comunidad pudieran tener acceso a sus herramientas.

De las 17 comunidades autónomas que hay en España, a día de hoy 12 tienen acuerdos con estas empresas para poder utilizar sus productos en los centros de educativos. De momento, Google supera el número de acuerdos a Microsoft: 8 frente a 5. Se da el caso curioso de que Andalucía tiene alianzas con ambas compañías.

Comunidad Autónoma

plataforma educativa

Andalucía

Google y Microsoft

Baleares

Google

Canarias

Google

Castilla y león

Microsoft

cataluña

Google

Comunidad de madrid

Microsoft

Comunidad Valenciana

Microsoft

extremadura

Google

Galicia

Microsoft

murcia

Google

Navarra

Google

País Vasco

Google

Galicia, una de las pioneras

Una de las primeras comunidades en firmar uno de estos acuerdos fue la Xunta de Galicia: desde el 10 de junio del año pasado todos los centros públicos gallegos pueden usar Office 365 de manera gratuita. Se calcula que más de 280.000 alumnos y más de 28.000 docentes pueden, desde este curo 20-21, usar Office 365 tanto en gallego como en castellano.

Surface Go 2 Context 4

Microsoft también tiene acuerdos con la Comunidad Valenciana, donde cerca de 800.000 estudiantes y 80.000 docentes pueden usar también de forma gratuita Office 365 para Educación y Microsoft Teams.

En Castilla y León, mientras tanto, 1.077 colegios, 25.900 profesores y 233.000 alumnos de Primaria y Secundaria están usando también la plataforma de Microsoft.

La última en sumarse a la lista de Microsoft es Madrid, quien acaba de firmar un acuerdo esta misma semana. Cabe señalar que en septiembre el gobierno de esta comunidad dio la orden de no usar la plataforma de Google por considerarla poco segura.

Andalucía, tú decides

El caso más curioso es el de Andalucía, puesto que es la única comunidad autónoma que mantiene acuerdos tanto con Google como con Microsoft para el uso gratuito de sus plataformas en los centros educativos.

De hecho, la Junta de Andalucía firmaba el acuerdo con ambas empresas el mismo día, con una duración de dos años.

-
La noticia Así se reparten Microsoft y Google el negocio de la educación en España: 12 de 17 Comunidades Autónomas tienen acuerdos para usar gratis sus productos fue publicada originalmente en Xataka por Arantxa Herranz .

Leer más

El incendio del principal data center de OVH pone de relieve la importancia de tener un plan de recuperación ante desastre

El incendio del principal data center de OVH pone de relieve la importancia de tener un plan de recuperación ante desastre

El proveedor cloud europeo OVH está teniendo que hacer frente a un incendio en su centro de datos de Estrasburgo, lo que está afectando a todas las empresas que tenían allí alojadas algunos de sus servicios, como páginas web.

La compañía no tiene que lamentar daños personales pero su primera recomendación a los clientes era que ejecutaran su plan de recuperación ante desastres.

We have a major incident on SBG2. The fire declared in the building. Firefighters were immediately on the scene but could not control the fire in SBG2. The whole site has been isolated which impacts all services in SGB1-4. We recommend to activate your Disaster Recovery Plan.

— Octave Klaba (@olesovhcom) March 10, 2021

Qué es un Plan de Recuperación de Desastres

Conocido también como Disaster Recovery, el objetivo de este plan es tener todo previsto para proteger a una empresa de los posibles efectos de un suceso inesperado, como este incendio o una inundación. Tener una estrategia de recuperación de desastres puede ser clave para que una empresa pueda mantener o reanudar rápidamente las funciones de misión crítica después de una interrupción.

Algunos clientes de OVH, por ejemplo, están lamentándose de que han perdido todo su material. Es el caso de MundoPixelmon2, quienes han comunicado que tardarán meses en recuperar todo lo perdido, por lo que los usuarios no podrán acceder a este mundo de Minecraft y jugar en él.

El host ,donde teníamos alojado el server y todos nuestro datos, se a incendiado y no ha quedado nada que se pueda rescatar por el momento.

Lamento comunicar que #MundoPixelmon2 quedara un tiempo detenido para trabajar en nuestro siguiente paso. 1/2 pic.twitter.com/Li5LmcQtWy

— FrigoAdri✨ (@FrigoAdri) March 10, 2021

Una interrupción de estas características puede poner en riesgo las operaciones de una organización. Las causas pueden ser tan variadas como un ciberataque, cortes de energía o desastres naturales. El objetivo de la recuperación ante desastres es que una empresa continúe operando lo antes posible.

El proceso de recuperación ante desastres debe tener en cuenta la planificación y las pruebas. En muchas ocasiones conlleva tener una copia de seguridad o respaldo físico separado del resto de la infraestructura para restaurar las operaciones.

Básicamente, a recuperación ante desastres realiza una replicación de todos los datos y procesamiento informático de una organización en otra ubicación (para que no se vea afectada por el mismo desastre). De esta forma, si los servidores se caen se pueden recuperar los datos perdidos desde una segunda ubicación, donde se realiza una copia de seguridad de los datos. 

Elementos de un plan de recuperación ante desastres

Los planes de recuperación ante desastres son muy diferentes según la organización, la industria o el tamaño al que se pertenezca.

Sin embargo, en muchos de ellos hay componentes comunes, como un listado de las personas clave y del equipo que se va a encargar de ponerlo en marcha, una descripción de las acciones a tomar una vez que se ha producido el incidente y las instrucciones sobre cómo llegar al sitio de recuperación y cómo activarlo.

La activación de estos planes pueden evitar que, como por ejemplo las aerolíneas, se tengan que cancelar cientos de operaciones para una empresa.

Entre los beneficios de contar con un Plan de Recuperación de Desastres están, entre otros:

  • Minimizar las interrupciones de las operaciones normales.
  • Limitar el alcance de las interrupciones y los daños.
  • Minimizar el impacto económico de la interrupción.
  • Establecer de antemano medios alternativos de funcionamiento.
  • Proporcionar una restauración rápida y sin problemas del servicio.

Empresas afectadas

OVH ha reconocido que todas las empresas que tuvieran algunos de los servicios alojados en el CPD de Estrasburgo se habrán visto afectadas por este incendio, que ha destrozado uno de los bloques del centro de datos.

Entre las empresas españolas que han avisado a sus usuarios de que sus servicios se pueden ver total o parcialmente afectados se encuentran IM Digital Business, el Villareal Club de Fútbol o la página MIT Teach Reviews.

También la empresa de videojuegos Rust ha anunciado que ha perdido sus servidores europeos y que algunos datos "son irrecuperables".

-
La noticia El incendio del principal data center de OVH pone de relieve la importancia de tener un plan de recuperación ante desastre fue publicada originalmente en Xataka por Arantxa Herranz .

Leer más

El CPD de la Seguridad Social se trasladará a Soria porque hace frío y permitirá ahorrar en refrigeración

El CPD de la Seguridad Social se trasladará a Soria porque hace frío y permitirá ahorrar en refrigeración

La Seguridad Social va a trasladar su Centro de Procesamiento de Datos (CPD) de Madrid a Soria por las condiciones climáticas de la ciudad. De hecho, el ahorro en la refrigeración de las instalaciones es una de las causas de este traslado.

El Ayuntamiento de Soria ha cedido una parcela de 37.000 metros cuadrados de la localidad, más concretamente en el Barrio de Los Royales, para construir ahí el CPD. Una vez se apruebe la cesión del terreno, la Seguridad Social encargará del diseño del proyecto, así como su construcción. Unos plazos que podrían prolongarse hasta casi los 3 años, según la información facilitada por el Ministerio.

Es decir, que de momento no se saben las características técnicas de esta instalación, pero la idea es renovar toda la infraestructura. Según el Ministro de Inclusión, Seguridad Social y Migraciones, José Luis Escrivá, el CPD de la Seguridad Social, que data de los años 70, era “puntero en su momento, pero se ha quedado obsoleto”.

El actual CPD tiene una sala con capacidad para 3000 servidores físicos. Soporta 15.000.000 de transacciones diarias, así como 200.000 documentos al día y 4.000 llamadas de voz IP cada día.

Bienvenido el frío soriano

Según los datos del Ministerio, una buena parte del coste de mantenimiento (el 70%) de este CPD se debe a la refrigeración. Así, durante los meses de verano solo la climatización de estas instalaciones supondría una factura de unos 150.000 euros al mes. Algo que llevó a los responsables del ministerio a “reflexionar sobre la oportunidad de trasladarlo a unas instalaciones en otra provincia menos cálida que Madrid”.

Soria, con una temperatura media anual de 11ºC, parece idónea a ojos del ministerio para reducir esta partida. Además, el ministerio asegura que la producción de energía renovable es más barata en Soria que en otras provincias.

Los cálculos del Gobierno señalan que con esta nueva ubicación se podrían ahorrar entre un 50 y un 60% la factura en refrigeración.

España despoblada

Esta decisión se enmarca en el Plan de Deslocalización de Infraestructuras Públicas con el que se pretende reubicar algunas de las instalaciones de la administración y llevarlas a provincias en riesgo de despoblación. Además, el reto es que estas instalaciones puedan generar empleo de calidad sobre el territorio y fijar población en las zonas rurales a través de la retención y atracción de talento.

De momento, el simple traslado del CPD de Madrid a Soria conllevará el traslado también de 10 personas de mantenimiento de las instalaciones, 8 de operaciones y 12 de monitorización, entre otros.

El Ministro también espera que este traslado sea un banco de pruebas para otras instalaciones y que también pueda atraer otras inversiones a la zona. Cabe recordar que hace meses que el sector de los centros neutrales pidió medidas para que España pudiera atraer buena parte de la inversión en este terreno.

-
La noticia El CPD de la Seguridad Social se trasladará a Soria porque hace frío y permitirá ahorrar en refrigeración fue publicada originalmente en Xataka por Arantxa Herranz .

Leer más

Iberia te permitirá facturar “por la cara”: así está desplegando un sistema de reconocimiento facial que te reconoce hasta con mascarilla

Iberia te permitirá facturar

Poder ir al aeropuerto sin tener que mostrar el DNI ni la tarjeta de facturación, incluso en el control policial, está cada vez más cerca. Iberia está desplegando un sistema de reconocimiento facial que evitará muchos de los trámites y contactos que son habituales en estos momentos. Y, además, asegura que es compatible con mascarillas.

Cómo funciona

Iberia cuenta en este despliegue con la colaboración de Aena así como con Inetum y Thales. El usuario debe tener instalada en su teléfono móvil la aplicación de Iberia o de Aena para hacer un primer check-in en su casa. Esto permitirá que el resto de procesos para el embarque puedan realizarse por la cara.

En caso de no tener la aplicación, también se puede utilizar algunos de los quioscos de registro que hay, de momento, en el Aeropuerto Adolfo Suarez Madrid Barajas.

En noviembre de 2019 Iberia desplegó un proyecto piloto para probar este sistema biométrico. Solo estaba disponible para aquellos pasajeros con destino Asturias o Bruselas que volaban desde Madrid.

Ahora, y gracias a una subvención del CDTI (Centro para el Desarrollo Tecnológico e Industrial), cuyo importe no se ha querido dar a conocer, el proyecto da un paso más y añade la movilidad. En esta nueva fase, el sistema será desplegado en varias tablets, lo que permitirá al personal de facturación en tierra de Iberia ir moviéndose por las distintas puertas de embarque.

Iberia 475109156430588

Según fuentes de Iberia, esto permitirá ampliar y extender el proyecto, de manera que esté disponible para el usuario de cualquier vuelo. Se está trabajando ya en el despliegue y se espera que para el verano esté completamente disponible.

Personal de tierra con tablets

Para que este sistema de reconocimiento biométrico no esté limitada a unas puertas de embarque, Iberia va a desplegar este sistema en varias tablets, lo que permitirá que los agentes de facturación puedan llevarlos y hacer los embarques biométricos en cualquier vuelo.

Tal y como nos confirman fuentes de Iberia, el proyecto arranca con 10 Surface Pro en el aeropuerto de Madrid, pero la idea es ir ampliando ese número y que después el resto de aeropuertos de la red de Aena puedan contar también con este servicio.

Durante este año largo de pruebas del proyecto piloto, los sistemas estaban instalados en varios puntos. Por un lado, en el filtro de seguridad y en la puerta de embarque J40. También había un kiosco de registro junto al mostrador de facturación de IBE 848; mientras que el resto de equipos estaban la puerta del filtro del Fast Track y la de embarque de la J58, junto con el kiosco de enrollment, que se situaba frente al acceso del filtro de familias.

Este proyecto cuenta con la participación de Iberia, como aerolínea operadora, Inetum, como empresa integradora de sistemas; Thales, como proveedor de tecnologías biométricas y procesos de validación de identidad; y Aena, como gestor de aeropuertos, responsable de los sistemas de integración intermedios entre aerolínea y motor de biometría.

-
La noticia Iberia te permitirá facturar "por la cara": así está desplegando un sistema de reconocimiento facial que te reconoce hasta con mascarilla fue publicada originalmente en Xataka por Arantxa Herranz .

Leer más

Salesforce se suma a un teletrabajo híbrido: “la jornada laboral de 9 a 5 ha muerto”

Salesforce se suma a un teletrabajo híbrido: “la jornada laboral de 9 a 5 ha muerto”

“La jornada laboral de 9 a 5 está muerta. La experiencia del empleado es mucho más que mesas de ping-pong y comida”. Salesforce ha anunciado su nueva política laboral con una frase tan contundente y lapidaria como significativa. Según Salesforce, “no tiene sentido esperar que los empleados trabajen un turno de ocho horas y hagan su trabajo con éxito” y cree que los trabajadores necesitan flexibilidad para hacer bien su trabajo.

Por eso, la compañía va a acometer un profundo cambio en su política laboral y va a permitir a todos sus trabajadores una flexibilidad total, tanto en el cómo trabajan como en el dónde y cuándo.

Tres opciones

Así, la compañía va a dejar que los empleados elijan entre tres opciones de trabajo: el flexible, el completamente remoto y el de oficina.

En el primero, los trabajadores podrán (cuando las condiciones sanitarias garanticen la seguridad) ir a las oficinas entre 1 y 3 días por semana. Presentaciones, colaboración con el equipo o encuentros con clientes pueden ser algunas de las razones para ir físicamente a estos lugares de trabajo.

Cabe señalar que Dropbox anunció hace meses que sus empleados solo podrían ir a sus oficinas cuando fuera necesaria esa presencia física, mientras que para el resto de actividades deberán trabajar de forma remota. 

Aquellos empleados que vivan lejos de las oficinas o cuyos puestos no exijan una presencia física podrán trabajar de manera completamente remota. En este sentido, y ante el auge de las políticas de teletrabajo, son muchos los ayuntamientos que están intentando atraer a estos trabajadores cualificados a sus ciudades. Por el contrario, hay una pequeña franja de sus empleados que tendrá que ir a la ofician ente 4 y 5 días cada semana.

Img 8529

Flexibilidad para ser más productivos

Salesforce asegura que la flexibilidad será clave en el futuro de la compañía con sus empleados. Es más, considera que es su “responsabilidad” permitir que los trabajadores puedan desempeñar su función “durante el horario que mejor funcione para ellos y sus equipos, y brindar opciones flexibles para ayudarlos a ser aún más productivos”.

Además, se muestra confiado en que esto le permita atraer a nuevos empleados. Personas que quizá no vivan cerca de sus oficinas. La compañía asegura que no quiere verse limitada por la ubicación y cree que esta nueva política laboral le permitirá atraer al "talento sin explotar de nuevas comunidades y geografías".

Por qué este cambio

Salesforce asegura que este cambio en su política laboral es consecuencia de este año de pandemia y de haber preguntado a sus empleados por sus necesidades durante todos estos meses. "El año pasado trajo consigo una transformación rápida y notable que nos ha cambiado para siempre", asegura.

No sorprendentemente, la mitad de los empleados quieren poder ir a las oficinas de vez en cuando, ya que casi ocho de cada diez quieren mantener una conexión con un espacio físico, ya que consideran que eso fomenta la conexión, la camaradería y la innovación entre los equipos cuando se ven en persona. Por eso, Salesforce también anuncia un plan para rediseñar sus oficinas y adaptarse mejor a este entorno de trabajo híbrido.

-
La noticia Salesforce se suma a un teletrabajo híbrido: “la jornada laboral de 9 a 5 ha muerto” fue publicada originalmente en Xataka por Arantxa Herranz .

Leer más