Producido por Jorge Lama, traemos las secciones de David Marzal, Pablo Arias, Thais Pousada, Víctor, David Pacios, Enrique Varela y como productor Jorge Lama.

  • 00:00 - Odisea en el ciberespacio, con David Marzal. Magazine de noticias.
    • Mejorada la introducción de valores de algunos plugins que daban problemas en Audacity.
    • Nueva versión de Anytime Podcast muy enfocada en accesibilidad.
    • Una web con artículos sobre la accesibilidad de los videojuegos. Y tiene feed RSS.
    • Web en ingles con un recopilatorio de leyes sobre accesibilidad en todo el mundo. En la UE por ejemplo habla como todos los paises miembros tienen que transponer la directiva 2018/882 para 2025 con varios enlaces para profundizar en las leyes.
      • En España nombra las leyes 19/2013, la 13/2022 y el Real Decreto 1112/2018.
    • NVDA por fin es capaz de reconocer e indicar cuando un enlace apunta al mismo documento, visto en Mastodon.
    • @cti_once@fedifeed.net sobre las novedades del CTI de la ONCE, en la que por ejemplo hacen reviews de aplicaciones accesibles en Android e iOS
    • Android 15 mejora la descripción de imágenes con Tallback
  • 06:19 - Accesibilidad web, con Pablo Arias. Nos habla sobre las tablas accesibles.
  • 15:27 - Otros mundos, otras realidades, con Thais Pousada. Códigos QR de Navilens.
  • 27:41 - Zona de testing, con Víctor. Analiza la distribución Linux Mint 22, con escritorio Cinamon.
  • 32:30 - Clases con Pascal, con David Pacios. Nos habla sobre la pobreza energética.
  • 49:37 - Érase una vez, con Enrique Varela. Comenta el eye-tracking.

Subtítulos disponibles en steno.fm si vuestra aplicación no los implementa.

Enlace a comentarios por si vuestra aplicación no los implementa.

Transcripción completa pinchando aquí
        
Y en la sección de 2024, una odisea en el ciberespacio, contamos 
como siempre con nuestro David particular, David Marzal. Hola, 
David. Buenas, Jorge y audiencia. Un 
placer estar aquí de nuevo en el episodio 10. 
Vale, pues una vez superadas pequeños problemas técnicos 
que hemos tenido al inicio del programa, vamos con la sección 
que nos traes hoy, David. Pues hoy es otro batiburrillo 
de noticias y artículos que he encontrado que me parecían 
interesantes y no podía dejar de traerlos aquí a mi sección. 
El primero, Audacity. Audacity tiene 500 plugins. De hecho, la 
versión 3 y pico han actualizado algunos que son en tiempo real 
y han modernizado. Y la cosa es que se habían 
quedado muy poco accesibles. Entonces, a partir de la 3.6.1, 
lo que han hecho es volver a hacer navegables que puedas 
tener el focus en varios plugins para que puedas usarlos 
sin tener que estar con el ratón. Ese es uno de ellos. Luego, 
siguiendo en Metapodcasting, hace poco ha salido la última 
versión de Anytime Podcast Player, que está para iOS y 
para Android. Y toda la actualización va enfocada 
en una review de accesibilidad que le han hecho. Aparte, es 
una aplicación un poco especial porque casi todas las 
aplicaciones son en modo inbox, en modo bandeja. 
En plan que tú te suscribes, te van entrando los nuevos y eliges 
cuáles sí y cuáles no. Esto es diferente porque o yo no he 
encontrado la manera o tú solo puedes entrar y ver el listado 
de podcasts que tienes. No tienes vista de episodios. 
Entonces, tú eliges, pues hoy quiero ver este podcast. 
Entonces, vas al podcast y ves si tienes nuevos episodios. 
Pero no hay una manera de ver los episodios nuevos sueltos. 
Se ve que es una manera que a ellos les gusta de entender 
cómo se escucha el podcasting. Y la cosa es que ahora debería 
ser mucho más accesible por si le queréis dar una prueba. 
¿Qué más cosas traes hoy? Pues me encontré con una 
página web que me hubiera venido muy bien en mis tiempos de jugón, 
pero ahora ya no me da la vida, que se llama Can I Play That? 
En español sería puedo jugar eso. Y van haciendo artículos 
y tienen como un score, una puntuación sobre si los juegos 
son jugables de manera accesible o no. 
O sea, ellos te van diciendo, pues este juego puedes jugar 
aunque no puedas verlo. Este juego puedes jugar aunque tengas 
problemas con alguna mano. Y aparte, que está muy bien 
para dentro del podcasting, tiene un feed RSS. Entonces, 
tú te puedes suscribir y te puedes ir viendo cuando analizar 
un juego o puedes entrar directamente y buscar un juego 
en concreto. Y saber si, dadas tus circunstancias, 
ese juego es jugable o no. Es un poco como el Steam Play de 
si puedes jugar en Linux o no, pero para la accesibilidad. 
Hay que decirles que simplemente en la sección de 
si soy papi o tengo otras quehaceres, puedo juzgar o no. 
Juegos solo que permiten 10 minutos al día. Y luego tengo 
una parte un poco burocrática para la sección. 
He encontrado una web que está en inglés, pero está bien 
porque los enlaces te van a cada país, con lo cual la 
parte de España está en español, 
que lo que hace es un recopilatorio de leyes sobre accesibilidad en 
todo el mundo. En la UE, por ejemplo, habla de 
cómo todos los países miembros tienen que transponer la directiva 
2018/882 para 2025. Cómo tiene que profundizar 
cada país en esa ley. Por ejemplo, si tú te vas, porque 
tienes todos los países por etiqueta. 
Entonces tú puedes alzar al país en concreto y en España 
a hablar sobre la ley 19-2013. Y entonces tú puedes ir viendo 
ley a ley. ¿Qué dice? Por ejemplo, nosotros tenemos 
toda la información, será comprensible, de acceso fácil 
y gratuito. Y estar a disposición de las 
personas con discapacidad en una modalidad suministrada por 
medio o en formatos adecuados, de manera que resulten accesibles 
y comprensibles conforme al principio, accesibilidad 
universal y diseño para todo. Entonces tiene ley a ley cada 
artículo que habla sobre la accesibilidad. 
Entonces yo en las notas del programa dejaré los que he 
encontrado en español, para no aquí aburriros mucho contando 
de ellos, pero yo creo que está bien mirarse 
por encima las leyes, porque de vez en cuando yo lo que escucho 
siempre en podcast de accesibilidad es que no se defiende, no hay 
suficiente reivindicación. Y el primer paso para poder quejarte 
y poder conseguir que las administraciones o las empresas 
se impliquen un poco es conocer las leyes que ya 
existen. Y este me parece un buen recurso. 
Efectivamente. Vale, luego volvemos al tema de 
tecnología, que es que NVDA, que imagino que todo el mundo 
que escuche este podcast lo conocerá, 
pero si no es como el Orca en Linux, pues es un lector de 
pantalla para Windows, que es software libre. 
Pues había una reivindicación muy antigua que me he encontrado 
en Mastodon, alguien celebrando que ya la han arreglado, 
que es que no podía reconocer y no te indicaba cuando un enlace 
apuntaba al mismo documento. O sea, se ve que sí tenía los 
hipervínculos cuando te iban a abrir otra página o otro 
documento, pero los anchors, las anclas, 
no te las indicaba. En plan, si pinchas aquí, vas 
a bajar a otra parte del documento. 
Y se ve que eso ya lo han arreglado. Luego, tenemos algo del fe 
diverso, que a mí es donde yo consumo y encuentro la mayoría 
de noticias, y es que hay un bot sobre las 
novedades del CTI de la 11, en la que, por ejemplo, hacen 
review de aplicaciones accesibles en Android y en iOS. 
Entonces, en vez de estar mirando la página de la 11 cada 2x3 
viendo si sacan algo, pues tú te puedes suscribir o 
seguir a este bot, que es @cti_once@fedifeed.net 
Feed con dos E como feed. Y entonces, pues él te va 
diciendo que a veces que hay un artículo de, 
mira, la ONCE ha hecho un análisis de esta aplicación que viene 
muy bien para algo y es accesible. Y no te escribe mucho, a lo 
mejor hay una cada dos semanas y está interesante. 
Y luego, para despedirme, simplemente una mención, en 
que ha salido Android 15, que parece ser que mejora 
bastante la descripción de imágenes con Talbac, 
que ese es el tema que tiene Android de locutar o de lector 
de pantalla, creo que es el equivalente a 
VoiceOver en iOS. Pues hasta aquí la sección de 
2024 con David Marzal. Y en la sección de accesibilidad 
web contamos, como siempre, con Pablo Arias. Hola, Pablo. 
Muy buenas, Jorge. ¿Cómo vamos? 
Bien. Hoy creo que nos vas a hablar de tablas. 
Efectivamente. Quiero hablaros de tablas HTML. 
¿Qué hacer tablas? Pues todo el mundo sabe, pero hacerlas 
accesibles, bueno, pues hay que saberlo desde el principio 
y así podremos hacerlas accesibles sin problema ninguno, para que 
todo el mundo pueda entenderlas. Pues cuéntanos los secretos, venga. 
Pues mira, básicamente todo el mundo sabe que para hacer una 
tabla, o los que nos dedicamos a esto de hacer webs, 
para hacer una tabla, pues abres la etiqueta HTML Table y dentro 
defines las filas y dentro de las filas las columnas. 
Entonces con la etiqueta TR defines una fila y dentro de 
esa fila creas columnas con la etiqueta TD. 
Hasta aquí todo sencillo. Bueno, pues algo que hay que 
tener en cuenta es que la fila de los encabezamientos, 
en vez de ser con una etiqueta TR normal, lo ideal es utilizar 
la etiqueta TH. Eso define que eso es un encabezado. 
Entonces, dentro de la etiqueta TH, luego definimos las celdas 
con la etiqueta TD. Y con esto, en principio, pues 
podemos hacer una tabla sencilla que tenga definidas los encabezamientos. 
Ahora podremos hablar sobre tablas un poco más complejas, que 
tengan encabezamientos en la parte superior, 
a lo mejor encabezamientos también en un lateral, podemos 
hablar incluso de tablas que tengan dos filas de encabezamientos. 
Ahora podemos meternos en complejidades, pero esta es la 
esencia. Además, fuera de la tabla, 
para que sea accesible también, hay que describirla. 
Es decir, ¿qué me estás mostrando? ¿Esta tabla de qué va? 
Entonces, para eso podemos utilizar la etiqueta CAPTION. 
Que si no nos viene bien utilizar la etiqueta CAPTION, 
pues por el motivo que sea, que no quede bien estéticamente 
en nuestra web o porque no está exactamente la descripción 
de la tabla en el mismo lugar que la tabla 
o lo que sea, pues lo que podemos hacer es utilizar 
algún atributo que sirva para decir que este párrafo, 
por ejemplo, es la descripción de la tabla. 
Que a veces pasa mucho, pues mira, esta descripción de la 
tabla va dos párrafos antes. Bien, pues ahí ese lo marcamos 
con la etiqueta ARIA DESCRIBED BY. 
Entonces, lo que conseguimos con esto es que el lector de 
pantallas sepa cuál es el párrafo que describe el contenido de la 
tabla, ¿no? Aparte de esto, pues es 
interesante tener en cuenta algunas claves. 
Por ejemplo, la descripción de la tabla, lo suyo es explicar, 
¿no? ¿Qué contiene esta tabla? 
Pues mira, por ejemplo, esta tabla contiene, pues, la edad 
de unas personas, su nombre y su fecha de nacimiento, 
por decir algo, ¿no? Entonces, pues la gente ya sabe, 
ah, vale, me voy a encontrar, pues, estas tres columnas. 
Perfecto. Y luego, cuando el lector de 
pantallas, por ejemplo, le lea la tabla, pues ya va a saber de 
qué trata y ya va a entenderla mucho 
mejor. Si nosotros tenemos que definir 
unos encabezados un poquito más complejos, 
vease que además del nombre, la edad y la fecha de nacimiento, 
tenemos otros encabezamientos, como por ejemplo, pues a lo 
mejor es que quiero que el nombre 
también forme parte del encabezamiento, pues porque es relevante, ¿no? 
Y quiero que ese nombre forme parte del encabezamiento de la 
tabla, que aparezca como relevante. En plan, este es el nombre de 
Ana, que tiene, pues, 10 años y nació en tal mes de tal año. 
Perfecto. Lo que tenemos que hacer es marcar 
las columnas del nombre con la etiqueta TH para indicar 
también que eso es encabezamiento de tabla. 
Y, por tanto, el lector de pantalla podrá hacer una lectura 
más acertada de lo que es el dato. 
Por ejemplo, podrá decir, pues, el nombre de la persona y su edad, 
el nombre de la persona y, a continuación, su fecha de nacimiento. 
Y así sucesivamente, porque lo interpretará como que es un 
encabezado más. Si no, pues dirá, nombre, pues 
Ana, edad, 5 años, 10 años. Fecha de nacimiento, pues abril 
del 2014. De la otra manera, si ponemos 
con el nombre, del nombre de la persona como encabezamiento, 
pues te dirá, Ana, edad, 10 años. 
Ana, fecha de nacimiento, pues 5 de abril del 2014. 
Y te dirá todos esos datos para ser más concreto y que se 
entienda mejor. Además de esto, pues, la 
verdad es que se puede hacer más compleja la tabla. 
Podemos incluso definir lo que es dentro de la tabla. 
Hay etiquetas para definir lo que es los encabezados. 
Como hemos visto, incluso se pueden agrupar en la etiqueta TG 
los datos en la etiqueta TBody. Además, podríamos tener un 
pie de tabla que sea con la etiqueta TFoot. 
Este tipo de etiquetas, pues, ayudan a identificar mejor lo 
que es el contenido de la tabla, ¿no? 
Aquí tengo una duda, Pablo. Sí, dime, dime. 
Cuando, en vez de una tabla normal, ya pasamos a hablar de 
una hoja de datos o una factura, por ejemplo, una celda que sea 
un sumatorio de una columna, ¿cómo la definirías? 
El sumatorio, pues, a lo mejor puede venir dado por... 
Todo depende del tipo de sumatorio. Por ejemplo, si es una factura 
y queremos que haya un único sumatorio al final de todo, 
yo creo que eso forma parte simplemente de... 
Es una fila más que incluye un dato diferente. 
Entonces, tendrá que tener un encabezado que diga, pues, este 
es el sumatorio. Y luego, en una celda, pues, 
que probablemente coincida debajo de todos los precios, 
tenga el dato del sumatorio, ¿no? Pero, previamente a eso, ponerle 
un encabezado que diga, pues, sumatorio. 
O que diga total, o que, bueno, la palabra que queramos describir. 
Pero acompañarlo, acompañarlo de un dato, de un encabezado, 
de un TH, que indique que ese es el sumatorio. 
¿Vale? Si queremos, por ejemplo, que 
imaginemos que tenemos una tabla larga y esa tabla, pues, puede 
llegar a, pues, no sé, imprimirse. O que puede llegar a estar, 
digamos, dividida en varias páginas, pues, para eso sirven los encabezados, 
el TGED y el TFUT. Porque si llega a, imaginemos 
que la imprimimos y esa tabla sale en dos folios. 
Entonces, lo que es el encabezado y el P de página, se van a 
repetir en cada folio, con los datos en el medio, ¿no? 
Por eso es interesante utilizar estos atributos. 
Pues, estas son las directrices esenciales para hacer una tabla 
accesible, ¿no? Que luego, ¿hay tablas mucho 
más complejas? Sí, efectivamente. 
Pues, a veces hay tablas con encabezados irregulares. 
O con esta, como tú dices, de un sumatorio. 
Que dices que, pues, que al final de todo quiero poner la 
suma. Quiero poner la suma del IVA. 
Y quiero poner el total. Bueno, pues, hay que tratar de 
identificar bien, con etiquetas, qué es cada una de esas cosas, 
¿no? De esta manera, pues, cualquiera 
los podrá entender. A veces, simplemente ponemos 
las cifras, una línea horizontal y reducimos que eso 
ya se entiende que es la suma. No, pues, tratemos de poner a 
mayores unas palabras que lo indiquen. 
Aparte de esto, bueno, lo que decía, siempre puede haber tablas 
que se nos vayan un poquito de las manos en cuanto a complejidad. 
Claro, claro que puede haber. Entonces, pues, tendremos que 
ver un poquito la manera de hacerlas accesibles. 
Qué parte es encabezado, qué parte no. 
Incluso, se pueden utilizar agrupaciones, ¿vale? 
Hay etiquetas para decir, bueno, esta tabla, por ejemplo, tiene 
unos encabezados que son un poco irregulares. 
Pues, se puede utilizar los valores call group y row group, 
¿vale? Para tratar de agrupar, decir, 
oye, pues, mira, todo esta parte son encabezados. 
O toda esta parte de filas también son encabezados. 
Hay tablas complejas, todos los hemos visto en hojas de cálculo 
que tienen, pues, a lo mejor en la parte superior dos filas de 
encabezados. Y la parte de arriba, por 
ejemplo, te pone, pues, vamos a ver, el total, pero ese total 
se divide en dos columnas. Pues, el sin IVA y con IVA, por 
decir algo, ¿no? Entonces, pues, ese encabezado 
es un poquito más complejo. Pues, lo vamos a conseguir 
describir bien con esto que os decía de agrupar, pues, en filas 
o en columnas esos encabezados. Entonces, bueno, este es un 
poco un resumen. Si te interesa y tienes tablas 
muy complejas para describir, pues, te recomiendo que le eches 
un vistazo a la normativa de la W3C. 
Y hay páginas donde te ayudan a hacer las tablas accesibles. 
Pero, en resumen, describe la tabla. 
También, además de poner un resumen de qué va la tabla, 
pues, pon los encabezados correspondientes para que sea 
fácil de entender la tabla. Esta es un poco la conclusión. 
Pues, bien, pues, hasta aquí la sección de Pablo. 
Y en la sección de Otros mundos, Otras realidades, contamos, 
como siempre, con Tais Pousada. Hola, Tais. 
Hola, ¿qué tal? Y después de este pequeño parón 
que has hecho, que has estado unos meses sin publicar nada, 
no has pasado por aquí, ¿qué nos traes esta vez? 
Pues, efectivamente, un parón veraniego y ahora que viene el 
mal tiempo, pues, regreso a la gruta. 
Y, bueno, un poco buceando y, últimamente, que viajo 
bastante a Madrid, pues, me gustaría hablaros de Navilens. 
Navilens son unos códigos que podéis ver en diferentes 
lugares desperdigados por ahí. Y te preguntarás, Jorge, 
aunque sé que has hablado de ello, ¿qué es Navilens y qué 
puede aportar a las personas con diferentes capacidades, ¿no? 
Sí, vamos al asunto. Navilens surge de una startup, 
como, bueno, como todas estas ideas de desarrollo, en su origen, 
pues, pretendían facilitar la movilidad y la orientación a 
personas con déficit visual o ceguera completa. 
Todas conocemos los códigos QR, Quick Response, que nos permiten, 
a través de un lector, la cámara del móvil o el Google 
Lens, acceder a diferente contenido online, ir a una 
página web o acceder, pues, eso, a diferentes páginas o 
aplicaciones. ¿Qué ocurre con los códigos 
QR? Bueno, pues, que necesitamos enfocar relativamente cerca, 
necesita que el móvil tenga una determinada orientación 
con respecto al código, necesitas estar a una distancia, necesitas 
cierta luz, etcétera, ¿no? Que no son demasiado accesibles, 
por todo lo que estás contando. Efectivamente, claro. Por eso, 
las personas que no tengan capacidad visual o que tengan 
muy baja visión, claro, al tratar de enfocar con su teléfono 
móvil estos códigos, pues, o enfocan mal o no alcanzan a 
realizar la decodificación, ¿no? Entonces, por eso se creó esta 
alternativa. Los naviles, si lo veis así, como están expuestos, 
veréis que son coloridos, ¿vale? Es como un QR, tiene forma de 
QR, efectivamente, pero en vez de ser blanco y negro, pues, 
son códigos, es un código de barras, igualmente, pero con 
colores. ¿Qué implica este navilens? A 
simple vista, no implica nada, ¿vale? Porque yo, si voy por 
Madrid, por ejemplo, y lo veo en una estación de autobús, 
puedo decir, qué bonito, ¿vale? Lo puedo escanear con mi cam 
del móvil, sí, pero ¿me va a acceder a algún sitio? No, ¿vale? 
Entonces, previamente a utilizar los códigos naviles, 
necesitamos instalar una aplicación en el móvil. 
Y tienen, ahora mismo, tienen dos. Tienen la aplicación Navilens, 
que es específica para personas con discapacidad 
visual y que esta Navilens sencilla, por llamarlo de alguna forma, 
lo que hace es ofrecer señaléctica e información visual a las 
personas que no ven. Y luego está la Navilens Go, 
que es la que se está implementando más y la que 
están instalando más en lugares como estaciones de 
metro, estaciones de tren, paradas de bus, etc. 
Y que da información en tiempo real sobre salidas, llegadas, 
estado de la red, tiempos de espera para el siguiente tren o 
el siguiente bus, ¿vale? Es decir, que ofrece una 
información pro, por decirlo de alguna forma, a esa señaléctica 
y a esa localización. Bueno, de las experiencias que 
hay instaladas, pues, yo os puedo comentar que aquí en 
España están, pues, en Madrid, en un montón de estaciones de 
metro y de paradas de autobús. También se han implementado 
los transportes metropolitanos de Barcelona, tranvía de Murcia 
y en el teatro también de Murcia, en la zona de Valencia también 
están. Lo que permiten estos códigos 
es, por una parte, que cualquier persona con discapacidad 
visual que tenga la aplicación y que apunte con su móvil 
hasta 15 metros de distancia, con cualquier luz, con 
cualquier orientación, capta al instante ese código, 
¿vale? Es muy fácil de captar el código con la aplicación. 
Sin necesidad de enfocar ni nada, nada. 
Sin necesidad de enfocar ni de estar cerca del código. Es 
decir, que puedes estar a unos 15 metros de distancia, que 
pone aquí. Incluso en movimiento. Es decir, 
que a veces se te mueve el móvil o que tiembla el móvil y tal, 
permite también esa lectura. Sí. Es decir, que facilita la 
lectura de un código. Y luego, en la decodificación, 
va a dar información, tanto a las personas con discapacidad 
visual de orientación en el espacio. 
Es decir, hacia dónde tienen que ir, por ejemplo, en una estación 
de metro, hacia dónde tienen que ir, siguiendo también los 
paneles podotáctiles, ¿no? Para coger una u otra línea y 
en qué sentido. Y luego, también ofrece 
información sobre los tiempos de espera, sobre las salidas 
próximas, las llegadas de trenes o de buses, etc. 
Entonces, esto que se creó pensando sobre todas las 
personas con discapacidad visual, yo lo veo muy, muy 
útil para personas que tienen discapacidad cognitiva. 
¿Por qué? Porque facilita muchísimo la 
comprensión y la interpretación de la información. 
Y permite ir a diferentes espacios de una forma guiada. 
Bueno, la aplicación, lógicamente, tiene salida de voz para narrar 
toda la información que está captando ese código y es 
totalmente gratuita. La página web de NaviLens 
establece ejemplos de uso de diferentes espacios urbanos, 
pero también establece experiencias con, por ejemplo, 
y perdonad que comente la marca, pero es lo que tiene aquí, que 
es Coca-Cola o los cereales Kellogg's que incorporan códigos 
NaviLens en sus envases. Un poco para ofrecer 
información sobre, pues, las componentes, propiedades nutricionales 
de estos alimentos, ¿no? Bueno, no queda ahí la cosa, 
sino que en el último año han sacado un conjunto de kits 
gratuitos. Kits gratuitos que son conjuntos 
de códigos que se pueden instalar, por ejemplo, en una asociación 
o que se pueden instalar en un centro educativo 
y que esos códigos en el centro educativo son mínimamente 
configurables, ¿vale? Con una información adaptada a 
ese entorno de un coli, por ejemplo. 
Y, además, tiene como una subpata que se llama Accessible QR Code 
o código QR accesible. Lo digo en inglés porque queda 
más, como más profesional. Esta es una patita que sale de 
NaviLens y te comento, Jorge, lo que implica y es que 
nosotros, por ejemplo, este podcast, ¿no?, que se 
transmite a través de diferentes plataformas, pues, 
nosotros podemos generar un código QR 
para, pues, que escanee con el móvil, yo escanee con el móvil 
y acceder directamente a la plataforma donde está volcado 
el podcast. El código QR te sigue siendo 
un código estándar, vale, pues, NaviLens permite también 
transformar cualquier código QR en un código NaviLens. 
Código NaviLens que implica todas las propiedades y 
características que tienen esos códigos. 
Lo que comentaba antes, que puede ser aplicado sin enfocar, 
a cualquier distancia, con cualquier luz e incluso en 
movimiento. Y que reporta una información 
auditiva a personas con discapacidad visual. 
Vale, es decir, que NaviLens no es solo códigos que orientan 
en el espacio y que dan información auditiva a 
personas con discapacidad visual. 
Permiten también una fácil escaneo e identificación y que 
permiten transformar cualquier código QR estándar que generemos 
nosotros para trasladar información a un código NaviLens. 
Vale, y aquí con este código NaviLens, pues, la información 
también se traslada al formato visual. 
Perdón, al formato auditivo. La desventaja de este NaviLens 
código QR accesible es que tienen un límite de 10 códigos. 
Es decir, que yo como persona independiente o cualquier 
institución, asociación, empresa, etcétera, puede crear 
hasta 10 códigos NaviLens de forma gratuita. 
A partir de los 11, pues, habrá que contactar con los desarrolladores 
para preguntarles cuál es el importe. 
Pero, en principio, hasta 10 son gratuitos. 
Sí, la tecnología me parece muy buena, pero bueno, faltaría 
que la liberaran para poder darle. 
Totalmente, efectivamente, libre, ¿no? 
Que es lo que siempre, bueno, al final yo aquí traigo cosillas 
que son gratuitas, que me parece interesante porque son 
accesibles a la población. Pero es cierto que fallan 
todavía en esa liberalización del código para que sean 
totalmente abiertas, ¿no? Sí, porque es una gran ventaja 
que una cámara a 15 metros sin enfocar, pues, sea capaz de 
detectar el código y hacer cosas. 
Lo que me parece raro es que no haya ninguna universidad o otro 
tipo de instituciones que no estén investigando cosas parecidas 
a día de hoy. La idea me parece muy buena. 
Yo lo que estuve navegando un poco por su web y viendo sus 
desarrollos y tal, en principio, no hay detrás ninguna universidad. 
Bueno, sí, está la Universidad de Alicante, pero es en 
realidad una startup esto. Sé que tienen financiación 
del Ministerio de Economía, pero no tienen soporte detrás 
de la universidad. Y tampoco conozco experiencias 
de desarrollo a nivel académico, ¿eh? 
Bueno, vuelvo a insistir, me parece una idea muy buena. 
Sería estupendo si alguien hiciera algo parecido y se pudiera usar 
libremente en cualquier ámbito de situación. 
Efectivamente. Y la próxima vez que vayáis Madrid, 
Barcelona, Valencia o Murcia, fijaros en las estaciones de 
tren, de metro o paradas de autobuses y veréis estos códigos coloridos 
y ahora ya sabréis para qué sirven. 
Pues hasta aquí la sección de otros mundos, otras realidades, 
contáis pausada. Nada, Jorge, muchas gracias y 
nos veremos para el próximo mes. 
Bueno, Jorge, cuando estaba probando Linus Mint Cinnamon, 
me vino a la mente una canción de Rumba 3. 
Aquella canción decía, ¿qué tienen tus ojos que me vuelven 
loco? Pues eso es lo que percibo yo 
cuando hablan de Linus Mint, en concreto la 22, con el escritorio 
Cinnamon. Pues la he probado en un 
monitor de 55 pulgadas, sí, de 55 pulgadas. 
Bueno, normalmente lo pruebo en otra máquina, no ha sido 
posible. ¿Cuál ha sido mi experiencia? 
Pues ya iré contando. Decir que esta distribución va 
dirigida a un perfil general, tiene un perfil generalista. 
Yo no voy a entrar en el rendimiento, que es bueno y como curiosidad 
respecto a otra ISO, incluso a la versión XFD, 
carga todo en RAM. Si tienes bastante RAM, va a ir, 
la experiencia va a ser rapidísima. El problema que tiene Linus 
Mint es que la accesibilidad, en concreto en Cinnamon, no 
existe. Yo no la he visto. 
Bien, al arrancar la ISO, bueno, pues una pantalla que si tienes 
un resto visual mediano, digamos que puedes arrancar. 
Llegas a arrancar. Una vez arrancado, todo el escritorio 
cargado, todo se ve bien. Vale. 
El escritorio, pues pruebo con ciertas teclas a ver si hay 
zoom, porque no aparece en la carga ninguna indicación sobre 
si hay algún activo de accesibilidad. Por lo menos, no, es que no veo 
ninguna. Si me permiten el símil, 
puedes tener una casa adaptada para una persona con movilidad 
reducida, pero si esa casa tiene escaleras, cero rampas o 
necesitas un elevador que no está, me pregunto si eso es 
realmente accesible. Pues eso le pasa a Linus Mint, 
que cargo el escritorio y haciendo un poco de trampilla, 
porque sé lo que tengo que buscar. 
Puedo cambiar la resolución, pero es que es realmente incómodo 
para cambiar el idioma. Tengo que ir sabiendo lo que 
busco al tiento. Yo me pregunto si no era 
posible mejorar esto. A veces me pregunto y dicen, afirman 
en muchos canales que quizá, quizá el equipo de Linus Mint 
debería centrarse en su escritorio, en Cinnamon. 
En mejorarlo, en evolucionarlo y prescindir de otros escritorios. 
Es posible que sea una decisión inteligente. 
Como ya he comentado, el magnificador o zoom de escritorio 
no funciona. El tomatazo, tampoco. 
El puntero, se ve poquísimo. Si en la jungla todo es verde y 
marrón, pues si quieres pasar desapercibido, tienes que ir 
vestido de verde y marrón. ¿Cómo es el escritorio? Blanco 
y negro. Predominan esos colores, ¿verdad? 
¿De qué color es el puntero? Blanco y negro. 
Perfecto para pasar desapercibido. Tiene todos los papeletos para 
ello. En la mayoría de entornos 
gráficos donde hay ventanas, pues hay una opción de Alt 
más espacio donde aparece el menú de ventana. 
Bien, pues por algún motivo puedes mover los cursores hasta 
buscar la opción que deseas. Como puede ser cerrar la ventana. 
Pero está al final, abajo. Normalmente, este menú, si 
quieres ir a la última opción que es cerrar la ventana, no 
necesitas ir con el cursor hacia abajo. 
Directamente pulsar hacia arriba y apareciesen en la 
parte de cerrar esa ventana. Pues no. 
Aquí hay que seguir el caminito hasta esa opción. 
¿Qué más podría decir? Que no se lo recomendaría a 
nadie que tenga un problema de baja visión. 
Que es muy tedioso si no ves y porque contamos con la ventaja 
o trampilla que yo sé lo que tengo que buscar. 
Una persona que no ha visto Linux en su vida y que tiene 
una baja visión, no le sirve. Si ya la versión de XFC en 
Mint flojea respecto a esa tan criticada Ubuntu, no te cuento 
lo del cinamón. Mejor probarlo vosotros. 
Hagan una prueba un día. Una de estas gafas de juguete, 
emborrónenla y arranquen el entorno gráfico que ustedes usan. 
Cuénteme la experiencia. Quizás mejor empiecen a 
entender el problema de la baja visión. 
Hasta la próxima. Y estamos en la sección de clases 
con Pascal, aunque se hace llamar también David Pacios. 
Hola, David. Hola. 
Muchísimas gracias por otra oportunidad para aquí contar 
todas mis cosas y voy a comenzar. Con permiso. 
Muy buenas y bienvenidas a esta pequeña sección de clases con 
Pascal. Yo soy el doctor David Pacios, 
aunque en la universidad me conocen comúnmente como Pascal. 
De ahí el nombre de la sección. Hoy quiero abordar un tema que 
me llamó profundamente la atención durante la pandemia 
y que ha sido recurrente en muchísimas de mis charlas y 
entrevistas, lo que yo denomino pobreza energética. 
Aunque pueda parecer un tema repetitivo, considero 
fundamental insistir en él ya que afecta directamente 
a la accesibilidad y la equidad en la educación. 
Para introducir un poco. La pobreza energética es un 
concepto que realmente es como lo denomino yo. 
Es un concepto que engloba varios aspectos importantes. 
En el primer lugar, incluye a personas que no tienen acceso a 
tecnología en las mismas condiciones que otras. 
Esto puede deberse a la falta de dispositivos adecuados como 
ordenadores o teléfonos móviles o a la insuficiencia de infraestructura 
tecnológicas como conexión a internet de baja calidad 
o limitadas. Además, este concepto también 
abarca a quienes, aunque tengan ese acceso a la tecnología, 
no cuentan con equipos lo suficientemente modernos o potentes para seguir 
una clase en línea de manera eficiente. 
Esto, por ejemplo, si damos una clase con un campus virtual y 
una máquina virtual, un pequeño sistema operativo 
al lado, digámoslo así, y yo le digo al alumnado, al estudiantado, 
ahora escribid este comando. Pues si no tienes dos pantallas 
es bastante más complicado de lo que parece. 
Si me dejes hacer un pequeño comentario. 
Sí, sí, por favor. Estos temas que también los 
hemos analizado en varios ONGs en las que colaboro también, 
normalmente lo relacionamos con el tema del derecho al agua, 
derecho a la vivienda. Entonces también hablamos del 
derecho al acceso a la información o a las nuevas 
tecnologías. Sí, es que realmente es una 
cosa que yo no había pensado en su momento, 
cuando estaba dando todas estas clases y cuando de repente, de 
la noche a la mañana, teníamos que dar clases online. 
Yo tenía dos pantallas, para mí era algo extremadamente 
intuitivo y decir, bueno, pues lo ponéis en la 
otra y sobre la otra trabajáis. O no, no, ponemos la cámara 
web y tenéis que tener un espacio diáfono para hacer el 
examen. ¿Y si la persona no lo tiene? 
Por esa razón, hoy quiero poner el foco en estas personas, 
ya que son las que más necesitaban estas adaptaciones para acceder 
a un material educativo accesible y de calidad. 
Me acuerdo de que este problema se hizo especialmente evidente, 
sobre todo en los primeros días de la pandemia, para 
contextualizarlo un poco, en épocas pasadas. 
Recuerdo claramente como de un día para otro, 
muchas personas quedaron atrapadas en mi ciudad natal sin poder 
regresar a sus hogares, debido a restricciones de movilidad. 
Algunas se volvieron obligadas, perdón, se vieron obligadas a 
quedarse en sus colegios mayores o pisos de alquiler, 
donde las condiciones no siempre eran las ideales para 
poder estudiar. Literalmente, muchos estudiantes, 
mucho estudiantado no tenía acceso a un router propio 
y dependían de la conexión a internet comunitaria de la residencia. 
Y esto era un problema, porque si yo daba las clases, por 
ejemplo, a través de Discord o a través de cualquier otro 
tipo de plataforma, es muy probable que no pudieran 
acceder porque lo tuvieran capado. O sea, estaba prohibido acceder 
a ese tipo de sistemas. Nos obligaban a través del 
campus virtual o de herramientas a lo mejor menores. 
Era un desafío, un desafío significativo para estas 
personas y para otras muchas. También quiero poner el punto 
del foco en otras clases que tuvimos en Latinoamérica, 
porque nos dimos cuenta de que el problema no era exclusivo de 
una región o país. Muchos estudiantes en 
diferentes partes del mundo no tenían ordenadores adecuados 
para hacer este streaming de alta calidad 
o en muchos casos ni siquiera podían reproducir un vídeo 
con la calidad de audio necesaria. Entonces este tipo de limitaciones 
nos hizo reflexionar profundamente sobre la importancia de la 
accesibilidad a la educación. Una de las primeras adaptaciones 
que intentamos fabricar fue intentar explorar uno de 
los formatos de vídeo más famosos que se llama Matroska. 
Este vídeo es muy probable que muchas de las personas que nos 
están escuchando lo hayan tenido en su ordenador. 
Es ese formato que aparece con un punto MKV, 
que literalmente se llama Matroska, porque es como estas muñecas a 
las que le puedes meter un montón de cosas dentro, 
o las mismas propias muñecas. O sea, puedes meter un vídeo 
dentro de otro vídeo, o tener ese mismo vídeo con un 
montón de pistas de audio para poder escucharlo en 
inglés, en español, en el idioma que quieras, 
con subtítulos. O sea, a mí me flipaba cuando 
yo aprendí. Esto es una maravilla. 
Esto es increíble. Digamos que es como un contenedor, 
¿vale? Para que se entienda más o 
menos bien. Es un contenedor que encima me 
permitía a mí reducir el tamaño de los archivos 
sin perder demasiada calidad. Por lo tanto, este formato me 
fue muy útil al principio de la pandemia 
para grabar mis clases, para poder bajar la resolución 
de 1080, o sea, lo que es una pantalla 
actual más o menos normal, a un formato un poquito más 
reducido, 720, que es la mitad, y otro que es aún más reducido, 
la mitad, 480. Esto nos permitió ofrecer 
versiones de los vídeos de nuestras clases, 
aunque menos detalladas visualmente, seguían siendo útiles. 
Por ejemplo, para que una persona con baja conexión 
pudiera bajarse ese vídeo sin gastar muchos datos 
y sin gastar dinero y poder ver ese vídeo 
en su ordenador o en su teléfono móvil. 
Sin embargo, para continuar un poco el avance de esta 
tecnología, nos dimos cuenta de que reducir 
el tamaño del vídeo no era suficiente. 
La calidad del audio también debería de ser excepcional, 
especialmente para aquellas personas 
que tuvieran a lo mejor trastornos hipoacústicos, 
pero en ese momento no teníamos la tecnología desarrollada 
para poder hacerlo. Así que se me ocurrió una 
idea alternativa, que es usar una cosa de la que 
siempre hablo, LaTeX, lo que vulgarmente yo llamo 
LaTeX. Es un lenguaje de tipado de 
textos, que vulgarmente es un lenguaje 
de programación para escribir textos como si 
fuera Word, pero súper vitaminado y libre, 
para hacer PDFs. Y, bueno, también se pueden 
hacer páginas web y otras cosas. 
Digamos que desarrollé una técnica 
que me permitía incrustar vídeos, 
fotograma por fotograma, dentro de los PDFs, 
para poder subtitularlo en tiempo real. 
Esta técnica me permitió crear documentos en PDF 
que no solo contuvieran el texto de la clase, 
sino pequeños fragmentos de vídeo 
o pequeños fotogramas con subtitulado en tiempo real. 
Esta tarea, la verdad es que me fue, 
me costó muchísimo desarrollar esta biblioteca, 
desarrollar todo esto, pero seguía sin ser perfecto 
porque tú puedes bajarte ese PDF 
y a lo mejor puedes leerlo, pero teníamos un montón de 
personas que a lo mejor tenían baja visión 
o directamente que no tenían capacidad de visión 
para poder ver este tipo de PDFs. Entonces teníamos que seguir 
un paso más adelante. Entonces comenzamos a fabricar 
un sistema de mejora de audio. 
Y aquí es donde comenzamos a estudiar una cosa importante 
para la mejora de audio, que fueron la microfonía. 
Y aprendimos un montón de cosas con la, 
por ejemplo, como que el micrófono interno 
del propio ordenador captaba los sonidos de forma 
omnidireccional. Esto significa 
que captaba todos los sonidos de alrededor 
y eso hacía que si tuvieras eco-reverberación 
tuvieras una calidad de sonido horrible. 
que esto ya era extremadamente fastidioso 
para que el alumnado te escuchara o mantuviera la atención 
porque están acostumbrados, acostumbradas realmente 
a un nivel de calidad de audio de streamers, 
de estar en Twitch o en Youtube todo el día. 
O sea, ¿con qué cara me presento yo 
para dar una clase con una calidad de sonido 
horrible? Pues lo estudié. 
Y resulta que haciéndole un par de modificaciones 
al micrófono físicas podía hacerle que tuviera una 
cosa que se llamaba patrón polar 
cardioide para tener una calidad de audio 
extrema. Y me puse a estudiar dicción, 
microfonía, podcasting, 
estudio de audiolibros para poder generar un audio 
de alta calidad. Y al final, 
estudiando estas técnicas, recurrimos a la grabación en 
FLAC, que es un formato sin pérdida 
que era perfecto, perfectísimo 
para todas aquellas personas que tenían a lo mejor 
unos speakers, unos audífonos, 
unos auriculares buenos para poder adaptar 
la hipoacusia para que escucharan 
toda la clase con la extrema calidad posible. 
Era increíble cuando lo aprendí a hacer. 
Ese tipo de grabación pues con el propio programa 
de, por ejemplo, de la Audacity 
o con algún otro que me fabriqué yo 
para poder grabar en formato sin pérdida. 
Y solo mandar eso era increíble para mí. 
O sea, yo sé que 
todas las personas que a lo mejor 
no pueden estar escuchando dicen, 
bueno, yo estoy acostumbradísimo 
a hacer esto todos los días o a verlo sin pérdida 
porque el propio a lo mejor 
Apple Music u otros formatos 
te lo da, pero para mí 
era magia poder dar ese sistema 
de calidad aunque solo fuera 
una persona. ¿Y hacíais algún tipo 
de edición a posteriori del audio? 
Me encanta esa pregunta porque sí, 
sí, estudié muchísimo 
y hice dos tipos de modificaciones 
automáticas. Una de ellas 
para mi voz exclusiva y otra de ellas 
genérica. La genérica 
evidentemente es un poquito peor 
pero intenté hacer lo mejor posible. 
Era fabricar un sistema 
de compresor de audio, 
un compresor dinámico para mejorar 
la calidad del audio y normalizarla 
y eliminar todo el ruido 
que tenía alrededor con una puerta de ruido. 
Una de ellas la fabriqué exclusivamente 
para mi micrófono que en su momento 
era el peor micrófono posible. 
Me compré el micrófono 
más barato que había en la tienda 
que tenía un patrón cardioide 
para poder hacer grabaciones entonces le tuve que meter 
un montón de horas de edición 
para aprender a hacerlo bien 
y luego automatizarlo. Pero personalmente 
le metí también muchísimas horas 
para fabricar unos filtros 
exclusivamente para mi voz 
porque actualmente ahora mismo 
lo estoy haciendo todo un poco 
on the fly a viva voz 
pero cuando me preparaba las clases 
tenía el teleprompter puesto 
que me fabricó con un teléfono antiguo 
digamos que sobre la marcha 
modificaba letras y las estaba leyendo 
para intentar mejorar un poco la dicción 
aprendí muchísimo de compañeras que tenía 
de grabación de audiolibros de editoriales 
para intentar sólo adaptar 
este problema a una persona 
que fue la única que lo pidió 
pero en así mereció la pena porque 
todos estos filtros sirvieron para mejorar 
ese audio ahora bien 
esto era extremadamente 
ineficiente porque sólo 
era audio yo quería mejorar 
también el vídeo 
y luego evidentemente 
incrustar ese audio 
entonces comenzamos con la última fase 
que era la grabación 
en tiempo real de la clase 
en el formato este que hemos hablado 
matreosca con subtitulado 
en tiempo real y luego 
posterior edición todo automático 
del audio para mejorarlo 
en calidad con estos filtros 
que acabo de comentar entonces 
la clase se grababa normal 
y se subtitulaba con un speech 
to text que esto 
son siglas STT 
lo que hace es capturar 
mi voz e intentar 
hacerlo lo mejor posible 
para subtitular en tiempo real 
lo que voy diciendo esto funciona 
ahí ahí principalmente 
porque lo he fabricado yo 
no es muy bueno actualmente 
lo sigo mejorando es más 
lo sigo mejorando desde el año 2020 
que es cuando comenzamos todavía no tengo 
una versión 1.0 para hacer el release 
ya tendré otro programa entero 
con vuestro permiso otra sección entera 
solo y exclusivamente comentando esto 
de cómo lo he fabricado de cómo me he pegado 
con ello de cómo lo he mejorado 
y de cómo la gente se suele pensar 
que funciona con magia y pide cosas 
que para mí son imposibles pero que sigo intentando 
para intentar adaptar estas clases 
entonces la clase se grababa 
en tiempo real con ese subtitulado 
no solo eso sino que 
encima aprendimos un montón 
de colores de baja visión 
que eran perfectos para personas como yo 
o que tuvieran otras patologías oculares 
para que no les dañara 
la clase al ver 
el vídeo porque 
el ver a lo mejor cierto tipo de patrones 
de luz o colores azules 
o cambios en la refracción 
de la luz les estaba causando 
un montón de fatiga ocular pero sorprendentemente 
hay un montón de paletas de colores 
que se pueden usar para hacer los frames 
para hacer las diapositivas 
que eran increíbles lo aprendimos 
lo pusimos de forma automática 
en estas clases y lo mantuvimos 
en todos los vídeos que teníamos 
en la oficina de software libre 
con el subtitulado en tiempo real 
y luego evidentemente 
con la posterior edición 
del audio pero esto 
es perfecto para lo que yo considero 
clases 3D puesto que actualmente 
yo solo os he comentado que he grabado un vídeo 
y le he fabricado un script pequeñito 
todo libre que está ahí en la oficina 
de software libre para mejorar 
estos vídeos pero la idea 
de la clase 3D vino para mejorar esto 
puesto que yo he comentado en un principio 
que el vídeo tenía que pesar poco 
y que tenemos que intentar 
limitar la interacción 
de las personas con los elementos 
de internet para no hacerles 
un sobrecoste un sobregasto 
entonces se me ocurrió una idea 
de fabricar el mismo vídeo 
grabado con un OBS 
es un programa de edición 
bueno permite grabar vídeo 
y hacer emisión en tiempo real 
está hecho en su web libre y por lo tanto 
me permite modificar 
cierto tipo de cosas y bueno pues 
lo que hice fue fabricar 
el programa para que me capturara 
la boca en tiempo real 
la pizarra que yo tenía 
en el ordenador en tiempo real 
y el subtitulado de tal forma 
que me hace una composición de cuatro vídeos 
a la vez dentro del mismo 
punto MKV dentro del propio vídeo 
para que tú como estudiante 
selecciones el canal 
que tú quieras por ejemplo 
que quieres ver solo la pizarra 
porque dices el profesor 
no me interesa habla demasiado 
o es demasiado poco agradable 
para mi gusto pues no pasa nada 
selecciones el canal de la pizarra 
y solo ves la pizarra que quieres el canal 
para hipoacusia tienes un canal de audio 
con el audio súper mejorado 
y subtitulado en tiempo real 
con mi boca en tiempo real 
bueno en tiempo real en el vídeo 
perdón moviéndose 
para que me puedas leer los labios 
en el caso de que lo necesites 
y la pizarra al lado que quieres el material 
para descargar no pasa nada 
hay un canal de vídeo 
hay un apartado en un vídeo 
que contiene en un QR 
todo el material que se está usando 
para que te lo puedas bajar 
sin ningún tipo de problema 
y con la licencia puesta en otro QR 
para que veas que lo puedes usar 
sin ningún tipo de problema 
y bueno pues el último vídeo 
que se incrusta es el que contiene 
toda la información el que te dice 
en el canal 1 está esta pizarra 
en el canal 2 está esta otra pizarra 
en el canal 3 está este subtitulado 
este audio está en español 
este audio está en inglés 
este audio está mejorado 
todo con sus títulos para poder elegir 
esto tiene parte que es manual 
tiene parte que es scripting 
y llevo intentando mejorarlo desde el año 
2021 en tiempo libre 
pero actualmente es una de las clases 
que me gusta dar dentro de la oficina 
de software libre porque contiene 
un montón de cosas de software libre 
y un poco de mejoras de adaptaciones 
para todas aquellas personas que importan 
que son las para las que trabajo 
que son el alumnado y bueno 
en este caso lo hago de forma voluntaria 
pero sigo considerándolo trabajo 
así que bueno pues más o menos 
esto es lo que quería comentar 
de este tipo de software 
no sé si qué opinas 
un poco de la monstruosidad 
que he ido fabricando a lo largo 
de la pandemia todo lo que fuimos 
aprendiendo o si tienes 
algún tipo de idea 
de duda a razón 
de todo esto pues yo he tenido 
la oportunidad de ver 
alguno de esos vídeos 
que comentabas y la verdad 
es que el sistema está muy bien 
me gusta mucho y es un buen ejemplo 
de que como con tecnologías libres 
pues se puede armar lo que tengas 
en la cabeza muchísimas gracias 
por decirme la verdad es que me motiva 
un montón y sobre todo 
para personas como yo que uno de los problemas 
que tengo yo que sí que me gustaría 
comentarlo como profesor 
es que me cuesta muchísimo dar el programa 
final porque pienso 
que todas las personas de alrededor 
van a saber mil veces más que yo 
me van a criticar un montón 
y me cuesta muchísimo dar el código 
mientras lo voy fabricando 
el escuchar este tipo 
de opiniones de ideas 
me motiva un montón 
para intentar seguir dando 
un poco de voluntariado 
así que simplemente 
que sea un poco más de calidad 
de la que yo pueda aportar 
para esta pequeña sección de clases 
con Pascal y para mis 
propias clases y para que yo mismo 
pueda ir aprendiendo de todas las personas 
que hacen estas secciones 
y de ti y de todas las personas 
que puedan comentar y que estoy seguro 
de que les pueda motivar 
lo que es la accesibilidad y el software libre 
y voy a añadir el punto que siempre me gusta 
porque a mí me gusta decir libre y gratuito 
puesto que si solo es libre y me lo cobran 
hay muchísimas personas que no pueden acceder a él 
porque tenemos esa pequeña barrera 
del dinero que yo sé que todo el mundo 
tiene que comer hay empresas que tienen que 
comer yo también tengo que comer 
pero me gustaría utópicamente hablando 
que las cosas fueran libres y gratuitas 
para que no tuviéramos esa barrera 
así que yo voy a intentar por mi parte 
todo lo que se me permita que sea libre y gratuito 
todo lo que me dejen hacer de momento 
así que bueno pues muchísimas gracias 
por escucharme y espero que esta sección 
les haya resultado útil y que las ideas 
que compartí puedan inspirar 
a otras personas a seguir trabajando 
por una educación más accesible 
equitativa para todo el mundo 
así que bueno si me lo permiten 
nos vemos en la próxima entrega de Clases con Pascal 
muchas gracias pues hasta aquí 
la sección de Clases con Pascal 
y ya estamos en la sección de 
Érase una vez con Enrique Varela 
hola Enrique hola oyentes 
primera aparición después de la presentación 
cuéntanos Enrique hoy de que nos vas a hablar 
a ver si os resulta interesante voy a hablar de una cosa 
que no mucha gente conoce 
o practica o sabe que está presente 
que se llama el eye tracking 
que es el seguimiento de los ojos 
y se trajo aquí a España en 2008 
y que consiste en eso en que un ordenador 
a través de una cámara sea capaz de seguir 
el movimiento de tu iris 
de tus ojos de tu mirada 
y hacer algo en consecuencia 
vale vamos para allá 
vamos para allá esto lo trajo en 2008 
José María Razola acabo de hablar con él 
hace poco sigue vivito y coleando 
y muy bien lo trajo de Israel 
porque bueno 
su historia es curiosa es un hombre vasco 
que viajó mucho a lo largo del mundo 
tenía una mujer tenía una mujer 
que se murió de ella 
de esquelosis lateral amiotrófica 
que es lo que tuvo Hawking y que es una enfermedad 
que te va dejando totalmente enclaustrado 
en tu propio cuerpo porque al final 
ya solo oyes el cerebro te funciona 
perfectamente pero no puedes mover 
más que los ojos precisamente 
se le murió la mujer de esto 
y él en un viaje a Israel 
que tenía algunas relaciones 
por allí pues vio una tecnología 
que se usaba supongo que 
a lo mejor ahora en estos tiempos 
de guerra cruel se sigue usando 
los cazas israelíes que usaban en los cascos 
que era ver el objetivo y para apuntarlo 
lo dirigían con los ojos el objetivo 
y disparar pues parpadeando 
con ese hecho simple y se le ocurrió 
la feliz idea de convertir 
esa tecnología de guerra en tecnología de paz 
y pensó si con esto 
se pudiera mover el ratón y con el parpadeo 
hacer clic pues probablemente 
mucha gente que no puede 
que le pasó lo que a mi mujer 
y que están enclaustrados en su cuerpo 
por diversas razones sea por él 
o por parálisis cerebral u otras razones 
invalidantes de este tipo 
pues podrían acceder al ordenador 
ergo al mundo ergo a la comunicación 
ergo a todo y con un amigo suyo 
Pedro Palomo ingeniero madrileño 
que también residía en San Sebastián 
pues compraron lo que tuvieran que comprar 
hablaron con los israelíes y a mí me presentaron 
yo a la sazón era en 2008 
director de accesibilidad de la fundación 11 
me presentaron el tema 
ya hecho un poco en rudimento 
resultaba carísimo porque habían pagado 
muchos royalties y cosas 
a la gente de Israel yo no lo pude echar 
arriba como director 
de aquella fundación no les pude ayudar 
pero me hice muy amigo de él 
y medio año después pues fundamos 
Fundeso la fundación 
que yo lleve durante 14 años 
fue mi primer patrono porque 
bueno empezamos con eso 
consiste pues en eso 
al revés que los cazas 
pues ellos fundaron Iriscom 
se llamó la empresa y consiste 
en que con la mirada se mueve 
había que calibrar una cámara 
que se ponía externamente 
al ordenador al pc 
esto se hizo por cierto 
Pedro trabajaba con tecnologías libres 
siempre y en lenguajes 
de programación abiertos 
y demás sin código abierto 
aunque después claro 
hubo que pasarlo al entorno 
Windows que es lo que 
mayoritariamente tenía la gente 
pues eso una cámara 
en un soporte bien orientada 
se calibraba con el paciente 
con la persona que lo iba a usar 
o con el usuario mejor que paciente 
una vez calibrado pues ya aquello 
se dejaba inamovible 
la cámara en aquel sitio 
por supuesto el puesto 
de la persona también inamovible 
y con esos dos parámetros bien 
perdón esto sincronizado 
todo pues efectivamente 
funcionaba acompañaron todo aquello 
con un paquete de programas 
de teclados de barrido 
y demás para dar 
mejoras a las personas 
bueno mejoras no es que era 
el antes y el después 
antes no podían utilizar 
el ordenador para nada 
y usarlo yo he asistido 
a varias instalaciones y me impresionó 
mucho uno de una señora 
de 70 80 años 
que había tenido un ictus 
y estaba muy inmovilizada 
en una residencia y había sido 
informática además 
era entonces lo dieron 
se calibró aquello 
en apenas 15 minutos que era un tiempo 
récord para aquella época 
empezó a trabajar empezó a teclear 
y empezó a quejarse de todo 
empezando de su marido que no le quería 
comprar el bicho y siguiendo 
con cómo la trataban en la residencia 
y demás y fue un 
aparte de la queja y tal 
pero que se veía que era un cambio 
total o sea la mujer 
aquella pues volvió a programar 
porque además era diseñadora 
software y cosas y volvió 
o sea fue el antes y el después 
en 2001 en 2001 
les dieron el premio el premio 
príncipe de Viana que se da 
en Navarra y bueno 
después siguieron desarrollando 
prototipos mejores bueno ya cosas mejores 
más baratos con mayor 
mejor calibración y al final 
cuando Arrasola se jubiló 
pues se lo vendieron a un 
a un emprendedor 
Eduardo Jauregui que está con ello 
bajo el nombre de Iriscom 
Iris Bond ahora 
y bueno pues él 
ha seguido adelante 
hasta el punto de que en algunos 
teléfonos Android y me parece que fue 
Samsung o alguien que 
ahora pues mira ese dato no lo tengo 
le compraron el tema 
o parte de la licencia el caso es que 
en algunos teléfonos funciona ahora mismo 
sin tanta calibración y demás 
pero aquellos fueron los principios 
y sobre todo yo les quería convencer 
de que valdría para muchas más cosas 
incluso para hacer 
el traqueo yo que sé 
utilizando una cámara de esas 
en un coche por ejemplo 
pues poder saber dada la señalética 
de la carretera a dónde mirabas tú más 
y a dónde no porque una vez que se sabe 
que se sigue el movimiento de tus ojos 
pues se puede trasear y hacer cosas 
pero bueno de momento 
ha quedado en este tipo de uso 
aunque me consta que en quirófanos 
y tal se quería también 
empezar a usar porque evidentemente 
el médico cuando está haciendo cosas 
está entre comillas con las manos en la masa 
y si puede mover mucho software 
y muchas pantallas y muchas historias 
con solo la mirada pues le resultaría 
muy útil también pero bueno 
es en este aspecto de la discapacidad 
donde ha triunfado más el light tracking 
y donde sigue ahí y yo creo que prosperará 
sí aunque bueno 
el marketing también se ha utilizado 
bastante para no fines 
no tan positivos para saber a dónde miras 
y eso bueno 
es que son un ordenador también 
utilizando la cámara pues dada una web 
y un diseño para fines buenos 
se puede utilizar si tu web 
está bien diseñada desde el punto de vista 
de usabilidad a dónde mira antes 
el usuario y cosas de esas 
pero sí sí me consta 
que lo que dices también es 
bueno de hecho empezó 
con tecnología de guerra o sea que 
menos mal que se convirtió 
en esto también aunque supongo 
que seguirá en la guerra también 
sí seguramente bueno pues una tecnología 
interesante que se está utilizando 
a día de hoy estuvo muy ligado 
a la creación de mi fundación 
lo hemos apoyado y de hecho 
nosotros propusimos para el príncipe de Viana 
que le supuso un apoyo 
más allá del marketing pues un apoyo económico 
y que ahí sigue y que siga 
esperemos que siga porque creemos 
yo creo que es una tecnología muy útil 
y que a mucha gente la separa del nada 
al todo del no comunicarse 
a comunicarse es interesante 
sin lugar a dudas pues hasta aquí 
la sección de Eras una vez 
con Enrique Varela hasta pronto 


    

Este podcast tiene licencia Reconocimiento-CompartirIgual 4.0 Internacional (CC BY-SA 4.0).