10 Audacity, Leyes, Fediverso, Tablas, Navilens, Cinamon, Pobreza energetica, eye-tracking
Producido por Jorge Lama, traemos las secciones de David Marzal, Pablo Arias, Thais Pousada, Víctor, David Pacios, Enrique Varela y como productor Jorge Lama.
- 00:00 - Odisea en el ciberespacio, con David Marzal. Magazine de noticias.
- Mejorada la introducción de valores de algunos plugins que daban problemas en Audacity.
- Nueva versión de Anytime Podcast muy enfocada en accesibilidad.
- Una web con artículos sobre la accesibilidad de los videojuegos. Y tiene feed RSS.
- Web en ingles con un recopilatorio de leyes sobre accesibilidad en todo el mundo. En la UE por ejemplo habla como todos los paises miembros tienen que transponer la directiva 2018/882 para 2025 con varios enlaces para profundizar en las leyes.
- En España nombra las leyes 19/2013, la 13/2022 y el Real Decreto 1112/2018.
- NVDA por fin es capaz de reconocer e indicar cuando un enlace apunta al mismo documento, visto en Mastodon.
- @cti_once@fedifeed.net sobre las novedades del CTI de la ONCE, en la que por ejemplo hacen reviews de aplicaciones accesibles en Android e iOS
- Android 15 mejora la descripción de imágenes con Tallback
- 06:19 - Accesibilidad web, con Pablo Arias. Nos habla sobre las tablas accesibles.
- 15:27 - Otros mundos, otras realidades, con Thais Pousada. Códigos QR de Navilens.
- 27:41 - Zona de testing, con Víctor. Analiza la distribución Linux Mint 22, con escritorio Cinamon.
- 32:30 - Clases con Pascal, con David Pacios. Nos habla sobre la pobreza energética.
- 49:37 - Érase una vez, con Enrique Varela. Comenta el eye-tracking.
Subtítulos disponibles en steno.fm si vuestra aplicación no los implementa.
Enlace a comentarios por si vuestra aplicación no los implementa.
Transcripción completa pinchando aquí
Y en la sección de 2024, una odisea en el ciberespacio, contamos
como siempre con nuestro David particular, David Marzal. Hola,
David. Buenas, Jorge y audiencia. Un
placer estar aquí de nuevo en el episodio 10.
Vale, pues una vez superadas pequeños problemas técnicos
que hemos tenido al inicio del programa, vamos con la sección
que nos traes hoy, David. Pues hoy es otro batiburrillo
de noticias y artículos que he encontrado que me parecían
interesantes y no podía dejar de traerlos aquí a mi sección.
El primero, Audacity. Audacity tiene 500 plugins. De hecho, la
versión 3 y pico han actualizado algunos que son en tiempo real
y han modernizado. Y la cosa es que se habían
quedado muy poco accesibles. Entonces, a partir de la 3.6.1,
lo que han hecho es volver a hacer navegables que puedas
tener el focus en varios plugins para que puedas usarlos
sin tener que estar con el ratón. Ese es uno de ellos. Luego,
siguiendo en Metapodcasting, hace poco ha salido la última
versión de Anytime Podcast Player, que está para iOS y
para Android. Y toda la actualización va enfocada
en una review de accesibilidad que le han hecho. Aparte, es
una aplicación un poco especial porque casi todas las
aplicaciones son en modo inbox, en modo bandeja.
En plan que tú te suscribes, te van entrando los nuevos y eliges
cuáles sí y cuáles no. Esto es diferente porque o yo no he
encontrado la manera o tú solo puedes entrar y ver el listado
de podcasts que tienes. No tienes vista de episodios.
Entonces, tú eliges, pues hoy quiero ver este podcast.
Entonces, vas al podcast y ves si tienes nuevos episodios.
Pero no hay una manera de ver los episodios nuevos sueltos.
Se ve que es una manera que a ellos les gusta de entender
cómo se escucha el podcasting. Y la cosa es que ahora debería
ser mucho más accesible por si le queréis dar una prueba.
¿Qué más cosas traes hoy? Pues me encontré con una
página web que me hubiera venido muy bien en mis tiempos de jugón,
pero ahora ya no me da la vida, que se llama Can I Play That?
En español sería puedo jugar eso. Y van haciendo artículos
y tienen como un score, una puntuación sobre si los juegos
son jugables de manera accesible o no.
O sea, ellos te van diciendo, pues este juego puedes jugar
aunque no puedas verlo. Este juego puedes jugar aunque tengas
problemas con alguna mano. Y aparte, que está muy bien
para dentro del podcasting, tiene un feed RSS. Entonces,
tú te puedes suscribir y te puedes ir viendo cuando analizar
un juego o puedes entrar directamente y buscar un juego
en concreto. Y saber si, dadas tus circunstancias,
ese juego es jugable o no. Es un poco como el Steam Play de
si puedes jugar en Linux o no, pero para la accesibilidad.
Hay que decirles que simplemente en la sección de
si soy papi o tengo otras quehaceres, puedo juzgar o no.
Juegos solo que permiten 10 minutos al día. Y luego tengo
una parte un poco burocrática para la sección.
He encontrado una web que está en inglés, pero está bien
porque los enlaces te van a cada país, con lo cual la
parte de España está en español,
que lo que hace es un recopilatorio de leyes sobre accesibilidad en
todo el mundo. En la UE, por ejemplo, habla de
cómo todos los países miembros tienen que transponer la directiva
2018/882 para 2025. Cómo tiene que profundizar
cada país en esa ley. Por ejemplo, si tú te vas, porque
tienes todos los países por etiqueta.
Entonces tú puedes alzar al país en concreto y en España
a hablar sobre la ley 19-2013. Y entonces tú puedes ir viendo
ley a ley. ¿Qué dice? Por ejemplo, nosotros tenemos
toda la información, será comprensible, de acceso fácil
y gratuito. Y estar a disposición de las
personas con discapacidad en una modalidad suministrada por
medio o en formatos adecuados, de manera que resulten accesibles
y comprensibles conforme al principio, accesibilidad
universal y diseño para todo. Entonces tiene ley a ley cada
artículo que habla sobre la accesibilidad.
Entonces yo en las notas del programa dejaré los que he
encontrado en español, para no aquí aburriros mucho contando
de ellos, pero yo creo que está bien mirarse
por encima las leyes, porque de vez en cuando yo lo que escucho
siempre en podcast de accesibilidad es que no se defiende, no hay
suficiente reivindicación. Y el primer paso para poder quejarte
y poder conseguir que las administraciones o las empresas
se impliquen un poco es conocer las leyes que ya
existen. Y este me parece un buen recurso.
Efectivamente. Vale, luego volvemos al tema de
tecnología, que es que NVDA, que imagino que todo el mundo
que escuche este podcast lo conocerá,
pero si no es como el Orca en Linux, pues es un lector de
pantalla para Windows, que es software libre.
Pues había una reivindicación muy antigua que me he encontrado
en Mastodon, alguien celebrando que ya la han arreglado,
que es que no podía reconocer y no te indicaba cuando un enlace
apuntaba al mismo documento. O sea, se ve que sí tenía los
hipervínculos cuando te iban a abrir otra página o otro
documento, pero los anchors, las anclas,
no te las indicaba. En plan, si pinchas aquí, vas
a bajar a otra parte del documento.
Y se ve que eso ya lo han arreglado. Luego, tenemos algo del fe
diverso, que a mí es donde yo consumo y encuentro la mayoría
de noticias, y es que hay un bot sobre las
novedades del CTI de la 11, en la que, por ejemplo, hacen
review de aplicaciones accesibles en Android y en iOS.
Entonces, en vez de estar mirando la página de la 11 cada 2x3
viendo si sacan algo, pues tú te puedes suscribir o
seguir a este bot, que es @cti_once@fedifeed.net
Feed con dos E como feed. Y entonces, pues él te va
diciendo que a veces que hay un artículo de,
mira, la ONCE ha hecho un análisis de esta aplicación que viene
muy bien para algo y es accesible. Y no te escribe mucho, a lo
mejor hay una cada dos semanas y está interesante.
Y luego, para despedirme, simplemente una mención, en
que ha salido Android 15, que parece ser que mejora
bastante la descripción de imágenes con Talbac,
que ese es el tema que tiene Android de locutar o de lector
de pantalla, creo que es el equivalente a
VoiceOver en iOS. Pues hasta aquí la sección de
2024 con David Marzal. Y en la sección de accesibilidad
web contamos, como siempre, con Pablo Arias. Hola, Pablo.
Muy buenas, Jorge. ¿Cómo vamos?
Bien. Hoy creo que nos vas a hablar de tablas.
Efectivamente. Quiero hablaros de tablas HTML.
¿Qué hacer tablas? Pues todo el mundo sabe, pero hacerlas
accesibles, bueno, pues hay que saberlo desde el principio
y así podremos hacerlas accesibles sin problema ninguno, para que
todo el mundo pueda entenderlas. Pues cuéntanos los secretos, venga.
Pues mira, básicamente todo el mundo sabe que para hacer una
tabla, o los que nos dedicamos a esto de hacer webs,
para hacer una tabla, pues abres la etiqueta HTML Table y dentro
defines las filas y dentro de las filas las columnas.
Entonces con la etiqueta TR defines una fila y dentro de
esa fila creas columnas con la etiqueta TD.
Hasta aquí todo sencillo. Bueno, pues algo que hay que
tener en cuenta es que la fila de los encabezamientos,
en vez de ser con una etiqueta TR normal, lo ideal es utilizar
la etiqueta TH. Eso define que eso es un encabezado.
Entonces, dentro de la etiqueta TH, luego definimos las celdas
con la etiqueta TD. Y con esto, en principio, pues
podemos hacer una tabla sencilla que tenga definidas los encabezamientos.
Ahora podremos hablar sobre tablas un poco más complejas, que
tengan encabezamientos en la parte superior,
a lo mejor encabezamientos también en un lateral, podemos
hablar incluso de tablas que tengan dos filas de encabezamientos.
Ahora podemos meternos en complejidades, pero esta es la
esencia. Además, fuera de la tabla,
para que sea accesible también, hay que describirla.
Es decir, ¿qué me estás mostrando? ¿Esta tabla de qué va?
Entonces, para eso podemos utilizar la etiqueta CAPTION.
Que si no nos viene bien utilizar la etiqueta CAPTION,
pues por el motivo que sea, que no quede bien estéticamente
en nuestra web o porque no está exactamente la descripción
de la tabla en el mismo lugar que la tabla
o lo que sea, pues lo que podemos hacer es utilizar
algún atributo que sirva para decir que este párrafo,
por ejemplo, es la descripción de la tabla.
Que a veces pasa mucho, pues mira, esta descripción de la
tabla va dos párrafos antes. Bien, pues ahí ese lo marcamos
con la etiqueta ARIA DESCRIBED BY.
Entonces, lo que conseguimos con esto es que el lector de
pantallas sepa cuál es el párrafo que describe el contenido de la
tabla, ¿no? Aparte de esto, pues es
interesante tener en cuenta algunas claves.
Por ejemplo, la descripción de la tabla, lo suyo es explicar,
¿no? ¿Qué contiene esta tabla?
Pues mira, por ejemplo, esta tabla contiene, pues, la edad
de unas personas, su nombre y su fecha de nacimiento,
por decir algo, ¿no? Entonces, pues la gente ya sabe,
ah, vale, me voy a encontrar, pues, estas tres columnas.
Perfecto. Y luego, cuando el lector de
pantallas, por ejemplo, le lea la tabla, pues ya va a saber de
qué trata y ya va a entenderla mucho
mejor. Si nosotros tenemos que definir
unos encabezados un poquito más complejos,
vease que además del nombre, la edad y la fecha de nacimiento,
tenemos otros encabezamientos, como por ejemplo, pues a lo
mejor es que quiero que el nombre
también forme parte del encabezamiento, pues porque es relevante, ¿no?
Y quiero que ese nombre forme parte del encabezamiento de la
tabla, que aparezca como relevante. En plan, este es el nombre de
Ana, que tiene, pues, 10 años y nació en tal mes de tal año.
Perfecto. Lo que tenemos que hacer es marcar
las columnas del nombre con la etiqueta TH para indicar
también que eso es encabezamiento de tabla.
Y, por tanto, el lector de pantalla podrá hacer una lectura
más acertada de lo que es el dato.
Por ejemplo, podrá decir, pues, el nombre de la persona y su edad,
el nombre de la persona y, a continuación, su fecha de nacimiento.
Y así sucesivamente, porque lo interpretará como que es un
encabezado más. Si no, pues dirá, nombre, pues
Ana, edad, 5 años, 10 años. Fecha de nacimiento, pues abril
del 2014. De la otra manera, si ponemos
con el nombre, del nombre de la persona como encabezamiento,
pues te dirá, Ana, edad, 10 años.
Ana, fecha de nacimiento, pues 5 de abril del 2014.
Y te dirá todos esos datos para ser más concreto y que se
entienda mejor. Además de esto, pues, la
verdad es que se puede hacer más compleja la tabla.
Podemos incluso definir lo que es dentro de la tabla.
Hay etiquetas para definir lo que es los encabezados.
Como hemos visto, incluso se pueden agrupar en la etiqueta TG
los datos en la etiqueta TBody. Además, podríamos tener un
pie de tabla que sea con la etiqueta TFoot.
Este tipo de etiquetas, pues, ayudan a identificar mejor lo
que es el contenido de la tabla, ¿no?
Aquí tengo una duda, Pablo. Sí, dime, dime.
Cuando, en vez de una tabla normal, ya pasamos a hablar de
una hoja de datos o una factura, por ejemplo, una celda que sea
un sumatorio de una columna, ¿cómo la definirías?
El sumatorio, pues, a lo mejor puede venir dado por...
Todo depende del tipo de sumatorio. Por ejemplo, si es una factura
y queremos que haya un único sumatorio al final de todo,
yo creo que eso forma parte simplemente de...
Es una fila más que incluye un dato diferente.
Entonces, tendrá que tener un encabezado que diga, pues, este
es el sumatorio. Y luego, en una celda, pues,
que probablemente coincida debajo de todos los precios,
tenga el dato del sumatorio, ¿no? Pero, previamente a eso, ponerle
un encabezado que diga, pues, sumatorio.
O que diga total, o que, bueno, la palabra que queramos describir.
Pero acompañarlo, acompañarlo de un dato, de un encabezado,
de un TH, que indique que ese es el sumatorio.
¿Vale? Si queremos, por ejemplo, que
imaginemos que tenemos una tabla larga y esa tabla, pues, puede
llegar a, pues, no sé, imprimirse. O que puede llegar a estar,
digamos, dividida en varias páginas, pues, para eso sirven los encabezados,
el TGED y el TFUT. Porque si llega a, imaginemos
que la imprimimos y esa tabla sale en dos folios.
Entonces, lo que es el encabezado y el P de página, se van a
repetir en cada folio, con los datos en el medio, ¿no?
Por eso es interesante utilizar estos atributos.
Pues, estas son las directrices esenciales para hacer una tabla
accesible, ¿no? Que luego, ¿hay tablas mucho
más complejas? Sí, efectivamente.
Pues, a veces hay tablas con encabezados irregulares.
O con esta, como tú dices, de un sumatorio.
Que dices que, pues, que al final de todo quiero poner la
suma. Quiero poner la suma del IVA.
Y quiero poner el total. Bueno, pues, hay que tratar de
identificar bien, con etiquetas, qué es cada una de esas cosas,
¿no? De esta manera, pues, cualquiera
los podrá entender. A veces, simplemente ponemos
las cifras, una línea horizontal y reducimos que eso
ya se entiende que es la suma. No, pues, tratemos de poner a
mayores unas palabras que lo indiquen.
Aparte de esto, bueno, lo que decía, siempre puede haber tablas
que se nos vayan un poquito de las manos en cuanto a complejidad.
Claro, claro que puede haber. Entonces, pues, tendremos que
ver un poquito la manera de hacerlas accesibles.
Qué parte es encabezado, qué parte no.
Incluso, se pueden utilizar agrupaciones, ¿vale?
Hay etiquetas para decir, bueno, esta tabla, por ejemplo, tiene
unos encabezados que son un poco irregulares.
Pues, se puede utilizar los valores call group y row group,
¿vale? Para tratar de agrupar, decir,
oye, pues, mira, todo esta parte son encabezados.
O toda esta parte de filas también son encabezados.
Hay tablas complejas, todos los hemos visto en hojas de cálculo
que tienen, pues, a lo mejor en la parte superior dos filas de
encabezados. Y la parte de arriba, por
ejemplo, te pone, pues, vamos a ver, el total, pero ese total
se divide en dos columnas. Pues, el sin IVA y con IVA, por
decir algo, ¿no? Entonces, pues, ese encabezado
es un poquito más complejo. Pues, lo vamos a conseguir
describir bien con esto que os decía de agrupar, pues, en filas
o en columnas esos encabezados. Entonces, bueno, este es un
poco un resumen. Si te interesa y tienes tablas
muy complejas para describir, pues, te recomiendo que le eches
un vistazo a la normativa de la W3C.
Y hay páginas donde te ayudan a hacer las tablas accesibles.
Pero, en resumen, describe la tabla.
También, además de poner un resumen de qué va la tabla,
pues, pon los encabezados correspondientes para que sea
fácil de entender la tabla. Esta es un poco la conclusión.
Pues, bien, pues, hasta aquí la sección de Pablo.
Y en la sección de Otros mundos, Otras realidades, contamos,
como siempre, con Tais Pousada. Hola, Tais.
Hola, ¿qué tal? Y después de este pequeño parón
que has hecho, que has estado unos meses sin publicar nada,
no has pasado por aquí, ¿qué nos traes esta vez?
Pues, efectivamente, un parón veraniego y ahora que viene el
mal tiempo, pues, regreso a la gruta.
Y, bueno, un poco buceando y, últimamente, que viajo
bastante a Madrid, pues, me gustaría hablaros de Navilens.
Navilens son unos códigos que podéis ver en diferentes
lugares desperdigados por ahí. Y te preguntarás, Jorge,
aunque sé que has hablado de ello, ¿qué es Navilens y qué
puede aportar a las personas con diferentes capacidades, ¿no?
Sí, vamos al asunto. Navilens surge de una startup,
como, bueno, como todas estas ideas de desarrollo, en su origen,
pues, pretendían facilitar la movilidad y la orientación a
personas con déficit visual o ceguera completa.
Todas conocemos los códigos QR, Quick Response, que nos permiten,
a través de un lector, la cámara del móvil o el Google
Lens, acceder a diferente contenido online, ir a una
página web o acceder, pues, eso, a diferentes páginas o
aplicaciones. ¿Qué ocurre con los códigos
QR? Bueno, pues, que necesitamos enfocar relativamente cerca,
necesita que el móvil tenga una determinada orientación
con respecto al código, necesitas estar a una distancia, necesitas
cierta luz, etcétera, ¿no? Que no son demasiado accesibles,
por todo lo que estás contando. Efectivamente, claro. Por eso,
las personas que no tengan capacidad visual o que tengan
muy baja visión, claro, al tratar de enfocar con su teléfono
móvil estos códigos, pues, o enfocan mal o no alcanzan a
realizar la decodificación, ¿no? Entonces, por eso se creó esta
alternativa. Los naviles, si lo veis así, como están expuestos,
veréis que son coloridos, ¿vale? Es como un QR, tiene forma de
QR, efectivamente, pero en vez de ser blanco y negro, pues,
son códigos, es un código de barras, igualmente, pero con
colores. ¿Qué implica este navilens? A
simple vista, no implica nada, ¿vale? Porque yo, si voy por
Madrid, por ejemplo, y lo veo en una estación de autobús,
puedo decir, qué bonito, ¿vale? Lo puedo escanear con mi cam
del móvil, sí, pero ¿me va a acceder a algún sitio? No, ¿vale?
Entonces, previamente a utilizar los códigos naviles,
necesitamos instalar una aplicación en el móvil.
Y tienen, ahora mismo, tienen dos. Tienen la aplicación Navilens,
que es específica para personas con discapacidad
visual y que esta Navilens sencilla, por llamarlo de alguna forma,
lo que hace es ofrecer señaléctica e información visual a las
personas que no ven. Y luego está la Navilens Go,
que es la que se está implementando más y la que
están instalando más en lugares como estaciones de
metro, estaciones de tren, paradas de bus, etc.
Y que da información en tiempo real sobre salidas, llegadas,
estado de la red, tiempos de espera para el siguiente tren o
el siguiente bus, ¿vale? Es decir, que ofrece una
información pro, por decirlo de alguna forma, a esa señaléctica
y a esa localización. Bueno, de las experiencias que
hay instaladas, pues, yo os puedo comentar que aquí en
España están, pues, en Madrid, en un montón de estaciones de
metro y de paradas de autobús. También se han implementado
los transportes metropolitanos de Barcelona, tranvía de Murcia
y en el teatro también de Murcia, en la zona de Valencia también
están. Lo que permiten estos códigos
es, por una parte, que cualquier persona con discapacidad
visual que tenga la aplicación y que apunte con su móvil
hasta 15 metros de distancia, con cualquier luz, con
cualquier orientación, capta al instante ese código,
¿vale? Es muy fácil de captar el código con la aplicación.
Sin necesidad de enfocar ni nada, nada.
Sin necesidad de enfocar ni de estar cerca del código. Es
decir, que puedes estar a unos 15 metros de distancia, que
pone aquí. Incluso en movimiento. Es decir,
que a veces se te mueve el móvil o que tiembla el móvil y tal,
permite también esa lectura. Sí. Es decir, que facilita la
lectura de un código. Y luego, en la decodificación,
va a dar información, tanto a las personas con discapacidad
visual de orientación en el espacio.
Es decir, hacia dónde tienen que ir, por ejemplo, en una estación
de metro, hacia dónde tienen que ir, siguiendo también los
paneles podotáctiles, ¿no? Para coger una u otra línea y
en qué sentido. Y luego, también ofrece
información sobre los tiempos de espera, sobre las salidas
próximas, las llegadas de trenes o de buses, etc.
Entonces, esto que se creó pensando sobre todas las
personas con discapacidad visual, yo lo veo muy, muy
útil para personas que tienen discapacidad cognitiva.
¿Por qué? Porque facilita muchísimo la
comprensión y la interpretación de la información.
Y permite ir a diferentes espacios de una forma guiada.
Bueno, la aplicación, lógicamente, tiene salida de voz para narrar
toda la información que está captando ese código y es
totalmente gratuita. La página web de NaviLens
establece ejemplos de uso de diferentes espacios urbanos,
pero también establece experiencias con, por ejemplo,
y perdonad que comente la marca, pero es lo que tiene aquí, que
es Coca-Cola o los cereales Kellogg's que incorporan códigos
NaviLens en sus envases. Un poco para ofrecer
información sobre, pues, las componentes, propiedades nutricionales
de estos alimentos, ¿no? Bueno, no queda ahí la cosa,
sino que en el último año han sacado un conjunto de kits
gratuitos. Kits gratuitos que son conjuntos
de códigos que se pueden instalar, por ejemplo, en una asociación
o que se pueden instalar en un centro educativo
y que esos códigos en el centro educativo son mínimamente
configurables, ¿vale? Con una información adaptada a
ese entorno de un coli, por ejemplo.
Y, además, tiene como una subpata que se llama Accessible QR Code
o código QR accesible. Lo digo en inglés porque queda
más, como más profesional. Esta es una patita que sale de
NaviLens y te comento, Jorge, lo que implica y es que
nosotros, por ejemplo, este podcast, ¿no?, que se
transmite a través de diferentes plataformas, pues,
nosotros podemos generar un código QR
para, pues, que escanee con el móvil, yo escanee con el móvil
y acceder directamente a la plataforma donde está volcado
el podcast. El código QR te sigue siendo
un código estándar, vale, pues, NaviLens permite también
transformar cualquier código QR en un código NaviLens.
Código NaviLens que implica todas las propiedades y
características que tienen esos códigos.
Lo que comentaba antes, que puede ser aplicado sin enfocar,
a cualquier distancia, con cualquier luz e incluso en
movimiento. Y que reporta una información
auditiva a personas con discapacidad visual.
Vale, es decir, que NaviLens no es solo códigos que orientan
en el espacio y que dan información auditiva a
personas con discapacidad visual.
Permiten también una fácil escaneo e identificación y que
permiten transformar cualquier código QR estándar que generemos
nosotros para trasladar información a un código NaviLens.
Vale, y aquí con este código NaviLens, pues, la información
también se traslada al formato visual.
Perdón, al formato auditivo. La desventaja de este NaviLens
código QR accesible es que tienen un límite de 10 códigos.
Es decir, que yo como persona independiente o cualquier
institución, asociación, empresa, etcétera, puede crear
hasta 10 códigos NaviLens de forma gratuita.
A partir de los 11, pues, habrá que contactar con los desarrolladores
para preguntarles cuál es el importe.
Pero, en principio, hasta 10 son gratuitos.
Sí, la tecnología me parece muy buena, pero bueno, faltaría
que la liberaran para poder darle.
Totalmente, efectivamente, libre, ¿no?
Que es lo que siempre, bueno, al final yo aquí traigo cosillas
que son gratuitas, que me parece interesante porque son
accesibles a la población. Pero es cierto que fallan
todavía en esa liberalización del código para que sean
totalmente abiertas, ¿no? Sí, porque es una gran ventaja
que una cámara a 15 metros sin enfocar, pues, sea capaz de
detectar el código y hacer cosas.
Lo que me parece raro es que no haya ninguna universidad o otro
tipo de instituciones que no estén investigando cosas parecidas
a día de hoy. La idea me parece muy buena.
Yo lo que estuve navegando un poco por su web y viendo sus
desarrollos y tal, en principio, no hay detrás ninguna universidad.
Bueno, sí, está la Universidad de Alicante, pero es en
realidad una startup esto. Sé que tienen financiación
del Ministerio de Economía, pero no tienen soporte detrás
de la universidad. Y tampoco conozco experiencias
de desarrollo a nivel académico, ¿eh?
Bueno, vuelvo a insistir, me parece una idea muy buena.
Sería estupendo si alguien hiciera algo parecido y se pudiera usar
libremente en cualquier ámbito de situación.
Efectivamente. Y la próxima vez que vayáis Madrid,
Barcelona, Valencia o Murcia, fijaros en las estaciones de
tren, de metro o paradas de autobuses y veréis estos códigos coloridos
y ahora ya sabréis para qué sirven.
Pues hasta aquí la sección de otros mundos, otras realidades,
contáis pausada. Nada, Jorge, muchas gracias y
nos veremos para el próximo mes.
Bueno, Jorge, cuando estaba probando Linus Mint Cinnamon,
me vino a la mente una canción de Rumba 3.
Aquella canción decía, ¿qué tienen tus ojos que me vuelven
loco? Pues eso es lo que percibo yo
cuando hablan de Linus Mint, en concreto la 22, con el escritorio
Cinnamon. Pues la he probado en un
monitor de 55 pulgadas, sí, de 55 pulgadas.
Bueno, normalmente lo pruebo en otra máquina, no ha sido
posible. ¿Cuál ha sido mi experiencia?
Pues ya iré contando. Decir que esta distribución va
dirigida a un perfil general, tiene un perfil generalista.
Yo no voy a entrar en el rendimiento, que es bueno y como curiosidad
respecto a otra ISO, incluso a la versión XFD,
carga todo en RAM. Si tienes bastante RAM, va a ir,
la experiencia va a ser rapidísima. El problema que tiene Linus
Mint es que la accesibilidad, en concreto en Cinnamon, no
existe. Yo no la he visto.
Bien, al arrancar la ISO, bueno, pues una pantalla que si tienes
un resto visual mediano, digamos que puedes arrancar.
Llegas a arrancar. Una vez arrancado, todo el escritorio
cargado, todo se ve bien. Vale.
El escritorio, pues pruebo con ciertas teclas a ver si hay
zoom, porque no aparece en la carga ninguna indicación sobre
si hay algún activo de accesibilidad. Por lo menos, no, es que no veo
ninguna. Si me permiten el símil,
puedes tener una casa adaptada para una persona con movilidad
reducida, pero si esa casa tiene escaleras, cero rampas o
necesitas un elevador que no está, me pregunto si eso es
realmente accesible. Pues eso le pasa a Linus Mint,
que cargo el escritorio y haciendo un poco de trampilla,
porque sé lo que tengo que buscar.
Puedo cambiar la resolución, pero es que es realmente incómodo
para cambiar el idioma. Tengo que ir sabiendo lo que
busco al tiento. Yo me pregunto si no era
posible mejorar esto. A veces me pregunto y dicen, afirman
en muchos canales que quizá, quizá el equipo de Linus Mint
debería centrarse en su escritorio, en Cinnamon.
En mejorarlo, en evolucionarlo y prescindir de otros escritorios.
Es posible que sea una decisión inteligente.
Como ya he comentado, el magnificador o zoom de escritorio
no funciona. El tomatazo, tampoco.
El puntero, se ve poquísimo. Si en la jungla todo es verde y
marrón, pues si quieres pasar desapercibido, tienes que ir
vestido de verde y marrón. ¿Cómo es el escritorio? Blanco
y negro. Predominan esos colores, ¿verdad?
¿De qué color es el puntero? Blanco y negro.
Perfecto para pasar desapercibido. Tiene todos los papeletos para
ello. En la mayoría de entornos
gráficos donde hay ventanas, pues hay una opción de Alt
más espacio donde aparece el menú de ventana.
Bien, pues por algún motivo puedes mover los cursores hasta
buscar la opción que deseas. Como puede ser cerrar la ventana.
Pero está al final, abajo. Normalmente, este menú, si
quieres ir a la última opción que es cerrar la ventana, no
necesitas ir con el cursor hacia abajo.
Directamente pulsar hacia arriba y apareciesen en la
parte de cerrar esa ventana. Pues no.
Aquí hay que seguir el caminito hasta esa opción.
¿Qué más podría decir? Que no se lo recomendaría a
nadie que tenga un problema de baja visión.
Que es muy tedioso si no ves y porque contamos con la ventaja
o trampilla que yo sé lo que tengo que buscar.
Una persona que no ha visto Linux en su vida y que tiene
una baja visión, no le sirve. Si ya la versión de XFC en
Mint flojea respecto a esa tan criticada Ubuntu, no te cuento
lo del cinamón. Mejor probarlo vosotros.
Hagan una prueba un día. Una de estas gafas de juguete,
emborrónenla y arranquen el entorno gráfico que ustedes usan.
Cuénteme la experiencia. Quizás mejor empiecen a
entender el problema de la baja visión.
Hasta la próxima. Y estamos en la sección de clases
con Pascal, aunque se hace llamar también David Pacios.
Hola, David. Hola.
Muchísimas gracias por otra oportunidad para aquí contar
todas mis cosas y voy a comenzar. Con permiso.
Muy buenas y bienvenidas a esta pequeña sección de clases con
Pascal. Yo soy el doctor David Pacios,
aunque en la universidad me conocen comúnmente como Pascal.
De ahí el nombre de la sección. Hoy quiero abordar un tema que
me llamó profundamente la atención durante la pandemia
y que ha sido recurrente en muchísimas de mis charlas y
entrevistas, lo que yo denomino pobreza energética.
Aunque pueda parecer un tema repetitivo, considero
fundamental insistir en él ya que afecta directamente
a la accesibilidad y la equidad en la educación.
Para introducir un poco. La pobreza energética es un
concepto que realmente es como lo denomino yo.
Es un concepto que engloba varios aspectos importantes.
En el primer lugar, incluye a personas que no tienen acceso a
tecnología en las mismas condiciones que otras.
Esto puede deberse a la falta de dispositivos adecuados como
ordenadores o teléfonos móviles o a la insuficiencia de infraestructura
tecnológicas como conexión a internet de baja calidad
o limitadas. Además, este concepto también
abarca a quienes, aunque tengan ese acceso a la tecnología,
no cuentan con equipos lo suficientemente modernos o potentes para seguir
una clase en línea de manera eficiente.
Esto, por ejemplo, si damos una clase con un campus virtual y
una máquina virtual, un pequeño sistema operativo
al lado, digámoslo así, y yo le digo al alumnado, al estudiantado,
ahora escribid este comando. Pues si no tienes dos pantallas
es bastante más complicado de lo que parece.
Si me dejes hacer un pequeño comentario.
Sí, sí, por favor. Estos temas que también los
hemos analizado en varios ONGs en las que colaboro también,
normalmente lo relacionamos con el tema del derecho al agua,
derecho a la vivienda. Entonces también hablamos del
derecho al acceso a la información o a las nuevas
tecnologías. Sí, es que realmente es una
cosa que yo no había pensado en su momento,
cuando estaba dando todas estas clases y cuando de repente, de
la noche a la mañana, teníamos que dar clases online.
Yo tenía dos pantallas, para mí era algo extremadamente
intuitivo y decir, bueno, pues lo ponéis en la
otra y sobre la otra trabajáis. O no, no, ponemos la cámara
web y tenéis que tener un espacio diáfono para hacer el
examen. ¿Y si la persona no lo tiene?
Por esa razón, hoy quiero poner el foco en estas personas,
ya que son las que más necesitaban estas adaptaciones para acceder
a un material educativo accesible y de calidad.
Me acuerdo de que este problema se hizo especialmente evidente,
sobre todo en los primeros días de la pandemia, para
contextualizarlo un poco, en épocas pasadas.
Recuerdo claramente como de un día para otro,
muchas personas quedaron atrapadas en mi ciudad natal sin poder
regresar a sus hogares, debido a restricciones de movilidad.
Algunas se volvieron obligadas, perdón, se vieron obligadas a
quedarse en sus colegios mayores o pisos de alquiler,
donde las condiciones no siempre eran las ideales para
poder estudiar. Literalmente, muchos estudiantes,
mucho estudiantado no tenía acceso a un router propio
y dependían de la conexión a internet comunitaria de la residencia.
Y esto era un problema, porque si yo daba las clases, por
ejemplo, a través de Discord o a través de cualquier otro
tipo de plataforma, es muy probable que no pudieran
acceder porque lo tuvieran capado. O sea, estaba prohibido acceder
a ese tipo de sistemas. Nos obligaban a través del
campus virtual o de herramientas a lo mejor menores.
Era un desafío, un desafío significativo para estas
personas y para otras muchas. También quiero poner el punto
del foco en otras clases que tuvimos en Latinoamérica,
porque nos dimos cuenta de que el problema no era exclusivo de
una región o país. Muchos estudiantes en
diferentes partes del mundo no tenían ordenadores adecuados
para hacer este streaming de alta calidad
o en muchos casos ni siquiera podían reproducir un vídeo
con la calidad de audio necesaria. Entonces este tipo de limitaciones
nos hizo reflexionar profundamente sobre la importancia de la
accesibilidad a la educación. Una de las primeras adaptaciones
que intentamos fabricar fue intentar explorar uno de
los formatos de vídeo más famosos que se llama Matroska.
Este vídeo es muy probable que muchas de las personas que nos
están escuchando lo hayan tenido en su ordenador.
Es ese formato que aparece con un punto MKV,
que literalmente se llama Matroska, porque es como estas muñecas a
las que le puedes meter un montón de cosas dentro,
o las mismas propias muñecas. O sea, puedes meter un vídeo
dentro de otro vídeo, o tener ese mismo vídeo con un
montón de pistas de audio para poder escucharlo en
inglés, en español, en el idioma que quieras,
con subtítulos. O sea, a mí me flipaba cuando
yo aprendí. Esto es una maravilla.
Esto es increíble. Digamos que es como un contenedor,
¿vale? Para que se entienda más o
menos bien. Es un contenedor que encima me
permitía a mí reducir el tamaño de los archivos
sin perder demasiada calidad. Por lo tanto, este formato me
fue muy útil al principio de la pandemia
para grabar mis clases, para poder bajar la resolución
de 1080, o sea, lo que es una pantalla
actual más o menos normal, a un formato un poquito más
reducido, 720, que es la mitad, y otro que es aún más reducido,
la mitad, 480. Esto nos permitió ofrecer
versiones de los vídeos de nuestras clases,
aunque menos detalladas visualmente, seguían siendo útiles.
Por ejemplo, para que una persona con baja conexión
pudiera bajarse ese vídeo sin gastar muchos datos
y sin gastar dinero y poder ver ese vídeo
en su ordenador o en su teléfono móvil.
Sin embargo, para continuar un poco el avance de esta
tecnología, nos dimos cuenta de que reducir
el tamaño del vídeo no era suficiente.
La calidad del audio también debería de ser excepcional,
especialmente para aquellas personas
que tuvieran a lo mejor trastornos hipoacústicos,
pero en ese momento no teníamos la tecnología desarrollada
para poder hacerlo. Así que se me ocurrió una
idea alternativa, que es usar una cosa de la que
siempre hablo, LaTeX, lo que vulgarmente yo llamo
LaTeX. Es un lenguaje de tipado de
textos, que vulgarmente es un lenguaje
de programación para escribir textos como si
fuera Word, pero súper vitaminado y libre,
para hacer PDFs. Y, bueno, también se pueden
hacer páginas web y otras cosas.
Digamos que desarrollé una técnica
que me permitía incrustar vídeos,
fotograma por fotograma, dentro de los PDFs,
para poder subtitularlo en tiempo real.
Esta técnica me permitió crear documentos en PDF
que no solo contuvieran el texto de la clase,
sino pequeños fragmentos de vídeo
o pequeños fotogramas con subtitulado en tiempo real.
Esta tarea, la verdad es que me fue,
me costó muchísimo desarrollar esta biblioteca,
desarrollar todo esto, pero seguía sin ser perfecto
porque tú puedes bajarte ese PDF
y a lo mejor puedes leerlo, pero teníamos un montón de
personas que a lo mejor tenían baja visión
o directamente que no tenían capacidad de visión
para poder ver este tipo de PDFs. Entonces teníamos que seguir
un paso más adelante. Entonces comenzamos a fabricar
un sistema de mejora de audio.
Y aquí es donde comenzamos a estudiar una cosa importante
para la mejora de audio, que fueron la microfonía.
Y aprendimos un montón de cosas con la,
por ejemplo, como que el micrófono interno
del propio ordenador captaba los sonidos de forma
omnidireccional. Esto significa
que captaba todos los sonidos de alrededor
y eso hacía que si tuvieras eco-reverberación
tuvieras una calidad de sonido horrible.
que esto ya era extremadamente fastidioso
para que el alumnado te escuchara o mantuviera la atención
porque están acostumbrados, acostumbradas realmente
a un nivel de calidad de audio de streamers,
de estar en Twitch o en Youtube todo el día.
O sea, ¿con qué cara me presento yo
para dar una clase con una calidad de sonido
horrible? Pues lo estudié.
Y resulta que haciéndole un par de modificaciones
al micrófono físicas podía hacerle que tuviera una
cosa que se llamaba patrón polar
cardioide para tener una calidad de audio
extrema. Y me puse a estudiar dicción,
microfonía, podcasting,
estudio de audiolibros para poder generar un audio
de alta calidad. Y al final,
estudiando estas técnicas, recurrimos a la grabación en
FLAC, que es un formato sin pérdida
que era perfecto, perfectísimo
para todas aquellas personas que tenían a lo mejor
unos speakers, unos audífonos,
unos auriculares buenos para poder adaptar
la hipoacusia para que escucharan
toda la clase con la extrema calidad posible.
Era increíble cuando lo aprendí a hacer.
Ese tipo de grabación pues con el propio programa
de, por ejemplo, de la Audacity
o con algún otro que me fabriqué yo
para poder grabar en formato sin pérdida.
Y solo mandar eso era increíble para mí.
O sea, yo sé que
todas las personas que a lo mejor
no pueden estar escuchando dicen,
bueno, yo estoy acostumbradísimo
a hacer esto todos los días o a verlo sin pérdida
porque el propio a lo mejor
Apple Music u otros formatos
te lo da, pero para mí
era magia poder dar ese sistema
de calidad aunque solo fuera
una persona. ¿Y hacíais algún tipo
de edición a posteriori del audio?
Me encanta esa pregunta porque sí,
sí, estudié muchísimo
y hice dos tipos de modificaciones
automáticas. Una de ellas
para mi voz exclusiva y otra de ellas
genérica. La genérica
evidentemente es un poquito peor
pero intenté hacer lo mejor posible.
Era fabricar un sistema
de compresor de audio,
un compresor dinámico para mejorar
la calidad del audio y normalizarla
y eliminar todo el ruido
que tenía alrededor con una puerta de ruido.
Una de ellas la fabriqué exclusivamente
para mi micrófono que en su momento
era el peor micrófono posible.
Me compré el micrófono
más barato que había en la tienda
que tenía un patrón cardioide
para poder hacer grabaciones entonces le tuve que meter
un montón de horas de edición
para aprender a hacerlo bien
y luego automatizarlo. Pero personalmente
le metí también muchísimas horas
para fabricar unos filtros
exclusivamente para mi voz
porque actualmente ahora mismo
lo estoy haciendo todo un poco
on the fly a viva voz
pero cuando me preparaba las clases
tenía el teleprompter puesto
que me fabricó con un teléfono antiguo
digamos que sobre la marcha
modificaba letras y las estaba leyendo
para intentar mejorar un poco la dicción
aprendí muchísimo de compañeras que tenía
de grabación de audiolibros de editoriales
para intentar sólo adaptar
este problema a una persona
que fue la única que lo pidió
pero en así mereció la pena porque
todos estos filtros sirvieron para mejorar
ese audio ahora bien
esto era extremadamente
ineficiente porque sólo
era audio yo quería mejorar
también el vídeo
y luego evidentemente
incrustar ese audio
entonces comenzamos con la última fase
que era la grabación
en tiempo real de la clase
en el formato este que hemos hablado
matreosca con subtitulado
en tiempo real y luego
posterior edición todo automático
del audio para mejorarlo
en calidad con estos filtros
que acabo de comentar entonces
la clase se grababa normal
y se subtitulaba con un speech
to text que esto
son siglas STT
lo que hace es capturar
mi voz e intentar
hacerlo lo mejor posible
para subtitular en tiempo real
lo que voy diciendo esto funciona
ahí ahí principalmente
porque lo he fabricado yo
no es muy bueno actualmente
lo sigo mejorando es más
lo sigo mejorando desde el año 2020
que es cuando comenzamos todavía no tengo
una versión 1.0 para hacer el release
ya tendré otro programa entero
con vuestro permiso otra sección entera
solo y exclusivamente comentando esto
de cómo lo he fabricado de cómo me he pegado
con ello de cómo lo he mejorado
y de cómo la gente se suele pensar
que funciona con magia y pide cosas
que para mí son imposibles pero que sigo intentando
para intentar adaptar estas clases
entonces la clase se grababa
en tiempo real con ese subtitulado
no solo eso sino que
encima aprendimos un montón
de colores de baja visión
que eran perfectos para personas como yo
o que tuvieran otras patologías oculares
para que no les dañara
la clase al ver
el vídeo porque
el ver a lo mejor cierto tipo de patrones
de luz o colores azules
o cambios en la refracción
de la luz les estaba causando
un montón de fatiga ocular pero sorprendentemente
hay un montón de paletas de colores
que se pueden usar para hacer los frames
para hacer las diapositivas
que eran increíbles lo aprendimos
lo pusimos de forma automática
en estas clases y lo mantuvimos
en todos los vídeos que teníamos
en la oficina de software libre
con el subtitulado en tiempo real
y luego evidentemente
con la posterior edición
del audio pero esto
es perfecto para lo que yo considero
clases 3D puesto que actualmente
yo solo os he comentado que he grabado un vídeo
y le he fabricado un script pequeñito
todo libre que está ahí en la oficina
de software libre para mejorar
estos vídeos pero la idea
de la clase 3D vino para mejorar esto
puesto que yo he comentado en un principio
que el vídeo tenía que pesar poco
y que tenemos que intentar
limitar la interacción
de las personas con los elementos
de internet para no hacerles
un sobrecoste un sobregasto
entonces se me ocurrió una idea
de fabricar el mismo vídeo
grabado con un OBS
es un programa de edición
bueno permite grabar vídeo
y hacer emisión en tiempo real
está hecho en su web libre y por lo tanto
me permite modificar
cierto tipo de cosas y bueno pues
lo que hice fue fabricar
el programa para que me capturara
la boca en tiempo real
la pizarra que yo tenía
en el ordenador en tiempo real
y el subtitulado de tal forma
que me hace una composición de cuatro vídeos
a la vez dentro del mismo
punto MKV dentro del propio vídeo
para que tú como estudiante
selecciones el canal
que tú quieras por ejemplo
que quieres ver solo la pizarra
porque dices el profesor
no me interesa habla demasiado
o es demasiado poco agradable
para mi gusto pues no pasa nada
selecciones el canal de la pizarra
y solo ves la pizarra que quieres el canal
para hipoacusia tienes un canal de audio
con el audio súper mejorado
y subtitulado en tiempo real
con mi boca en tiempo real
bueno en tiempo real en el vídeo
perdón moviéndose
para que me puedas leer los labios
en el caso de que lo necesites
y la pizarra al lado que quieres el material
para descargar no pasa nada
hay un canal de vídeo
hay un apartado en un vídeo
que contiene en un QR
todo el material que se está usando
para que te lo puedas bajar
sin ningún tipo de problema
y con la licencia puesta en otro QR
para que veas que lo puedes usar
sin ningún tipo de problema
y bueno pues el último vídeo
que se incrusta es el que contiene
toda la información el que te dice
en el canal 1 está esta pizarra
en el canal 2 está esta otra pizarra
en el canal 3 está este subtitulado
este audio está en español
este audio está en inglés
este audio está mejorado
todo con sus títulos para poder elegir
esto tiene parte que es manual
tiene parte que es scripting
y llevo intentando mejorarlo desde el año
2021 en tiempo libre
pero actualmente es una de las clases
que me gusta dar dentro de la oficina
de software libre porque contiene
un montón de cosas de software libre
y un poco de mejoras de adaptaciones
para todas aquellas personas que importan
que son las para las que trabajo
que son el alumnado y bueno
en este caso lo hago de forma voluntaria
pero sigo considerándolo trabajo
así que bueno pues más o menos
esto es lo que quería comentar
de este tipo de software
no sé si qué opinas
un poco de la monstruosidad
que he ido fabricando a lo largo
de la pandemia todo lo que fuimos
aprendiendo o si tienes
algún tipo de idea
de duda a razón
de todo esto pues yo he tenido
la oportunidad de ver
alguno de esos vídeos
que comentabas y la verdad
es que el sistema está muy bien
me gusta mucho y es un buen ejemplo
de que como con tecnologías libres
pues se puede armar lo que tengas
en la cabeza muchísimas gracias
por decirme la verdad es que me motiva
un montón y sobre todo
para personas como yo que uno de los problemas
que tengo yo que sí que me gustaría
comentarlo como profesor
es que me cuesta muchísimo dar el programa
final porque pienso
que todas las personas de alrededor
van a saber mil veces más que yo
me van a criticar un montón
y me cuesta muchísimo dar el código
mientras lo voy fabricando
el escuchar este tipo
de opiniones de ideas
me motiva un montón
para intentar seguir dando
un poco de voluntariado
así que simplemente
que sea un poco más de calidad
de la que yo pueda aportar
para esta pequeña sección de clases
con Pascal y para mis
propias clases y para que yo mismo
pueda ir aprendiendo de todas las personas
que hacen estas secciones
y de ti y de todas las personas
que puedan comentar y que estoy seguro
de que les pueda motivar
lo que es la accesibilidad y el software libre
y voy a añadir el punto que siempre me gusta
porque a mí me gusta decir libre y gratuito
puesto que si solo es libre y me lo cobran
hay muchísimas personas que no pueden acceder a él
porque tenemos esa pequeña barrera
del dinero que yo sé que todo el mundo
tiene que comer hay empresas que tienen que
comer yo también tengo que comer
pero me gustaría utópicamente hablando
que las cosas fueran libres y gratuitas
para que no tuviéramos esa barrera
así que yo voy a intentar por mi parte
todo lo que se me permita que sea libre y gratuito
todo lo que me dejen hacer de momento
así que bueno pues muchísimas gracias
por escucharme y espero que esta sección
les haya resultado útil y que las ideas
que compartí puedan inspirar
a otras personas a seguir trabajando
por una educación más accesible
equitativa para todo el mundo
así que bueno si me lo permiten
nos vemos en la próxima entrega de Clases con Pascal
muchas gracias pues hasta aquí
la sección de Clases con Pascal
y ya estamos en la sección de
Érase una vez con Enrique Varela
hola Enrique hola oyentes
primera aparición después de la presentación
cuéntanos Enrique hoy de que nos vas a hablar
a ver si os resulta interesante voy a hablar de una cosa
que no mucha gente conoce
o practica o sabe que está presente
que se llama el eye tracking
que es el seguimiento de los ojos
y se trajo aquí a España en 2008
y que consiste en eso en que un ordenador
a través de una cámara sea capaz de seguir
el movimiento de tu iris
de tus ojos de tu mirada
y hacer algo en consecuencia
vale vamos para allá
vamos para allá esto lo trajo en 2008
José María Razola acabo de hablar con él
hace poco sigue vivito y coleando
y muy bien lo trajo de Israel
porque bueno
su historia es curiosa es un hombre vasco
que viajó mucho a lo largo del mundo
tenía una mujer tenía una mujer
que se murió de ella
de esquelosis lateral amiotrófica
que es lo que tuvo Hawking y que es una enfermedad
que te va dejando totalmente enclaustrado
en tu propio cuerpo porque al final
ya solo oyes el cerebro te funciona
perfectamente pero no puedes mover
más que los ojos precisamente
se le murió la mujer de esto
y él en un viaje a Israel
que tenía algunas relaciones
por allí pues vio una tecnología
que se usaba supongo que
a lo mejor ahora en estos tiempos
de guerra cruel se sigue usando
los cazas israelíes que usaban en los cascos
que era ver el objetivo y para apuntarlo
lo dirigían con los ojos el objetivo
y disparar pues parpadeando
con ese hecho simple y se le ocurrió
la feliz idea de convertir
esa tecnología de guerra en tecnología de paz
y pensó si con esto
se pudiera mover el ratón y con el parpadeo
hacer clic pues probablemente
mucha gente que no puede
que le pasó lo que a mi mujer
y que están enclaustrados en su cuerpo
por diversas razones sea por él
o por parálisis cerebral u otras razones
invalidantes de este tipo
pues podrían acceder al ordenador
ergo al mundo ergo a la comunicación
ergo a todo y con un amigo suyo
Pedro Palomo ingeniero madrileño
que también residía en San Sebastián
pues compraron lo que tuvieran que comprar
hablaron con los israelíes y a mí me presentaron
yo a la sazón era en 2008
director de accesibilidad de la fundación 11
me presentaron el tema
ya hecho un poco en rudimento
resultaba carísimo porque habían pagado
muchos royalties y cosas
a la gente de Israel yo no lo pude echar
arriba como director
de aquella fundación no les pude ayudar
pero me hice muy amigo de él
y medio año después pues fundamos
Fundeso la fundación
que yo lleve durante 14 años
fue mi primer patrono porque
bueno empezamos con eso
consiste pues en eso
al revés que los cazas
pues ellos fundaron Iriscom
se llamó la empresa y consiste
en que con la mirada se mueve
había que calibrar una cámara
que se ponía externamente
al ordenador al pc
esto se hizo por cierto
Pedro trabajaba con tecnologías libres
siempre y en lenguajes
de programación abiertos
y demás sin código abierto
aunque después claro
hubo que pasarlo al entorno
Windows que es lo que
mayoritariamente tenía la gente
pues eso una cámara
en un soporte bien orientada
se calibraba con el paciente
con la persona que lo iba a usar
o con el usuario mejor que paciente
una vez calibrado pues ya aquello
se dejaba inamovible
la cámara en aquel sitio
por supuesto el puesto
de la persona también inamovible
y con esos dos parámetros bien
perdón esto sincronizado
todo pues efectivamente
funcionaba acompañaron todo aquello
con un paquete de programas
de teclados de barrido
y demás para dar
mejoras a las personas
bueno mejoras no es que era
el antes y el después
antes no podían utilizar
el ordenador para nada
y usarlo yo he asistido
a varias instalaciones y me impresionó
mucho uno de una señora
de 70 80 años
que había tenido un ictus
y estaba muy inmovilizada
en una residencia y había sido
informática además
era entonces lo dieron
se calibró aquello
en apenas 15 minutos que era un tiempo
récord para aquella época
empezó a trabajar empezó a teclear
y empezó a quejarse de todo
empezando de su marido que no le quería
comprar el bicho y siguiendo
con cómo la trataban en la residencia
y demás y fue un
aparte de la queja y tal
pero que se veía que era un cambio
total o sea la mujer
aquella pues volvió a programar
porque además era diseñadora
software y cosas y volvió
o sea fue el antes y el después
en 2001 en 2001
les dieron el premio el premio
príncipe de Viana que se da
en Navarra y bueno
después siguieron desarrollando
prototipos mejores bueno ya cosas mejores
más baratos con mayor
mejor calibración y al final
cuando Arrasola se jubiló
pues se lo vendieron a un
a un emprendedor
Eduardo Jauregui que está con ello
bajo el nombre de Iriscom
Iris Bond ahora
y bueno pues él
ha seguido adelante
hasta el punto de que en algunos
teléfonos Android y me parece que fue
Samsung o alguien que
ahora pues mira ese dato no lo tengo
le compraron el tema
o parte de la licencia el caso es que
en algunos teléfonos funciona ahora mismo
sin tanta calibración y demás
pero aquellos fueron los principios
y sobre todo yo les quería convencer
de que valdría para muchas más cosas
incluso para hacer
el traqueo yo que sé
utilizando una cámara de esas
en un coche por ejemplo
pues poder saber dada la señalética
de la carretera a dónde mirabas tú más
y a dónde no porque una vez que se sabe
que se sigue el movimiento de tus ojos
pues se puede trasear y hacer cosas
pero bueno de momento
ha quedado en este tipo de uso
aunque me consta que en quirófanos
y tal se quería también
empezar a usar porque evidentemente
el médico cuando está haciendo cosas
está entre comillas con las manos en la masa
y si puede mover mucho software
y muchas pantallas y muchas historias
con solo la mirada pues le resultaría
muy útil también pero bueno
es en este aspecto de la discapacidad
donde ha triunfado más el light tracking
y donde sigue ahí y yo creo que prosperará
sí aunque bueno
el marketing también se ha utilizado
bastante para no fines
no tan positivos para saber a dónde miras
y eso bueno
es que son un ordenador también
utilizando la cámara pues dada una web
y un diseño para fines buenos
se puede utilizar si tu web
está bien diseñada desde el punto de vista
de usabilidad a dónde mira antes
el usuario y cosas de esas
pero sí sí me consta
que lo que dices también es
bueno de hecho empezó
con tecnología de guerra o sea que
menos mal que se convirtió
en esto también aunque supongo
que seguirá en la guerra también
sí seguramente bueno pues una tecnología
interesante que se está utilizando
a día de hoy estuvo muy ligado
a la creación de mi fundación
lo hemos apoyado y de hecho
nosotros propusimos para el príncipe de Viana
que le supuso un apoyo
más allá del marketing pues un apoyo económico
y que ahí sigue y que siga
esperemos que siga porque creemos
yo creo que es una tecnología muy útil
y que a mucha gente la separa del nada
al todo del no comunicarse
a comunicarse es interesante
sin lugar a dudas pues hasta aquí
la sección de Eras una vez
con Enrique Varela hasta pronto
Este podcast tiene licencia Reconocimiento-CompartirIgual 4.0 Internacional (CC BY-SA 4.0).