OsmAnd, Podcasting 2.0, Realidad Virtual, FOSDEM + html semántico, gPodder + StreetComplete, Ubuntu Mate 22.10 y voces sintéticas
Programa 04:
- Odisea en el ciberespacio, con David Marzal. Hablamos de OsmAnd, podcasting 2.0 y otros proyectos molones.
- Otros mundos, otras realidades, con Thais Pousada. Entrevista a Manuel Lagos sobre temas de Realidad Virtual para facilitar intervenciones con personas con discapacidad.
- Accesibilidad web, con Pablo Arias. Comenta sobre la FOSDEM 2024 y el html semántico.
- Laboratorio de testing con Markolino. Nos comenta su experiencia con gPodder y StreetComplete.
- Laboratorio de testing con Víctor. Nos comenta sus pruebas con Ubuntu Mate 22.10.
- Diseño para todos, con Jonathan Chacón. Nos habla de voces sintéticas.
Subtítulos disponibles en steno.fm si vuestra aplicación no los implementa.
Enlace a comentarios por si vuestra aplicación no los implementa.
Transcripción completa pinchando aquí
En la sección 2023, una odisea en el ciberespacio con nuestro
David particular, David Marzal. Hola David, ¿qué nos traes
hoy? Buenas, pues hoy en vez de un
tema completamente nuevo, la idea es profundizar un poco en
los dos temas anteriores que traté.
En el primer episodio de verdad, no en el de presentación,
hablé de transcripción y subtitulado y en el segundo, de Wheelmap y
cómo mapear en mapas libres a características de
accesibilidad. Pues en este traigo por ejemplo la manera
de consumir los datos que nosotros podemos poner en OpenStreetMaps
para gente con problemas a la hora de movilidad o de visibilidad.
Entonces, pondré por más todas las capturas de pantalla
que he hecho y ahora mismo más o menos os voy a describir las
opciones que tiene la aplicación de OsmAnd, que
está en F-Droid, que es completamente libre y también
está en Google Play y tiene ahí opciones
de pago. Entonces, una de ellas es, tú puedes en StreetMaps
y en Wheelmap, tú puedes marcar si un sitio es accesible para silla
de ruedas completamente limitado o no. Pues tú en esta
aplicación de navegación, tú le dices, yo quiero buscar
un restaurante por ejemplo y en las opciones que tiene arriba a
la derecha te deja filtrar. Entonces, tú puedes filtrar el
restaurante, si fuma, si no fuma, qué tipo de comida tiene,
un montón de opciones. Y la última del todo, se llama
accesible para silla de ruedas. Entonces,
tú puedes mostrar sólo los restaurantes que sí sean accesibles,
que esté señalado, que no sean accesibles o que
sea limitado. Esa es una de las opciones. Otro, lo que tiene
también es que cuando tú buscas un restaurante sin filtro ninguno,
él en la información del restaurante te va a decir
si es accesible o no. Luego, a la hora de la movilidad, tiene
varias opciones. Tú cuando haces una ruta, tú puedes decirle
quiero ir a pie desde donde estoy al restaurante y él te
va a decir que vas a tardar X tiempo. Tú puedes meterte
en parámetros del vehículo, aunque no sea muy intuitivo, el
vehículo también cuenta como tú mismo para andar. Aceptamos
pies como vehículo. Efectivamente. Tú estás propulsado
por ti mismo, pero para esta aplicación tiene en el mismo
sitio velocidad predefinida. Funciona
por perfiles. Tú tienes un perfil coche, un perfil bici,
un perfil, tiene 15.000 perfiles y te puedes crear los tuyos. En
el perfil a pie, yo lo que he hecho es ir probando y
entonces puedes cambiarse y decir yo voy a dos kilómetros
por hora o a tres o a cuatro o a cinco. Y entonces se adapta
el tiempo y la ruta a tu ritmo y no a que él piense
que puede ir cualquier persona que va al ritmo de la media. Yo,
por ejemplo, voy a un ritmo bastante más bajo que el de mi
mujer y mi mujer va a un ritmo bastante más rápido
que el de la media. Y luego también para el ritmo también
influye que te deja configurar si quieres que tengas en cuenta
la inclinación, la pendiente del camino. Entonces tú puedes
decirle que tenga en cuenta si hay un sitio que está con, yo
sé, 300 metros de altitud y va a tener que subir una cuesta
del Copón, pues eso lo mismo. Hay gente que o por silla
de ruedas o porque es difícil acceso, no le conviene.
Entonces te lo tiene en cuenta. Porque le puedes decir que a la
hora de hacer la ruta se salte todos los caminos que tengan
escaleras. Y la última opción, si me acuerdo, era pavimento
táctil. Preferir las calles que tengan señalado en el suelo
para problemas con deficiencias visuales, si van a estar
marcados donde están los pasos de peatones o si está todo
bien señalizado. Esas son todas las opciones que he ido
viendo de las que puedes estar usando datos que la gente
haya metido en OpenStreetMaps y podemos así configurar la ruta
de la forma más adecuada para nosotros.
Claro, esto al principio puede ser así un poco abrumador,
pero esto te lo vas configurando poco a poco, te lo pones en el
perfil y ya lo dejas puesto para siempre. O sea, podrías
creerte un perfil específico que sea perfil accesibilidad a
pie y esto te lo dejas puesto. Sí, porque si no habéis usado
nunca OsmAnd, la primera vez que lo usas te puede echar
para atrás porque tiene muchísimos menús y muchas
veces no sabes dónde hay que mirar
o dónde hay que buscar. Pero bueno, poco a poco te vas
familiarizando con él. Sí, yo aparte las capturas de
pantalla las colgaré en Mastodon porque son unas cuantas
y de todas maneras si hay alguien que no lo encuentre, si
me escribe por Mastodon, yo le digo cómo llegar porque
prácticamente todas las opciones que he dicho, la mitad
están en sitios diferentes. O sea, no es que te metas en un
menú y ahí están todas, sino que una está cuando vas a
hacer la ruta, otra está en el perfil de a pie, otra está
en las opciones no sé qué, con lo cual hay que ir rebuscando
un poco en la aplicación. Pero bueno, con las fotos que
yo he hecho se ve más o menos cuál es la opción principal.
Por ejemplo, en parámetros de ruta, peatón, eso es lo
primero que hay que buscar. De ahí
ya se ve que es la opción preferir y en preferir marcamos
preferir pavimento táctil. Con las
fotos se llega mucho más fácil.
No recuerdo si los perfiles los dejaba exportar, la versión
gratuita. La verdad es que me suena...
Bueno, la F-Droid cuando tú la arrancas te dice que es la Pro.
O sea que yo creo que esa sí que te deja. Ya sabéis, si hay
dos opciones siempre elegir la F-Droid antes que la de
Google Play por muchos motivos. Queda pendiente que seguiré
buscando cuando encuentre la manera de resaltar lo que
pueden meter en OpenStreetMap de las
aceras, que te deja decir si tiene un salto muy grande
o no, o si es una rampilla o si está a pie de suelo. Eso no lo
he visto específicamente que aquí te lo deja tener en
cuenta. No sé si lo tiene internamente, pero seguiré
buscando una manera de hacerlo accesible
fácil como esto, porque sí que hay páginas webs que
haciendo una especie de consulta SQL de la base de datos te lo
dice, pero eso no es accesible para ir con el móvil y de
repente decir "quiero ir a este sitio" y que me lo tenga en
cuenta. Muy bien. ¿Qué más nos traes
hoy? La segunda parte es profundizar
en lo que estuvimos hablando de la transcripción y
subtitulado. Estuvimos hablando de que hay un PostCasting 2.0
que te deja meter etiquetas nuevas en el feed y tiene
características como que salgan unos circulitos con las
personas que están en el episodio o,
sobre todo, lo más útil ahora mismo es tener una transcripción,
o sea, todo el texto que se está hablando y el subtitulado
de que en cada momento que tú estás hablando está apareciendo
la frase que estás diciendo. Pues esto que lo soporta en
alguna aplicación, que dejamos en el anterior episodio un enlace,
Podverse, Antennapod está a punto de ponerlo. Yo me sé las
libres, AnyTime, PostCastPlayer, pero hay muchas más privativas
también. Las cosas que son son unas aplicaciones que comparten un 8 o un 10 por ciento del mercado.
La mayoría usa Apple Podcasts y Spotify, aunque yo recomiendo tener las dos instaladas para
poder tener las novedades en las buenas que son de software
libre y son punteras en todas las etiquetas estas nuevas.
Luego de repente ha salido Apple Podcasts y ha dicho que a
partir de marzo, cuando venga iOS 18, que ahora mismo están
en beta, ellos por su cuenta van a ponerle subtítulos a
todos los podcasts que estén en la aplicación de Apple
Podcasts, ya sea el nuestro o ya
sea el de la empresa más gorda. Ellos se van a encargar de
transcribirlo y ponerle subtitulado con el marcado de
tiempo donde puedes pinchar en la palabra y se va al momento.
Cierto, pero de tal forma no son innovadores porque ya casi
todas las plataformas ya estaban
metiendo las transcripciones de los programas, tanto en los podcasts
de audio como en los vídeos. Sí, lo bueno que ha
hecho Apple es que ha respetado lo que es el estándar
del RSS y del podcasting y ellos por defecto te lo van
a hacer con su IA que ellos estén usando, porque en realidad
ellos ya lo hacían. Porque Apple lo que hacía era transcribir
los textos, ver de qué hablaba tu podcast y según eso
pues hacer las recomendaciones o cerrarte el podcast si no le
gustaba, pues en vez de quedarse sin formación para ver los
temas de lo que va el episodio en concreto, lo que han hecho
es ponerlo como subtítulo y la diferencia de otras plataformas,
Spotify lo hace con 3 o 4 podcasts sueltos, pero
Apple lo hace con todos los que estén en español, inglés
y 4 o 5 idiomas más, y te va a dejar respetar las transcripciones
que tú hagas. Nosotros en este podcast, por ejemplo,
hacemos transcripciones con Whisper, que es de lo que yo
hablé en el anterior episodio. Si la
lleva en el feed, carga la del feed.
Apple es un poco suya y lo va a hacer al revés. Lo normal
sería lo que tú dices. Detecto que tiene ya una transcripción,
pues uso esa. Apple como es muy suya, dice yo por defecto
siempre uso la mía, pero te dejo que tú como creador del
podcast marques si quieres usar las tuyas. Entonces, si
tú haces eso, creo que se llama Apple Connect. Es una
página web que tiene Apple donde tú
manejas el directorio de Apple. Este programa es mío y
entonces yo lo puedo configurar. Pues
tú hay marcas que quieres por defecto los tuyos y lo que
hará es buscar la etiqueta podcast 2.transcript, que es el
estándar que hay moderno, que es
el que nosotros usamos. Si lo encuentra, pondrá los nuestros
y si no lo encuentra, pondrá los suyos. Con lo cual, los
nuestros normalmente están más trabajados porque su guía
no está mal para ser una guía
que te dan gratis. Acierta bastante, pero ellos no van a
estar como yo echándole una hora viéndose
si hay una palabra que se ha equivocado, que es súper
obvia y sustituyéndola a todas las veces que se repita. Siempre
es mejor usar los tuyos propios porque sobre todo con
los nombres o nombres comunes, palabras concretas. Yo
esta mañana estaba haciendo una edición y yo no sé si he
arreglado 500 palabras que al final a lo mejor son 50 que
se repiten 10 veces, pero siempre es mejor poder hacerlo
tú que lo vas a hacer con más cariño. Y nosotros aún no lo
hacemos, pero tú podrías poner el nombre de quien está
hablando. Si tuviéramos tiempo infinito, yo podría decir
ahora está hablando David, ahora habla Jorge. Eso Apple no
te lo va a hacer nunca. Tú sí puedes hacerlo en tu fichero de
transcripción si tienes tiempo o pagas por una aplicación
que te lo haga automáticamente. Lo de Apple es a partir de
finales de marzo, pero ahora mismo nuestros oyentes podrían
estar utilizándolo ya si usaran una aplicación moderna en vez
de Apple Podcast. O sea, si esto lo escuchan en Podverse,
ya pueden ver los subtítulos. Quien no quiera salir de Apple
Podcast por el motivo que sea, que sepa que a partir de
marzo va a tener la accesibilidad de tener todos los subtítulos,
buscar palabras en el episodio y que se vaya al
momento en concreto o ir leyendo mientras que pasa. Y ya corto
con lo que es la transcripción y ya otros días traeré otras
etiquetas que tiene el podcasting 2.0. Como siempre,
David Marzal, apostando fuerte por el podcasting 2.0. Bueno,
hasta aquí la sección. Gracias, David.
Un saludo, hasta luego. Y en la sección de "Otros mundos,
otras realidades" estamos con Thais Poussada,
como es costumbre. Hola, Thais. Hola. Hoy creo que vienes con
invitado, ¿verdad? Hoy sí. Vengo muy bien
acompañada y tenemos con nosotros a Manuel Lagos, que es
investigador del Centro de Investigación en
las TIC del CITIC de la Universidad de La Coruña. Y es
un placer que esté con nosotros, pero es un estudiante
de doctorado al que dirijo yo y, bueno, está desarrollando
una aplicación muy interesante con realidad virtual para
facilitar intervenciones con personas que tienen algún tipo
de discapacidad. Hola, Manuel. Hola, ¿qué tal?
Primero, gracias por la invitación. Para mí siempre es un placer
poder explicar un poco en lo que estoy trabajando y dar a
conocer una tecnología como es la realidad virtual, que se
escucha mucho en muchos sitios como la inteligencia artificial,
pero creo que aún puede generar algunas dudas y, bueno,
si puedo aportar mi granito de arena, pues genial.
No lo inventó Apple, ¿no? La realidad virtual. No, no lo
inventó Apple. Aunque ahora esté
ahí de moda y lo estén saturando con las gafas de realidad
virtual, que son una maravilla, que son otro mundo, no, no son
los primeros. Tampoco es libre totalmente, porque las gafas
que utilizamos al final, pues son de comerciales, son gafas
comerciales, ¿vale? Pero los desarrollos
que está haciendo Manuel sí que serán libres en su día.
Bueno, Manuel es ingeniero en informática, tiene un grado en
informática, luego hizo un máster en robótica. Yo a
Manuel lo conocí realmente cuando estaba haciendo su
trabajo fin de grado y, precisamente,
estaba haciendo este desarrollo de realidad virtual. Ahí
fueron un poco sus inicios y a mí me gustaría preguntarle,
pues, por qué él, en su día, se decidió a hacer algo en
realidad virtual para personas con discapacidad.
Pues es una buena pregunta. Tengo que volver unos añitos atrás
y fue cuando estaba acabando la carrera. Normalmente, no sé
cómo es en el resto de carreras, pero en informática
salen unos listados con diferentes propuestas, con
diferentes temáticas de trabajos de fin
de grado. Y, normalmente, lo que más abunda suelen ser
desarrollos, a lo mejor, de aplicaciones
de gestión, aplicaciones para, imagínate, un restaurante, un
gimnasio, etcétera. Pero entre, bueno, esos trabajos, a
mí me destacó uno que era, lo vi como muy práctico y muy
visible en la sociedad, y es, pues, el tema del TFG, que era,
pues, realidad virtual aplicada a las personas con discapacidad.
Entonces, yo, la verdad, es que fui directo por él.
De hecho, no miento si digo que tenía miedo que, bueno, pues,
se me adelantara a alguien porque, al final, ahí escoges
por nota. Pero, bueno, finalmente tuve suerte y
conseguí hacer ese trabajo. O sea, a mí
me motivaba muchísimo porque yo antes, antes de comenzar,
yo pensaba, bueno, va a ser algo que, si lo logro hacer, va
a tener como una repercusión, voy a ver como el resultado muy
cercano, muy fácil a nivel de la sociedad. Y, nada, a
partir de ahí, pues, también fue ya cuando me encontré con
TICE porque, bueno, yo sé un poco la parte informática,
pero tampoco sabía si las ideas que tenía yo, pues, iban
a tener utilidad para trabajar algún tipo de habilidad
física o cognitiva. Y fue un poco ya cuando hablé con TICE,
¿qué te parece esto? ¿Cómo puedo enfocarlo? Y, bueno, me
echó ahí una mano y fue, pues, creo que fue como nos conocimos
ahí en ese punto. ¿Cuáles fueron los resultados
de ese trabajo? Pues, los resultados fue hacer una aplicación
de realidad virtual basada en actividades de la vida diaria.
El escenario que hemos escogido ha sido, pues, una
casa y las actividades se desarrollaban en una cocina y
en una sala. En total se han planteado 4, 4
tareas relacionadas con, más bien, habilidades físicas y en
concreto con movilidad de las manos. Entonces, una de ellas
era, por ejemplo, pues, practicar lo que es el manejo de un cuchillo
y un tenedor con las ventajas que nos ofrece la realidad
virtual. La más notoria quizás es la seguridad, es decir, no
nos vamos a cortar con el cuchillo porque no existe, es virtual.
Entonces, bueno, la persona lo que tiene que hacer es agarrar
el cuchillo, el tenedor y hacer cortes sobre la comida. Esa es
una para un poco practicar, pues, ese manejo de cubiertos.
Otra era abrir un grifo. Nos planteaban que era interesante
practicar lo que es el movimiento rotacional de la
mano. Entonces, pues, desarrollé un
grifo y lo que tenía que hacer la persona, pues, es abrirlo,
llenar una jarra con agua y volver a cerrarlo. Y después
otra también relacionada con las manos era, pues, algo
muy simple, colocar varias especies de fruta en un frutero. Pero
bueno, lo que le permitía a la persona, pues, practicar
diferentes tipos de agarre. Y ya el último, aunque también
implicaba trabajo físico, sí que estaba enfocado más a
nivel cognitivo. Y bueno, la persona
estaba otra vez, pues, en una cocina. Tenía en una mesa
varios tipos de alimentos, varios
tipos de utensilios y tenía que escoger entre ellos cuáles
consideraba adecuados para preparar
un desayuno. Esas serían las cuatro actividades y, bueno,
pues, son cosas que nos podemos encontrar en el día a día,
pero que algunas personas, pues, pueden tener alguna pequeña
dificultad. Y la idea, pues, es mejorarla a través de la vida
virtual. Por lo que veo, es una especie
de pequeño gimnasio virtual. Exacto. Un poquito, sí. Aquí
lo enfocamos un poco a actividades diarias, pero sí.
Claro, la idea es simular los escenarios que nos podemos
encontrar, pues, en esas actividades de la vida diaria de una forma
controlada y segura. Este fue su trabajo fin de grado,
¿no? Pero ahora la propuesta que estamos desarrollando en su
programa de doctorado es, pues, personalizar. Es
decir, pues, que podamos presentar un escenario, pero
con actividades adaptadas a las capacidades y
necesidades que tenga la persona en su proceso de
intervención. Exacto. Eso también es una
característica que nos permite a nivel tecnológico la
realidad virtual. Nosotros podemos hacer
como una pantalla de configuración inicial y modificar ciertos
parámetros. Pues, por ejemplo, nivel de dificultad podría ser,
pues, imaginemos en ese escenario de la cocina cuántos elementos
le vamos a poner a la persona para trabajar, para elegir.
Es decir, a lo mejor empezamos con 4 o 5, pero podemos ir
aumentando a 10, a 15 y así otros parámetros que se puedan
ir adaptando a cómo progresa la persona.
Manuel, ¿me puedes comentar así a nivel técnico qué
motor usas? ¿Dónde se va a poder utilizar este...? Bueno,
yo lo llamo gimnasio. No sé qué nombre le habéis dado.
Sí, sí. Yo desde que empecé en esto trabajo con Unity. Es
un software gratuito. Solo hay que pagar a partir ya de ciertos
ingresos, pero no es nuestro caso. Entonces, se puede
descargar, instalar y comenzar a trabajar. Y después, en
cuanto a lrticular, David Marzal. Hola David, ¿qué nos traes
hoy? Buenas, pues hoy en vez de un
tema completamente nuevo, la idea es profundizar un poco en
los dos temas anteriores que traté.
En el primer episodio de verdad, no en el de presentación,
hablé de transcripción y subtitulado y en el segundo, de Wheelmap y
cómo mapear en mapas libres a características de
accesibilidad. Pues en este traigo por ejemplo la manera
de consumir los datos que nosotros podemos poner en OpenStreetMaps
para gente con problemas a la hora de movilidad o de visibilidad.
Entonces, pondré por más todas las capturas de pantalla
que he hecho y ahora mismo más o menos os voy a describir las
opciones que tiene la aplicación de OsmAnd, que
está en F-Droid, que es completamente libre y también
está en Google Play y tiene ahí opciones
de pago. Entonces, una de ellas es, tú puedes en StreetMaps
y en Wheelmap, tú puedes marcar si un sitio es accesible para silla
de ruedas completamente limitado o no. Pues tú en esta
aplicación de navegación, tú le dices, yo quiero buscar
un restaurante por ejemplo y en las opciones que tiene arriba a
la derecha te deja filtrar. Entonces, tú puedes filtrar el
restaurante, si fuma, si no fuma, qué tipo de comida tiene,
un montón de opciones. Y la última del todo, se llama
accesible para silla de ruedas. Entonces,
tú puedes mostrar sólo los restaurantes que sí sean accesibles,
que esté señalado, que no sean accesibles o que
sea limitado. Esa es una de las opciones. Otro, lo que tiene
también es que cuando tú buscas un restaurante sin filtro ninguno,
él en la información del restaurante te va a decir
si es accesible o no. Luego, a la hora de la movilidad, tiene
varias opciones. Tú cuando haces una ruta, tú puedes decirle
quiero ir a pie desde donde estoy al restaurante y él te
va a decir que vas a tardar X tiempo. Tú puedes meterte
en parámetros del vehículo, aunque no sea muy intuitivo, el
vehículo también cuenta como tú mismo para andar. Aceptamos
pies como vehículo. Efectivamente. Tú estás propulsado
por ti mismo, pero para esta aplicación tiene en el mismo
sitio velocidad predefinida. Funciona
por perfiles. Tú tienes un perfil coche, un perfil bici,
un perfil, tiene 15.000 perfiles y te puedes crear los tuyos. En
el perfil a pie, yo lo que he hecho es ir probando y
entonces puedes cambiarse y decir yo voy a dos kilómetros
por hora o a tres o a cuatro o a cinco. Y entonces se adapta
el tiempo y la ruta a tu ritmo y no a que él piense
que puede ir cualquier persona que va al ritmo de la media. Yo,
por ejemplo, voy a un ritmo bastante más bajo que el de mi
mujer y mi mujer va a un ritmo bastante más rápido
que el de la media. Y luego también para el ritmo también
influye que te deja configurar si quieres que tengas en cuenta
la inclinación, la pendiente del camino. Entonces tú puedes
decirle que tenga en cuenta si hay un sitio que está con, yo
sé, 300 metros de altitud y va a tener que subir una cuesta
del Copón, pues eso lo mismo. Hay gente que o por silla
de ruedas o porque es difícil acceso, no le conviene.
Entonces te lo tiene en cuenta. Porque le puedes decir que a la
hora de hacer la ruta se salte todos los caminos que tengan
escaleras. Y la última opción, si me acuerdo, era pavimento
táctil. Preferir las calles que tengan señalado en el suelo
para problemas con deficiencias visuales, si van a estar
marcados donde están los pasos de peatones o si está todo
bien señalizado. Esas son todas las opciones que he ido
viendo de las que puedes estar usando datos que la gente
haya metido en OpenStreetMaps y podemos así configurar la ruta
de la forma más adecuada para nosotros.
Claro, esto al principio puede ser así un poco abrumador,
pero esto te lo vas configurando poco a poco, te lo pones en el
perfil y ya lo dejas puesto para siempre. O sea, podrías
creerte un perfil específico que sea perfil accesibilidad a
pie y esto te lo dejas puesto. Sí, porque si no habéis usado
nunca OsmAnd, la primera vez que lo usas te puede echar
para atrás porque tiene muchísimos menús y muchas
veces no sabes dónde hay que mirar
o dónde hay que buscar. Pero bueno, poco a poco te vas
familiarizando con él. Sí, yo aparte las capturas de
pantalla las colgaré en Mastodon porque son unas cuantas
y de todas maneras si hay alguien que no lo encuentre, si
me escribe por Mastodon, yo le digo cómo llegar porque
prácticamente todas las opciones que he dicho, la mitad
están en sitios diferentes. O sea, no es que te metas en un
menú y ahí están todas, sino que una está cuando vas a
hacer la ruta, otra está en el perfil de a pie, otra está
en las opciones no sé qué, con lo cual hay que ir rebuscando
un poco en la aplicación. Pero bueno, con las fotos que
yo he hecho se ve más o menos cuál es la opción principal.
Por ejemplo, en parámetros de ruta, peatón, eso es lo
primero que hay que buscar. De ahí
ya se ve que es la opción preferir y en preferir marcamos
preferir pavimento táctil. Con las
fotos se llega mucho más fácil.
No recuerdo si los perfiles los dejaba exportar, la versión
gratuita. La verdad es que me suena...
Bueno, la F-Droid cuando tú la arrancas te dice que es la Pro.
O sea que yo creo que esa sí que te deja. Ya sabéis, si hay
dos opciones siempre elegir la F-Droid antes que la de
Google Play por muchos motivos. Queda pendiente que seguiré
buscando cuando encuentre la manera de resaltar lo que
pueden meter en OpenStreetMap de las
aceras, que te deja decir si tiene un salto muy grande
o no, o si es una rampilla o si está a pie de suelo. Eso no lo
he visto específicamente que aquí te lo deja tener en
cuenta. No sé si lo tiene internamente, pero seguiré
buscando una manera de hacerlo accesible
fácil como esto, porque sí que hay páginas webs que
haciendo una especie de consulta SQL de la base de datos te lo
dice, pero eso no es accesible para ir con el móvil y de
repente decir "quiero ir a este sitio" y que me lo tenga en
cuenta. Muy bien. ¿Qué más nos traes
hoy? La segunda parte es profundizar
en lo que estuvimos hablando de la transcripción y
subtitulado. Estuvimos hablando de que hay un PostCasting 2.0
que te deja meter etiquetas nuevas en el feed y tiene
características como que salgan unos circulitos con las
personas que están en el episodio o,
sobre todo, lo más útil ahora mismo es tener una transcripción,
o sea, todo el texto que se está hablando y el subtitulado
de que en cada momento que tú estás hablando está apareciendo
la frase que estás diciendo. Pues esto que lo soporta en
alguna aplicación, que dejamos en el anterior episodio un enlace,
Podverse, Antennapod está a punto de ponerlo. Yo me sé las
libres, AnyTime, PostCastPlayer, pero hay muchas más privativas
también. Las cosas que son son unas aplicaciones que comparten un 8 o un 10 por ciento del mercado.
La mayoría usa Apple Podcasts y Spotify, aunque yo recomiendo tener las dos instaladas para
poder tener las novedades en las buenas que son de software
libre y son punteras en todas las etiquetas estas nuevas.
Luego de repente ha salido Apple Podcasts y ha dicho que a
partir de marzo, cuando venga iOS 18, que ahora mismo están
en beta, ellos por su cuenta van a ponerle subtítulos a
todos los podcasts que estén en la aplicación de Apple
Podcasts, ya sea el nuestro o ya
sea el de la empresa más gorda. Ellos se van a encargar de
transcribirlo y ponerle subtitulado con el marcado de
tiempo donde puedes pinchar en la palabra y se va al momento.
Cierto, pero de tal forma no son innovadores porque ya casi
todas las plataformas ya estaban
metiendo las transcripciones de los programas, tanto en los podcasts
de audio como en los vídeos. Sí, lo bueno que ha
hecho Apple es que ha respetado lo que es el estándar
del RSS y del podcasting y ellos por defecto te lo van
a hacer con su IA que ellos estén usando, porque en realidad
ellos ya lo hacían. Porque Apple lo que hacía era transcribir
los textos, ver de qué hablaba tu podcast y según eso
pues hacer las recomendaciones o cerrarte el podcast si no le
gustaba, pues en vez de quedarse sin formación para ver los
temas de lo que va el episodio en concreto, lo que han hecho
es ponerlo como subtítulo y la diferencia de otras plataformas,
Spotify lo hace con 3 o 4 podcasts sueltos, pero
Apple lo hace con todos los que estén en español, inglés
y 4 o 5 idiomas más, y te va a dejar respetar las transcripciones
que tú hagas. Nosotros en este podcast, por ejemplo,
hacemos transcripciones con Whisper, que es de lo que yo
hablé en el anterior episodio. Si la
lleva en el feed, carga la del feed.
Apple es un poco suya y lo va a hacer al revés. Lo normal
sería lo que tú dices. Detecto que tiene ya una transcripción,
pues uso esa. Apple como es muy suya, dice yo por defecto
siempre uso la mía, pero te dejo que tú como creador del
podcast marques si quieres usar las tuyas. Entonces, si
tú haces eso, creo que se llama Apple Connect. Es una
página web que tiene Apple donde tú
manejas el directorio de Apple. Este programa es mío y
entonces yo lo puedo configurar. Pues
tú hay marcas que quieres por defecto los tuyos y lo que
hará es buscar la etiqueta podcast 2.transcript, que es el
estándar que hay moderno, que es
el que nosotros usamos. Si lo encuentra, pondrá los nuestros
y si no lo encuentra, pondrá los suyos. Con lo cual, los
nuestros normalmente están más trabajados porque su guía
no está mal para ser una guía
que te dan gratis. Acierta bastante, pero ellos no van a
estar como yo echándole una hora viéndose
si hay una palabra que se ha equivocado, que es súper
obvia y sustituyéndola a todas las veces que se repita. Siempre
es mejor usar los tuyos propios porque sobre todo con
los nombres o nombres comunes, palabras concretas. Yo
esta mañana estaba haciendo una edición y yo no sé si he
arreglado 500 palabras que al final a lo mejor son 50 que
se repiten 10 veces, pero siempre es mejor poder hacerlo
tú que lo vas a hacer con más cariño. Y nosotros aún no lo
hacemos, pero tú podrías poner el nombre de quien está
hablando. Si tuviéramos tiempo infinito, yo podría decir
ahora está hablando David, ahora habla Jorge. Eso Apple no
te lo va a hacer nunca. Tú sí puedes hacerlo en tu fichero de
transcripción si tienes tiempo o pagas por una aplicación
que te lo haga automáticamente. Lo de Apple es a partir de
finales de marzo, pero ahora mismo nuestros oyentes podrían
estar utilizándolo ya si usaran una aplicación moderna en vez
de Apple Podcast. O sea, si esto lo escuchan en Podverse,
ya pueden ver los subtítulos. Quien no quiera salir de Apple
Podcast por el motivo que sea, que sepa que a partir de
marzo va a tener la accesibilidad de tener todos los subtítulos,
buscar palabras en el episodio y que se vaya al
momento en concreto o ir leyendo mientras que pasa. Y ya corto
con lo que es la transcripción y ya otros días traeré otras
etiquetas que tiene el podcasting 2.0. Como siempre,
David Marzal, apostando fuerte por el podcasting 2.0. Bueno,
hasta aquí la sección. Gracias, David.
Un saludo, hasta luego. Y en la sección de "Otros mundos,
otras realidades" estamos con Thais Poussada,
como es costumbre. Hola, Thais. Hola. Hoy creo que vienes con
invitado, ¿verdad? Hoy sí. Vengo muy bien
acompañada y tenemos con nosotros a Manuel Lagos, que es
investigador del Centro de Investigación en
las TIC del CITIC de la Universidad de La Coruña. Y es
un placer que esté con nosotros, pero es un estudiante
de doctorado al que dirijo yo y, bueno, está desarrollando
una aplicación muy interesante con realidad virtual para
facilitar intervenciones con personas que tienen algún tipo
de discapacidad. Hola, Manuel. Hola, ¿qué tal?
Primero, gracias por la invitación. Para mí siempre es un placer
poder explicar un poco en lo que estoy trabajando y dar a
conocer una tecnología como es la realidad virtual, que se
escucha mucho en muchos sitios como la inteligencia artificial,
pero creo que aún puede generar algunas dudas y, bueno,
si puedo aportar mi granito de arena, pues genial.
No lo inventó Apple, ¿no? La realidad virtual. No, no lo
inventó Apple. Aunque ahora esté
ahí de moda y lo estén saturando con las gafas de realidad
virtual, que son una maravilla, que son otro mundo, no, no son
los primeros. Tampoco es libre totalmente, porque las gafas
que utilizamos al final, pues son de comerciales, son gafas
comerciales, ¿vale? Pero los desarrollos
que está haciendo Manuel sí que serán libres en su día.
Bueno, Manuel es ingeniero en informática, tiene un grado en
informática, luego hizo un máster en robótica. Yo a
Manuel lo conocí realmente cuando estaba haciendo su
trabajo fin de grado y, precisamente,
estaba haciendo este desarrollo de realidad virtual. Ahí
fueron un poco sus inicios y a mí me gustaría preguntarle,
pues, por qué él, en su día, se decidió a hacer algo en
realidad virtual para personas con discapacidad.
Pues es una buena pregunta. Tengo que volver unos añitos atrás
y fue cuando estaba acabando la carrera. Normalmente, no sé
cómo es en el resto de carreras, pero en informática
salen unos listados con diferentes propuestas, con
diferentes temáticas de trabajos de fin
de grado. Ys algún tipo de montajes o de no sé
cómo llamarle. Bueno, un tipo de gafas donde tú puedes incrustar
el móvil yrticular, David Marzal. Hola David, ¿qué nos traes
hoy? Buenas, pues hoy en vez de un
tema completamente nuevo, la idea es profundizar un poco en
los dos temas anteriores que traté.
En el primer episodio de verdad, no en el de presentación,
hablé de transcripción y subtitulado y en el segundo, de Wheelmap y
cómo mapear en mapas libres a características de
accesibilidad. Pues en este traigo por ejemplo la manera
de consumir los datos que nosotros podemos poner en OpenStreetMaps
para gente con problemas a la hora de movilidad o de visibilidad.
Entonces, pondré por más todas las capturas de pantalla
que he hecho y ahora mismo más o menos os voy a describir las
opciones que tiene la aplicación de OsmAnd, que
está en F-Droid, que es completamente libre y también
está en Google Play y tiene ahí opciones
de pago. Entonces, una de ellas es, tú puedes en StreetMaps
y en Wheelmap, tú puedes marcar si un sitio es accesible para silla
de ruedas completamente limitado o no. Pues tú en esta
aplicación de navegación, tú le dices, yo quiero buscar
un restaurante por ejemplo y en las opciones que tiene arriba a
la derecha te deja filtrar. Entonces, tú puedes filtrar el
restaurante, si fuma, si no fuma, qué tipo de comida tiene,
un montón de opciones. Y la última del todo, se llama
accesible para silla de ruedas. Entonces,
tú puedes mostrar sólo los restaurantes que sí sean accesibles,
que esté señalado, que no sean accesibles o que
sea limitado. Esa es una de las opciones. Otro, lo que tiene
también es que cuando tú buscas un restaurante sin filtro ninguno,
él en la información del restaurante te va a decir
si es accesible o no. Luego, a la hora de la movilidad, tiene
varias opciones. Tú cuando haces una ruta, tú puedes decirle
quiero ir a pie desde donde estoy al restaurante y él te
va a decir que vas a tardar X tiempo. Tú puedes meterte
en parámetros del vehículo, aunque no sea muy intuitivo, el
vehículo también cuenta como tú mismo para andar. Aceptamos
pies como vehículo. Efectivamente. Tú estás propulsado
por ti mismo, pero para esta aplicación tiene en el mismo
sitio velocidad predefinida. Funciona
por perfiles. Tú tienes un perfil coche, un perfil bici,
un perfil, tiene 15.000 perfiles y te puedes crear los tuyos. En
el perfil a pie, yo lo que he hecho es ir probando y
entonces puedes cambiarse y decir yo voy a dos kilómetros
por hora o a tres o a cuatro o a cinco. Y entonces se adapta
el tiempo y la ruta a tu ritmo y no a que él piense
que puede ir cualquier persona que va al ritmo de la media. Yo,
por ejemplo, voy a un ritmo bastante más bajo que el de mi
mujer y mi mujer va a un ritmo bastante más rápido
que el de la media. Y luego también para el ritmo también
influye que te deja configurar si quieres que tengas en cuenta
la inclinación, la pendiente del camino. Entonces tú puedes
decirle que tenga en cuenta si hay un sitio que está con, yo
sé, 300 metros de altitud y va a tener que subir una cuesta
del Copón, pues eso lo mismo. Hay gente que o por silla
de ruedas o porque es difícil acceso, no le conviene.
Entonces te lo tiene en cuenta. Porque le puedes decir que a la
hora de hacer la ruta se salte todos los caminos que tengan
escaleras. Y la última opción, si me acuerdo, era pavimento
táctil. Preferir las calles que tengan señalado en el suelo
para problemas con deficiencias visuales, si van a estar
marcados donde están los pasos de peatones o si está todo
bien señalizado. Esas son todas las opciones que he ido
viendo de las que puedes estar usando datos que la gente
haya metido en OpenStreetMaps y podemos así configurar la ruta
de la forma más adecuada para nosotros.
Claro, esto al principio puede ser así un poco abrumador,
pero esto te lo vas configurando poco a poco, te lo pones en el
perfil y ya lo dejas puesto para siempre. O sea, podrías
creerte un perfil específico que sea perfil accesibilidad a
pie y esto te lo dejas puesto. Sí, porque si no habéis usado
nunca OsmAnd, la primera vez que lo usas te puede echar
para atrás porque tiene muchísimos menús y muchas
veces no sabes dónde hay que mirar
o dónde hay que buscar. Pero bueno, poco a poco te vas
familiarizando con él. Sí, yo aparte las capturas de
pantalla las colgaré en Mastodon porque son unas cuantas
y de todas maneras si hay alguien que no lo encuentre, si
me escribe por Mastodon, yo le digo cómo llegar porque
prácticamente todas las opciones que he dicho, la mitad
están en sitios diferentes. O sea, no es que te metas en un
menú y ahí están todas, sino que una está cuando vas a
hacer la ruta, otra está en el perfil de a pie, otra está
en las opciones no sé qué, con lo cual hay que ir rebuscando
un poco en la aplicación. Pero bueno, con las fotos que
yo he hecho se ve más o menos cuál es la opción principal.
Por ejemplo, en parámetros de ruta, peatón, eso es lo
primero que hay que buscar. De ahí
ya se ve que es la opción preferir y en preferir marcamos
preferir pavimento táctil. Con las
fotos se llega mucho más fácil.
No recuerdo si los perfiles los dejaba exportar, la versión
gratuita. La verdad es que me suena...
Bueno, la F-Droid cuando tú la arrancas te dice que es la Pro.
O sea que yo creo que esa sí que te deja. Ya sabéis, si hay
dos opciones siempre elegir la F-Droid antes que la de
Google Play por muchos motivos. Queda pendiente que seguiré
buscando cuando encuentre la manera de resaltar lo que
pueden meter en OpenStreetMap de las
aceras, que te deja decir si tiene un salto muy grande
o no, o si es una rampilla o si está a pie de suelo. Eso no lo
he visto específicamente que aquí te lo deja tener en
cuenta. No sé si lo tiene internamente, pero seguiré
buscando una manera de hacerlo accesible
fácil como esto, porque sí que hay páginas webs que
haciendo una especie de consulta SQL de la base de datos te lo
dice, pero eso no es accesible para ir con el móvil y de
repente decir "quiero ir a este sitio" y que me lo tenga en
cuenta. Muy bien. ¿Qué más nos traes
hoy? La segunda parte es profundizar
en lo que estuvimos hablando de la transcripción y
subtitulado. Estuvimos hablando de que hay un PostCasting 2.0
que te deja meter etiquetas nuevas en el feed y tiene
características como que salgan unos circulitos con las
personas que están en el episodio o,
sobre todo, lo más útil ahora mismo es tener una transcripción,
o sea, todo el texto que se está hablando y el subtitulado
de que en cada momento que tú estás hablando está apareciendo
la frase que estás diciendo. Pues esto que lo soporta en
alguna aplicación, que dejamos en el anterior episodio un enlace,
Podverse, Antennapod está a punto de ponerlo. Yo me sé las
libres, AnyTime, PostCastPlayer, pero hay muchas más privativas
también. Las cosas que son son unas aplicaciones que comparten un 8 o un 10 por ciento del mercado.
La mayoría usa Apple Podcasts y Spotify, aunque yo recomiendo tener las dos instaladas para
poder tener las novedades en las buenas que son de software
libre y son punteras en todas las etiquetas estas nuevas.
Luego de repente ha salido Apple Podcasts y ha dicho que a
partir de marzo, cuando venga iOS 18, que ahora mismo están
en beta, ellos por su cuenta van a ponerle subtítulos a
todos los podcasts que estén en la aplicación de Apple
Podcasts, ya sea el nuestro o ya
sea el de la empresa más gorda. Ellos se van a encargar de
transcribirlo y ponerle subtitulado con el marcado de
tiempo donde puedes pinchar en la palabra y se va al momento.
Cierto, pero de tal forma no son innovadores porque ya casi
todas las plataformas ya estaban
metiendo las transcripciones de los programas, tanto en los podcasts
de audio como en los vídeos. Sí, lo bueno que ha
hecho Apple es que ha respetado lo que es el estándar
del RSS y del podcasting y ellos por defecto te lo van
a hacer con su IA que ellos estén usando, porque en realidad
ellos ya lo hacían. Porque Apple lo que hacía era transcribir
los textos, ver de qué hablaba tu podcast y según eso
pues hacer las recomendaciones o cerrarte el podcast si no le
gustaba, pues en vez de quedarse sin formación para ver los
temas de lo que va el episodio en concreto, lo que han hecho
es ponerlo como subtítulo y la diferencia de otras plataformas,
Spotify lo hace con 3 o 4 podcasts sueltos, pero
Apple lo hace con todos los que estén en español, inglés
y 4 o 5 idiomas más, y te va a dejar respetar las transcripciones
que tú hagas. Nosotros en este podcast, por ejemplo,
hacemos transcripciones con Whisper, que es de lo que yo
hablé en el anterior episodio. Si la
lleva en el feed, carga la del feed.
Apple es un poco suya y lo va a hacer al revés. Lo normal
sería lo que tú dices. Detecto que tiene ya una transcripción,
pues uso esa. Apple como es muy suya, dice yo por defecto
siempre uso la mía, pero te dejo que tú como creador del
podcast marques si quieres usar las tuyas. Entonces, si
tú haces eso, creo que se llama Apple Connect. Es una
página web que tiene Apple donde tú
manejas el directorio de Apple. Este programa es mío y
entonces yo lo puedo configurar. Pues
tú hay marcas que quieres por defecto los tuyos y lo que
hará es buscar la etiqueta podcast 2.transcript, que es el
estándar que hay moderno, que es
el que nosotros usamos. Si lo encuentra, pondrá los nuestros
y si no lo encuentra, pondrá los suyos. Con lo cual, los
nuestros normalmente están más trabajados porque su guía
no está mal para ser una guía
que te dan gratis. Acierta bastante, pero ellos no van a
estar como yo echándole una hora viéndose
si hay una palabra que se ha equivocado, que es súper
obvia y sustituyéndola a todas las veces que se repita. Siempre
es mejor usar los tuyos propios porque sobre todo con
los nombres o nombres comunes, palabras concretas. Yo
esta mañana estaba haciendo una edición y yo no sé si he
arreglado 500 palabras que al final a lo mejor son 50 que
se repiten 10 veces, pero siempre es mejor poder hacerlo
tú que lo vas a hacer con más cariño. Y nosotros aún no lo
hacemos, pero tú podrías poner el nombre de quien está
hablando. Si tuviéramos tiempo infinito, yo podría decir
ahora está hablando David, ahora habla Jorge. Eso Apple no
te lo va a hacer nunca. Tú sí puedes hacerlo en tu fichero de
transcripción si tienes tiempo o pagas por una aplicación
que te lo haga automáticamente. Lo de Apple es a partir de
finales de marzo, pero ahora mismo nuestros oyentes podrían
estar utilizándolo ya si usaran una aplicación moderna en vez
de Apple Podcast. O sea, si esto lo escuchan en Podverse,
ya pueden ver los subtítulos. Quien no quiera salir de Apple
Podcast por el motivo que sea, que sepa que a partir de
marzo va a tener la accesibilidad de tener todos los subtítulos,
buscar palabras en el episodio y que se vaya al
momento en concreto o ir leyendo mientras que pasa. Y ya corto
con lo que es la transcripción y ya otros días traeré otras
etiquetas que tiene el podcasting 2.0. Como siempre,
David Marzal, apostando fuerte por el podcasting 2.0. Bueno,
hasta aquí la sección. Gracias, David.
Un saludo, hasta luego. Y en la sección de "Otros mundos,
otras realidades" estamos con Thais Poussada,
como es costumbre. Hola, Thais. Hola. Hoy creo que vienes con
invitado, ¿verdad? Hoy sí. Vengo muy bien
acompañada y tenemos con nosotros a Manuel Lagos, que es
investigador del Centro de Investigación en
las TIC del CITIC de la Universidad de La Coruña. Y es
un placer que esté con nosotros, pero es un estudiante
de doctorado al que dirijo yo y, bueno, está desarrollando
una aplicación muy interesante con realidad virtual para
facilitar intervenciones con personas que tienen algún tipo
de discapacidad. Hola, Manuel. Hola, ¿qué tal?
Primero, gracias por la invitación. Para mí siempre es un placer
poder explicar un poco en lo que estoy trabajando y dar a
conocer una tecnología como es la realidad virtual, que se
escucha mucho en muchos sitios como la inteligencia artificial,
pero creo que aún puede generar algunas dudas y, bueno,
si puedo aportar mi granito de arena, pues genial.
No lo inventó Apple, ¿no? La realidad virtual. No, no lo
inventó Apple. Aunque ahora esté
ahí de moda y lo estén saturando con las gafas de realidad
virtual, que son una maravilla, que son otro mundo, no, no son
los primeros. Tampoco es libre totalmente, porque las gafas
que utilizamos al final, pues son de comerciales, son gafas
comerciales, ¿vale? Pero los desarrollos
que está haciendo Manuel sí que serán libres en su día.
Bueno, Manuel es ingeniero en informática, tiene un grado en
informática, luego hizo un máster en robótica. Yo a
Manuel lo conocí realmente cuando estaba haciendo su
trabajo fin de grado y, precisamente,
estaba haciendo este desarrollo de realidad virtual. Ahí
fueron un poco sus inicios y a mí me gustaría preguntarle,
pues, por qué él, en su día, se decidió a hacer algo en
realidad virtual para personas con discapacidad.
Pues es una buena pregunta. Tengo que volver unos añitos atrás
y fue cuando estaba acabando la carrera. Normalmente, no sé
cómo es en el resto de carreras, pero en informática
salen unos listados con diferentes propuestas, con
diferentes temáticas de trabajos de fin
de grado. Yy toda la programación que está haciendo Manuel, al
final, no es solo un escenario donde visualizar algo y ya
está. Es un escenario donde interaccionar con los objetos
que hay en ese escenario, ¿no?
Entonces, toda esa interacción precisa de una programación
que es la que está haciendo Manuel, ¿no? Entonces, con las
gafas, o sea, con el móvil, cuando utilizamos esas gafas de
cartón para utilizar el móvil como visualizador, perdemos
ese toque de la interacción. Con lo cual, bueno, pues, o sea,
sí que se podría hacer eso, lo que comenta Manuel, a
nivel gráfico sería viable, pero a nivel de aplicabilidad
y de ver el objetivo realmente, que es trabajar con la persona,
diferentes habilidades manipulativas y cognitivas, pues, no se
podría. Podrían funcionar en una Quest
2 o a nivel de potencia necesitaría una Quest 3 para
que funcionase completamente bien.
Pues ahora mismo los desarrollos que tenemos ahora mismo funcionan
en las dos, tanto en Quest 2 como en Quest 3. De
hecho, empezamos haciéndola para las Quest 2 y vimos que
era totalmente compatible para las
3 también. Digo, porque hoy en día, claro,
las Quest 2 han bajado de precio y van a bajar más
porque está el modelo nuevo. Con lo cual, con 100 y pico
euros, 200 euros, ya se puede tener unas Quest 2 a un precio
más asequible. Sí, es que, de hecho, yo creo
que eso es uno de los puntos fuertes a destacar en esas
gafas, en las meta, que están a un coste mucho más por debajo
de lo que eran las HTC. Por ejemplo, las HTC con las
que trabajamos nosotros, creo recordar que el kit completo
rondaba los 1.500 euros y unas Quest, hoy en día es lo que
comentas tú, Jorge, unas Quest 2 están súper baratas y
ya antes de que serían las 3, para mí ya se consideraban
unas gafas económicas. Sí, ya estaban a los 300 o por
debajo de los 300 euros. No sé si las has probado en
pico cuatro. No, sí que las veo en muchos
estudios y demás, pero nunca no las he probado.
También otro de los ventajas que tienen las Quest 2 con
respecto a las HTC es que con estas, como comentaba Manuel,
no necesitas el ordenador ni tener los sensores colocados
de una forma específica, sino que son las gafas que tienen su
propio visor y que tienen un sistema operativo independiente,
con lo cual no dependes tampoco de ese ordenador
o de tener un espacio tal. Eso lo que nos permite es que si
hay un centro de personas con discapacidad, una asociación,
etcétera, que tiene estas gafas, se le instala esta
aplicación, pues ya están, no necesita tampoco mucho más
infraestructura para trabajar. Al decir también que la aplicación
todavía no está disponible para su uso, pero la idea
es pues eso, colocarla en algún tipo de repositorio para
su descarga gratuita. No sé si te pasa por la cabeza
intentar que se publique en la tienda de meta, porque por
lo que sé es bastante complicado que se logre, pero
no sé si lo vas a intentar o no.
Aunque estuvimos hablando hoy. Exacto, exacto. Muy bien traída
la pregunta porque justo hablamos hoy de ello. Sí, o
sea, a mí me interesaba mucho publicarla en la tienda,
también por la facilidad de instalación. Quiero decir, si
al final, es lo que comentaba Thais, estas gafas las puede
utilizar en un centro, una persona en su casa, y lo ideal
es que tú entres en la tienda de aplicaciones como en un móvil,
le des a descargar, instalar y ya está. Tal como
está ahora, es un proceso un poco más complicado porque
tienes que meterla como en una sección
aparte que está un poco más escondida, configurar las gafas
en un modo que es como modo desarrollador
porque es una aplicación que aún no está pública.
Entonces, bueno, a mí mi intención es esa, que podamos publicarla.
Sí que es verdad que yo por lo que estuve informándome
es un proceso un poco largo a veces, pero bueno, en eso
estamos porque, bueno, ya digo, es mucho más cómodo. Bueno,
si quieres comentar, Manuel, lo que estás trabajando ahora,
pues eso, ya no solo son los escenarios
dentro de una casa, sino, bueno, pues esos escenarios
han ido evolucionando también, y bueno, si quieres comentar un
poquito lo que estás haciendo en estos momentos. Sí,
justo lo que hablé es algo que ya está hecho, fue
en lo que se enfocó el trabajo de fin de grado, pero después
ya metidos en la tesis, como se trata de investigar,
hay dos proyectos ahora mismo en desarrollo. Uno es trabajar
lo que es la fuerza de la mano a través de realidad virtual,
porque, bueno, a través de una entidad surgió una
necesidad de poder trabajar la fuerza y en realidad virtual
predeterminadamente los mandos no son capaces de
medir un rango de fuerza, es decir, tienen unos botones que
tú puedes pulsar o no pulsar, es decir, te dan un sí o un no,
pero no saben cuánto pulsaste ese botón. Entonces,
bueno, pues uno de los proyectos en lo que he estado trabajando
es en desarrollar un dispositivo externo como una carcasa para
el mando de las MetaQuest, entonces habría que colocar
ese mando en la carcasa y la carcasa a su vez lleva dos
sensores de fuerza y un dispositivo, un pequeño
dispositivo como un mini ordenador, podemos
decirle, que se conecta por Bluetooth a las gafas y envía
los parámetros de fuerza, es decir, si la persona aprieta
más o menos ese mando. Y con ello ya, pues podemos hacer
ciertas cosas a nivel, en cuanto a actividades, digamos,
es decir, por ejemplo, en lo que
estamos haciendo ahora mismo es una actividad muy común del
día a día que es fregar los platos. Entonces la persona
está en una cocina, tiene varios platos sucios y ¿qué
pasa? Que si no hace un mínimo de
fuerza al fregar los platos, pues la suciedad no sale.
Entonces de esa manera, pues digamos que
la persona se siente motivada a ir frotando y haciendo
fuerza a la vez. Para mí lo complicado en esta parte fue
tener esa conexión Bluetooth con las gafas y ahora la idea
es desarrollar otras actividades, porque una vez tenemos
ya ese valor de fuerza, pues podemos enfocarlo a otras
muchas cosas. Por ejemplo, pues podría
ser eso, limpiar, pues un cristal o apretar, no tiene que ser a
lo mejor una actividad de la vida diaria, podría ser
a lo mejor, pues yo qué sé, apretar una pelota o atornillar
una mesa, cualquier cosa. Esa sería una de las partes en las
que estamos trabajando. Y después otra, es un poco ya
distinto, es trabajar en lo que es la movilidad en entornos
virtuales. Normalmente tú cuando estás en un entorno
virtual tienes un área de unos metros, unos metros cuadrados,
por los que te puedes mover y las gafas te detectan. Pero
si te sales de esa, yo le suelo llamar un cubo, como si fuera
un cubo grande, dentro del cual si te mueves te detecta,
pero si te sales de él ya no te detecta. Lo que nosotros
estamos trabajando es que en incorporar una plataforma, que
se llama de movimiento cautivo, es una plataforma deslizante en
la que tú te subes, por así decirlo, y los pies como
que patinan, entonces puedes andar sobre esa plataforma y lo
que te permite es que tú, los pasos que vayas dando
encima de esa plataforma, se trasladan a ese mundo virtual y
podrías andar ilimitadamente.
Y también la idea es publicarlo en abierto.
En lo que es la aplicación, sí. Ahí tengo que decir
también, bueno, la ventaja que es eso, que nos podemos mover
libremente con lo que supone, por ejemplo, para practicar
un entorno urbano. Por ejemplo, estamos en una acera, en una
carretera, poder practicar lo que es la interpretación de
semáforos, cruzar pasos y peatones. Esas serían algunas
de las ventajas que nos ofrecería, pero la desventaja es que esa
plataforma ahora mismo sólo es compatible con las gafas
HTC. Entonces, la aplicación sí que va a ser libre, pero
claro, si tú la quieres usar, tienes que tener las gafas y la
plataforma para poder moverte.
Y ese tipo de plataformas no suelen ser baratas.
Exacto. Exacto, sí.
¿Cuánto costó la que tenemos en el laboratorio? Mil euros, a
lo mejor. Sí, un poquito más, sí.
Sí, suelen andar a partir de mil euros.
¿No me habéis dicho nombres de las aplicaciones? ¿No los
vais a bautizar? Uf, eso es un…
Eso es lo más difícil. Si quieres estar en la tienda,
lo que vende es la foto de la portada y el nombre de la
aplicación, es lo que vende. Bueno, pues lo dejamos ahí
como sugerencia. Si a alguien se le ocurre alguna sugerencia
para ponerle el nombre a esta aplicación, pues bienvenida es.
Pero ahora no hemos pensado nada.
Bueno, Manuel, y cuando termines la tesis, supongo que te
gustaría seguir trabajando en temas relacionados a estos.
Pues yo espero que sí, porque ideas tengo muchas. Me hace
falta más tiempo, pero sí que me gustaría seguir en esa
línea. Porque creo que al final, si pensamos en nuestro
día a día y a lo mejor actividades con las que nos podemos
encontrar o situaciones, pues en una calle, en un entorno
laboral, en nuestra casa, si nos podíamos practicar con
mayor seguridad de la que nos ofrece
la vida real, por así decirlo, creo que ahí la realidad
virtual puede aportar bastante. O incluso en hacer que esas actividades
sean más motivadoras, que sean más divertidas
incluso, y lo que decía antes, y que sean seguras. Incluso
alguna vez tenemos hablado a lo mejor de eso, de practicar a lo
mejor la conducción o un simulador de conducción. Ya es
algo a lo mejor muy grande, pero bueno, que también
se podría hacer con realidad virtual. Y mezclando ya lo que
es la parte de gafas con a lo mejor
algún dispositivo con volante y palanca de cambio a lo mejor
adaptada, etcétera. Espero que a los y las oyentes
les haya gustado escuchar esta parte también de desarrollo,
que son tecnologías para el bien común al final. Y bueno,
comentaros que nosotros estamos en el grupo de investigación
Thalionis, trabajando en el centro de investigación FITIC
de la UDC, que bueno, ahí seguimos y
cualquier persona que esté interesada en conocer más,
pues puede contactar a través de la página web del FITIC o
de nuestra página web del grupo Thalionis también. Y
escuchar los programas anteriores para saber más sobre lo que
estás haciendo. Exactamente, para engancharlo.
Muchas gracias por haberte pasado por aquí, esperamos
volver a contar contigo en futuras ocasiones. Cuando lea la tesis.
Vale, pues cuando lea prometido. Cuando lea la tesis,
vuelvo a comentar los avances. Gracias a vosotros. Y en la sección
de accesibilidad web, contamos con Pablo Arias, como siempre.
Hola, Pablo. Muy buenas, Jorge, cómo estamos? Muy buenas a
todos. Además, vienes de la FOSDEM, que has estado hace poquito.
Sí, efectivamente, fue hace poco la FOSDEM en Bruselas. Una
pasada de evento, la verdad. Muchísima gente, muchísimas
charlas. No sé si te traes algo relacionado con accesibilidad
y tecnologías líneas de allí. Bueno, pues sí, la verdad es
que hubo algunas charlas al respecto y fueron superinteresantes,
incluso una que hablaba de la ecología y la accesibilidad.
O sea que superinteresante que al final hacer las webs de
manera accesible son más ecológicas, consumen menos energía, así a
modo de resumen. Pero bueno, hubo una ponencia entera
hablando solo de esto. Pues mira, una
cosa que podemos comentar de la FOSDEM también es que se firmó
un acuerdo entre los principales gestores de contenidos web hechos
en PHP, como es el caso de WordPress, Joomla, Drupal
y Typo3. Entonces, se ha firmado un acuerdo de colaboración
para tratar de hacer más piña, tener retroalimentación unos
de otros y la verdad es que se ha dado
una charla allí entre los cuatro representantes de cada
uno de estos CMS y la idea es que
se puedan unir más. ¿En temas de accesibilidad o en general?
No, no, en general. La idea es una alianza general. Sí que es
cierto que en muchos ámbitos va a trabajarse la accesibilidad
y se va a mejorar en ese sentido. Por ejemplo, WordPress
tiene un editor que se llama Gutenberg, que muchos lo
conoceréis, pues están tratando de hacerlo más accesible y
además de llevarlo a más CMS. Es decir, que no sea solo para
WordPress sino que también esté disponible, pues Drupal,
por ejemplo, lo quiere adoptar para su propio núcleo. Ya
ahora mismo hay una solución para poder instalarlo dentro
de Drupal, si no me equivoco, pero quieren ir más allá y
que esté soportado, digamos, por el núcleo de Drupal.
Entonces, este editor ahora sí que es cierto que a lo mejor le
hace falta un poquito más de trabajo en cuestiones de accesibilidad,
pero si lo utilizamos más CMS, pues siempre podremos
colaborar en que se mejore esta parte.
¿Y qué más? ¿Qué más te puedo contar sobre accesibilidad
en la FOSDEM? Pues ahora mismo no se me ocurre más,
pero sí que es cierto que hubo más asuntos. Lo que pasa
que fue muchísimas charlas, mucha locura, incluso algunas
demasiado llenas. Intenté ir a alguna que la sala se llenó
tantísimo que fue imposible acceder a ella. Ya de hecho
de luego ponen un límite porque eso podría ser incluso
ya contraproducente, sobre todo en los tiempos que vivimos de
pandemias y demás, pues no es cuestión de apiñar a
la gente como sardinas en lata. Cuéntanos un poquito cómo es
el ambiente en la FOSDEM para la gente que
no la conoce. Pues el ambiente en la FOSDEM es súper peculiar
porque tú vas allí, no tienes que comprar una entrada,
simplemente apareces y vas a las charlas que te apetecen.
Entonces, la verdad es que hay muy buen ambiente y no tienes
que ir a un edificio en concreto. Estamos hablando de que esto es,
ponen la Universidad Libre de Bruselas, la abren de
cara al público, hay varios edificios de la universidad, varias
facultades en la que dentro de cada una se habilitan aulas o
los auditorios, perdón, los auditorios donde hay sitio
a lo mejor para 300 o 400 personas. Habilitan todas estas
instalaciones para que se den las charlas y a mayores, luego
por lo que son las entradas, los pasillos de las facultades,
hay stands de los principales representantes de software
libre hoy en día, pues charlas de, perdón, stands de Mozilla,
de LibreOffice, de un montón de stands, no te quiero exagerar,
pero a lo mejor había decenas y decenas de stands,
pues desde temas de generalistas, pues como puede ser más un
navegador o un editor de textos o paquete de oficina,
pues también había temas de Next Cloud, de impresión
3D, de electrónica, bueno, de un montón de temáticas libres,
por supuesto de marketing estaba Mautic, estaban temas de
bases de datos, sistemas operativos, incluso sistemas operativos
para teléfonos móviles, entonces bueno, había una gran
representación en los stands de un montón de software libre,
a mí me encantó, y bueno, en estos stands, pues puedes
comprar camisetas, te regalan pegatinas,
todo ese tipo de cosas y la verdad genial, porque mantienes
unas conversaciones allí súper interesantes, preguntas
todas las dudas que puedas tener
sobre ese software en cuestión. A mí me llamó mucho la
atención el formato, miles de personas, o sea, muchísima,
muchísima gente, a veces unas colas terribles para comer
o para pedir un café o similares y eso que había varios sitios,
muy bien, muy bien la verdad, en general muy bien,
salvo este tipo de aglomeraciones, el resto muy bien.
Quería comentar que es a nivel Europeo la feria, por llamarla
de alguna forma, más importante relacionada con el
mundo del software libre y las tecnologías libres, y aquí
en España lo más parecido que tenemos a lo mejor sería la esLibre,
que este año se celebra en Valencia el 24 y
25 de mayo. Sí, efectivamente, efectivamente,
súper recomendable la esLibre también, un ambientazo,
nosotros ya hemos vivido alguna y lo hemos pasado bien, así
que también lo recomendamos desde aquí, que si puedes, no
te la pierdas la esLibre, exacto, sí, sí, sí, y aquí
en España, pues la verdad es que para mí es una pena que
las universidades no colaboren de la misma manera que en Bruselas,
porque para mí la Universidad de Bruselas está
a otro nivel en ese sentido. ¿Y qué tema nos traes hoy?
Pues hoy quiero hablaros del HTML semántico, es decir, de
marcar nuestros contenidos de tal manera que se entiendan sin
necesidad de explicarlo explícitamente. ¿Qué es el HTML semántico?
Bueno, pues básicamente se refiere a estructurar el código HTML
de tal manera que lo marquemos con etiquetas que permitan
identificarlo sin necesidad de explicar qué es, por ejemplo,
un menú, para mostrar un menú utilizamos la etiqueta nav o
para mostrar el encabezado de la página la etiqueta
header, también existen otras etiquetas a nivel estructural
de la página en general, pues la etiqueta main, la etiqueta
footer para el pie de página y luego existen unas etiquetas
como más concretas para ya cuando creamos nuestros contenidos,
por ejemplo, cuando estamos creando un contenido dentro de un artículo
que sea una lista numerada o sin numerar, podemos utilizar
la etiqueta ul o la etiqueta ol, ol para listas ordenadas
y ul para desordenadas y luego cada elemento se marca con un
li. Esto normalmente el editor que
utilicemos ya cuando le damos que esto es una lista nos
pone el puntito, el típico puntito antes de empezar a
escribir y en cuanto le damos al intro, al retorno de carro
para crear una línea nueva, ya nos pone el punto siguiente.
Entonces es muy interesante, en vez de utilizar un guion y un
espacio a mano, lo que hacemos es poner esta etiqueta y así
los navegadores y los lectores de pantalla saben que estamos
hablando de una lista ya sea ordenada o desordenada.
Como esto, pues también tenemos otras utilidades que
nos van a venir muy bien a la hora de
crear contenidos, como por ejemplo, los títulos.
Toda página debería tener un título de nivel 1 que describa
de qué va esta página que estamos viendo dentro del
sitio web. A mayores, si esta página
tiene como subdivisiones, pues cada una de estas debería
tener un título de nivel 2 que explique cada
una de estas subdivisiones y a su vez si estas divisiones
están divididas también en otros, pues títulos de nivel 3
y así sucesivamente hasta el título
de nivel 6. Si queremos, por ejemplo, marcar
una cita, una cuota, un bloc cuote se llama la etiqueta
para un fragmento de texto de otra fuente o para decir, pues
esto fue lo que dijo el actor en esta película, por
poner un ejemplo, incluso se puede poner luego la etiqueta cita
para también pues decir quién dijo esto y demás.
Hay otras etiquetas que nos vienen muy bien, hay etiquetas
para marcar una tecla, por ejemplo,
con control y la c copias, pues para poner ese control y c hay
una etiqueta kbd que se llama.
Si queremos escribir código en nuestro artículo, pues podemos
marcarlo con la etiqueta code y así tenemos pues algunas
etiquetas más que son muy útiles para que todo el mundo
sepa de qué estamos hablando. Las ventajas de utilizar el
código HTML semántico, además de que evidentemente un
lector de pantalla puede decirte, pues
mira, esto es un fragmento de código o una cita o similares,
esto también, como ya habíamos dicho anteriormente, también
ayuda al posicionamiento web porque
los robots también van a entender mejor tu código, tu
contenido, por lo tanto, es bueno
en muchos sentidos. Ya no nos vamos a meter en
otros ámbitos más profundos, pero sí que es cierto que
propio navegador y demás va a saber pintar las cosas más
fácilmente, ¿vale? Entonces esto es interesante a
todos los niveles. Sí que es cierto que si en un
momento dado no podemos marcar un fragmento de código
como nos gustaría, pues con una etiqueta apropiada para
ello, tenemos también la posibilidad de marcarlo con la opción role,
es decir, especificar el role que tiene esa etiqueta
dentro del significado del artículo, ¿vale?
Entonces, si estamos creando un artículo y no tenemos más posibilidad
que poner divs o spans, siempre podemos poner
el significado de qué es esto, pues, por ejemplo, si queremos
decirle, pues mira, esto tiene el rol de título o tiene el
rol de cita, pues siempre puede ser una alternativa, aunque no
la mejor, pero por lo menos tenemos una manera de suplirlo.
Bueno, pues hasta aquí la sección de Pablo Arias de accesibilidad
web. Muchas gracias a ti, oyente, y
a ti, Jorge. Hola, ¿qué tal?
¿Cómo estamos? Soy Marco Orino, Marcos para
los amigos y, bueno, me gustaría compartir un par de
cositas que han estado ocurriendo,
bueno, que me han ocurrido en estos, sí, este último mes
más o menos, una cosa así.
La primera tiene que ver con un problema de accesibilidad con
el programa o la aplicación gPodder, que está, bueno, pues
para, por lo menos para Linux y Windows, seguro que sí.
Lo que ocurre es lo siguiente. Tengo un amigo que tiene ceguera
total y resulta que, claro, estaba teniendo problemas con
su reproductor de, o sí, su dispositivo para escuchar
podcast, que es el Victor Reader, creo que el 503 Stream o algo
así, creo que es el modelo, la marca Victor Reader o la
marca del aparato. Y nada, que resulta que la Wi-Fi
no le estaba funcionando bien y todo lo demás sí, entonces
estaba buscando, digamos, una forma de bajar podcast a la tarjeta
SD. Cómo se ha hecho esto de
escuchar podcast de toda la vida.
Y bueno, pues que estaba buscando un programa accesible
y todo esto, y que le dejaran las
cosas organizadas por carpetas, los podcasts organizados por
carpetas y todo esto. Bueno, le digo, podrías
utilizar gPodder. Tú que usas Windows, seguramente,
vamos, el programa tiene pinta de ser accesible porque,
a ver, la interfaz pues es muy sencillita.
Uno tendría a pensar que los menús eran accesibles, que
todo era accesible. Pues no, no sé qué partes
eran accesibles, pero por lo visto tuvo problemas para
trabajar con él.
Incluso, claro, se lo pasó al especialista de Tiflotecnología
que le hace el seguimiento y dijo "hombre, qué bien, este
programa seguro que es accesible", porque claro, la interfaz
pues es lo que había y no, se llevó una sorpresa que no
podía ser. Entonces, pues claro, ahí
estuvimos viendo otras alternativas y tal.
Sí que es una cosa que me resultó un poco extraña, me
llamó mucho la atención que un programa así, con una
interfaz así de sencilla, tuviera problemas de accesibilidad.
Sí que parece que en Windows tiene la posibilidad de
utilizar muchos comandos, muchas opciones
por línea de comandos, no lo sé porque no lo he probado en
Windows nunca, en Linux pues sí y solamente tienes una posibilidad
que es la de poner en una terminal gPodder la ruta
del RSS del podcast y ya está, y añadir el podcast que quieras
añadir de esa manera. Pero no tiene nada más, por lo
menos no aparece, creo que no tiene página de manual o si la
tiene pues eso dice solamente eso y la parte de ayuda pues
también, entonces pues ahí estaba la cosa.
Bueno, pasando al otro tema, pues me puse a cacharrear un
poquito, no demasiado, pero un poquito con la aplicación
StreetComplete de la que estuvo hablando David Marzal en
el episodio anterior. La verdad es que es interesante,
tengo que seguir viendola a ver qué se puede hacer
y qué no se puede hacer, pero sí, ya definitivamente, a ver,
tenía pendiente de hacerme una cuenta
de OpenStreetMap y a ver qué pasaba, pero sí, siempre me lo
había dejado en el tintero. Ya la tengo, ya he trabajado un
poquito y sí, para algunas cosas puede que la aplicación
de momento se me quede así como un poco confusa, para
otras sí que va bien, pero sí, creo
que me voy a defender mucho mejor para añadir cosas en la,
bueno no sé, supongo será la interfaz web que te ofrece la
propia página de OpenStreetMap cuando inicia sesión, que
te permite pues eso, editar el mapa y añadir lugares y tal,
ya he podido añadir un par de cositas y ver cómo es que
aparecen en el mapa y ya he podido pues tener ahí mis
pequeñas metidas de pata que me las corrigieron, supongo que
gente que está trabajando ahí en el proyecto con otro tipo de
permisos, eso, no sé todavía muy bien cómo funciona
todo el detalle, pero es interesante y posiblemente pues
sea una buena excusa para pues eso, hacer
una cosa, digamos, hacer algo diferente mi hija y yo cuando vayamos
por la calle, pues mapear sitios, que así pues le
vendría bien para familiarizarse con mapas, geometría,
matemáticas y estas cositas, no lo sé, ya iré contando si
es que al final termina cuajando algo de eso. Esto es todo lo
que quería comentar y nada, que vaya todo muy bien, un saludo.
Buenas Jorge, hoy nos viene a visitar Ubuntu MATE 2310 de
hace unos pocos meses. Ubuntu es reconocida como Linux para
humanos, pues vamos a probarlo primero en el CD Live o USB
viva sin instalarla en el ordenador, en la máquina. Arrancamos el
CD, aparece el menú de arranque de la ISO y no
aparece ninguna ayuda como ocurre o ocurría en otras distribuciones
anteriormente o años a. Arranca, mejor dicho, aparece la primera
pantalla con medio entorno cargado donde nos pregunta
básicamente el idioma que elegimos español y tenemos dos
opciones, probar o instalar. En este caso, probamos primero, a
ver qué tal, para hacernos una idea de lo que tendremos
después instalado si así lo decidimos. Una vez arrancado y
cargado el escritorio, pues veo, o yo desde luego no lo he
encontrado, el zoom de escritorio que es una ayuda básica. Podemos
encontrar una lupa, que es un juguete, básicamente
si alguien quiere hacer tutoriales pues le puede venir
bien. No encontramos la función
de invertir colores ni de escritorio ni de ventana. Sí, hay temas
oscuros, pero eso lo dejaremos para después. Una
parte importante es el ratón, el puntero del ratón. Pues
el tema que tenemos, ¿se puede modificar? No. ¿Se puede
cambiar de color? No, vamos mal. En monitor de pantalla,
pues tenemos la opción avanzada o teníamos la opción
avanzada de escalado, que sí, está 100% o por dos, es decir,
el doble. Esto no debería ser así. De hecho, hace unas
versiones pudimos encontrar escalarlo de manera más fina, con
un factor que podíamos decidir. Esto es importante para pantallas
pequeñas, sacar mayor provecho, una mayor productividad, dado
que no es la misma una pantalla de 15 centímetros, perdón,
de 15 pulgadas que una de 25 y aplicar zoom o simplemente para
personas que llevan un portátil pequeño. La propuesta
de escritorio, pues son colores muy blancos. No llega a ser
un blanco atómico, pero... perdón, un blanco nudo, claro,
pero se queda cerca. Vemos que tanto las ventanas, título de
ventanas, las barras de escritorio son blancas y eso a veces
genera confusiones porque no sabemos si estamos... tenemos
el puntero sobre la ventana o si estamos
en la barra. Sobre todo cuando vamos a mover, vamos a arrastrar
la ventana. Estamos tirando de la banda con el que
corresponde al escritorio, no a la ventana. Es cierto que se
pueden personalizar en color,
transparencia, las barras de escritorio. Incluso se pueden
poner en vertical de un lado a otro. Y estas son
bastante configurables. Los temas de escritorio se
pueden personalizar en colores, pero ocurren composiciones un
poco ortopédicas. Unos dependen, o sea, cuando modifiques un
color, afecta a varios componentes de la ventana o del
escritorio. Por ejemplo, tenemos la opción de
en el puntero. Quiero recordar, porque estoy viendo aquí unas
anotaciones, donde podemos hacer una marca visual en el
puntero y para ello podemos activar la opción
de control. ¿Qué ocurre si tenemos un escritorio verde o
verdoso? Que es la seña en entidad de
mate, suelen ser colores verdes, que igual que Linux Mint, pues
aparecerá en verde. Si los colores son del escritorio, de
cierta parte de la ventana, cierta decoración de color naranja,
pues la ayuda del puntero, que saldrá cuando pulsamos control,
aparecerá en color naranja u otro color. Depende del tema
de las ventanas, de la decoración de las ventanas. Las fuentes
tipográficas se pueden personalizar tanto en tamaño,
como tipo de fuente, pero no en color.
Eso es algo que sí podríamos hacer en Gnome 2. Si bien
puede ser una solución para personas con
baja visión tener fuentes más grandes, en la práctica es muy
mala idea, porque si tenemos un monitor de 32 por decir algo
así muy bestia, pues si utilizamos las fuentes que son de tamaño
grande, pues se queda mejor en la mitad, o mejor dicho, en la
cuarta parte. Si tenemos una fuente tamaño 10 por defecto y
necesitamos tamaño 20, pues la pantalla se convierte en cierto
modo en la cuarta parte. De las pocas
cosas que recuerdo de este Gnome 2, aquel Gnome 2, el cual cogió
el relevo mate, entre otras, por lo menos la filosofía de
escritorio. Tenemos un efecto visual
al darle click para abrir esta aplicación. Una especie de
cuando uno tira una piedra al agua,
esas ondas que salen circulares. Esa es una de las mejores detalles
que tiene o mantiene mate. Y uno de los iconos que tiene,
el tema de iconos que tiene, el Humanity y alguna de sus variantes
es posiblemente de los más vistosos. Sorprende que tenga
un tema que se llama "Yellow" de muchos
colores, pero no se puede modificar. Igual que otros elementos de
iconos de las ventanas. Una opción interesante que
encontramos en este escritorio, no está por defecto, pero son
muy fáciles de personalizar las
barras, como he dicho antes de escritorio. Una de estas opciones
es poner unos botones en el cual
puedes esconder para ganar más espacio y sacarlas cuando,
hacerlas aparecer cuando las necesites,
sin que este comportamiento sea automático. Hay personas
que optan por temas oscuros en el escritorio, lo cual parece
que para personas con problemas visuales, determinados
problemas visuales serían perfectos. Pero el tema oscuro
o los temas oscuros, cuando abrimos, por ejemplo,
HyperOffice, el folio sigue estando blanco. Luego no hay una inversión
de colores. Según qué tipo de problema visual es bastante incómodo
tener un folio blanco y el resto
de ventanas con las herramientas correspondientes en negro, con
fuente o con los iconos en colores blancos o de color. A veces me
pregunto dónde está el legado de Gnome 2 y su concepto de
escritorio. UbuntuMate pues tiene otros tipos de ayudas que
no está orientado a problemas visuales
o baja visión. Yo en eso, ahí son los tipos de personas, de
tipo de perfil, los que pueden o
deberían aportar su opinión. Con ese sabor de Gnome 2, o lo
que queda de él, pues prefiero declinar mi valoración en
cuanto a accesibilidad visual. Antes de terminar, se me olvidaba,
hemos probado sin instalar. Voy a
instalar, pues en la instalación no hay nada descartagable
respecto al arranque de Ubuntu de pruebas y
el instalador. Lo típico de Ubuntu, fácil, no hay, que yo sepa,
ninguna opción respectiva a la accesibilidad. Una vez actualizado,
mejor dicho, instalado y recomendable actualizar siempre,
antes de abrir la sesión, pues tenemos una opción, que creo
recordar que es F10, que nos abre un menú
desplegable del escritorio o de inicio de sesión. Pero si
tienes un problema visual, pues lógicamente
es como si no existiera, o es muy difícil. Tampoco hay una
indicación que ayude a pensar que se puede abrir con alguna
tecla del teclado. Recordar que Ubuntu
Mate tiene varias propuestas, como Unity, un antiguo escritorio
que desarrolló Ubuntu y otros entornos gráficos característicos
de otros sistemas operativos. En este caso he optado por
la idea original de Mate, que era la de un Gnome 2, pero
evolucionado en cuanto a librerías. Mientras he estado probando Ubuntu
Mate estos días, pues también he visto y comparado algunas
diferencias de Linux Mint con el escritorio Mate. Hay muy pocas
diferencias en cuanto a las características de ayuda
visual, si bien es cierto que la propuesta es un poquillo
diferente por defecto. En cuanto a la barra
de escritorio, solamente tiene una y es la parte inferior y
el menú principal, que en lugar de hacerlo en color blanco,
es en color oscuro, igual que la
barra de escritorio. Bueno, hasta la próxima Jorge. Hasta
aquí queda mi parte del laboratorio. Pues en la sección de diseño
para todos con Jonathan Chacón, hoy nos va a hablar de voces
sintéticas entre otros temas. Hola Jonathan. Buenas Jorge,
buenas a todos. Pues hoy vamos a
hablar de una tecnología que, aunque empezó como un simple
juego de IBM, se ha terminado en convertir
en una industria del software, en la que hay nichos muy
concretos que se benefician, entre ellos la
salud, las personas con discapacidad, la automoción y, por supuesto,
el mundo militar. Pero vamos a empezar con eso de qué son las
síntesis de voz. Pues una síntesis de voz es un conjunto de datos
que representan reglas y formas de emitir sonido que emiten a
una voz humana con mayor o menor
calidad. ¿Qué depende de la mayor o menor calidad de una
síntesis de voz? Pues su juego de fonemas,
o sea, el conjunto de sonidos que representan los distintos
sonidos que emitimos unas personas al
hablar, porque no es lo mismo voces monofonéticas que voces
bifonéticas, trifonéticas o polifonéticas.
No es lo mismo pronunciar "bra" que hacer un "b", luego una "r"
y luego una "a", que sería lo que
hacen las voces monofonéticas de reducir el mínimo y luego
están las polifonéticas o trifonéticas que
recogen la grabación de personas que, al principio,
hablando allá por los años 60, que es cuando
empieza en IBM en 1962, el físico John Larry Ketty creó una caja
fonética con un IBM 704. Consiguió hacer que ese computador, y lo
llamamos computador porque era del tamaño de un armario,
además de reproducir música mediante un
instrumento sintético, reprodujese una canción. Hablaba, entonaba
y esa misma canción la podemos
escuchar en la película 2001, Una odisea despacio, cuando HAL
9000 está siendo desconectado. Esa
canción que se pone a hablar es una grabación extraída de
ese IBM 704 y, digamos que como un guiño o
cameo especial que le hizo el señor Kubrick a toda esa invención
que se hicieron los laboratorios
Bells en la década de los 60, donde se abrieron muchas de las
tecnologías, que mucha gente piensa que todo
empezó con internet, internet de los años 50. ¿Qué pasó
después de ese 1962? Pues se siguió investigando,
pero en el MIT, en el MIT, la gente de laboratorios Bells,
la propia IBM, haciendo experimentos, mezclando voces
fonéticas, grabaciones de mujeres, porque
al principio las grabaciones eran todas de hombres, para
hacer esas cajas fonéticas. Y no es hasta el
año 83, 1983, que se consigue hacer un producto comercial
para el público. Todo lo que se estaba
desarrollando antes era sólo para investigación, para
procesos que nunca llegan a ver el mercado,
bien sea para utilizarlo a nivel militar o a nivel de
empresas que no se comercializan, sino que son productos ad-hoc.
Por ejemplo, se habla de un control de acceso donde había
una caja de fonetización sintética,
o sea, un cacharro que hablaba, que simplemente te decía "stop"
o "pass", y eso pues a finales de los
años 70. Y en el año 83 se sacó al mercado el "Dead Talk",
que en principio iba a ser un producto,
un dispositivo hardware, que tú le pasabas por el puerto
serie una cadena de texto y él la
convertía en una voz. Por cierto, una voz horrible.
¿Llegaste a escucharla? Sí, y lo he sufrido. No la
versión del año 83, pero sí he jugado con la versión del
año 91, porque le pude echar la mano.
Yo me quedé ciego en el año 96 y pude jugar con alguna síntesis
de voz vieja de los años 80 y los
90. Tanto un microprocesador Philips, que tenía una voz
integrada, que luego se utilizó en el famoso Braille Speak, el
primer anotador portátil de menos de medio kilo de peso. No
lo tuvieron las personas que veían, lo tuvimos los ciegos,
allá por los finales de los 80. Y tenía una síntesis de voz
horrible, pero que era muy ágil, una calidad de audio de 8 bits,
muy metálica. Si habéis visto la película "Juegos de guerra",
esa voz era de calidad en comparación con la que teníamos
que aguantar las personas ciegas en los años 80 y los 90, pero
se escuchaba muy bien cuando acostumbrabas al oído y era
muy rápida. Le podías modificar tanto el timbre, como el tono,
como la velocidad y eran muy versátiles y ocupaban menos de
128K de memoria. Entonces, entraba muy bien. ¿Qué pasa?
Que cuando Dettal salió al mercado, perdón,
iba a avisar, salió con el objetivo de ser utilizada como
prótesis comunicativa para personas con traquetomía o
problemas de laringe, trajo un proceso de
oncología de laringes. Era muy habitual. Los hombres que con
esa moda de masticar tabaco en Estados Unidos y la India, pues
terminaban con una amputación parcial o total de la laringe o
la faringe, pues no tenían cuerdas
vocales útiles y Dettal salió con ese origen y de repente vieron
"Uy, a los ciegos les interesa esto". Y empezaron a hacer
mercado con Dettal hasta el punto que
empezaron a aparecer otras empresas como Loquendo a finales
de los 80, Nuance a mediados de los 90,
no con la intención de vendérselo a particulares, sino con la
intención de poner voces sintéticas que avisasen los trenes que
llegan o salen, los avisos de seguridad de los aeropuertos,
llamadas de atención en supermercados y centros comerciales y de ahí
apareció un incipiente mercado en donde la voz se
estaba convirtiendo en un sistema de comunicación desde
la empresa a los clientes de forma
bastante eficiente porque es muy comprensible para todo lo
que pueda escuchar y era relativamente barato. Las
primeras voces estamos hablando que necesitaban la friolera de
un ordenador con 24 megas de RAM, cuando lo habitual era un
ordenador con 2 o 4 megas de RAM,
estamos hablando de la época de los 286, los Commodore y Amiga,
los Apple II o los Macintosh y no se tenían más de 2 o 4
megas de RAM disponible entonces hablamos de máquinas
de servidores. También en los 90 y retomando
toda la evolución en la investigación de síntesis de
voz del MIT, en la Universidad de Edimburgo
aparece Festival Speech System que es la base de todos los motores
de síntesis de voz modernos que tenemos en la actual, generados
a través de cajas fonéticas por análisis de grabaciones
humanas y dirás, esto has puntualizado mucho porque hay mucho
que puntualizar. Hay competidores de Festival como Speak, que es
de finales de los 90, principios de los 2000, que
Speak está totalmente generado sintéticamente,
no hay una grabación previa de donde extraer los datos,
simplemente se hace un mapa de las
consonantes y las vocales, de su onda de sonido, de cómo se
pronuncia, se hacen análisis comparativos,
por ejemplo, con cuatro hombres, se saca la media de esas ondas
y de ahí se extrae cómo se pronuncia
una P, una B, una Z, toda esa información se guarda, esa frecuencia
o esa modulación o ese conjunto de frecuencias para
ser generados todo directamente en RAM. En cambio Festival proviene
de toda esa investigación previa de IBM, de tener guardado ese
conjunto de audios de donde sacar
esa información para generar la voz escuchada a través del
ordenador. Speak es uno de los sintetizadores de voz más
compactos y más ligeros y más portables, tan portables que
empezaron su andadura en 1995 para RISC OS,
que yo este no lo he usado, este sistema operativo, pero
rápidamente pasó a Linux, tanto para Ubuntu,
Mandriva, Slackware. En el año 2006 se portó a Windows y
terminó siendo la voz por defecto del lector de pantallas
NVDA, que es el lector de OpenSource más común en Windows.
También se utiliza Speak o eSpeak en Orca, tenemos voces portadas
a Android, a iPhone, todo es software
libre. Hay ya un par de forks o continuaciones hijas de este
proyecto, donde se ha cambiado el catálogo
fonético de ondas para que se adecúe a voces o dialectos
más complejos, como esos dialectos creo que son de África,
donde hay sonidos que no tenemos en
la mayoría de lenguas, como el "k", que hay lenguas muy raras.
-Has pedido una cerveza, ¿verdad? Te he entendido. -Totalmente.
Pues las voces sintéticas, y aquí quiero llegar,
solo se han preocupado las voces comerciales, incluso IBM cuando
salió a lo comercial, cuando vio que había dinero,
en cuanto IBM vio que toda esa investigación de 20 años valía
para algo más que darle juguetitos a los militares o a empresas
que querían hacer una presentación alucinante
para sus clientes, vio que había dinero, la gente de IBM
corrió rápidamente para sacar al
mercado Eloquence o su hijo bastardo, que es Diavois. Todas
las empresas que hacen voces sintéticas
privadas solo se han preocupado por dar soporte a los
idiomas del primer mundo. -Inglés, francés, alemán y... -Español.
Incluso se sabe que lenguas como el catalán, lenguas
como el sardo o el corso se han dado soporte después de que
los representantes o gobernadores
de esa región han pagado dinero a Nuance o a IBM o a la
propia Apple para dar soporte. -Entonces te
voy a corregir, te voy a decir que se han preocupado por cobrar
siempre. -Siempre, siempre, totalmente. Y a diferencia,
Festival dejó todo libre. El que
quisiera se podía adaptar, lo que pasa es que Festival era
demasiado engorroso y ha sido uno
de los problemas. Por ejemplo, para Festival, la propia Junta
de Andalucía desarrolló voces para
Guadalinex, que es la distribución que tuvimos allá por el 2008-2009,
y éramos los únicos que tenían voces con el lector de
pantalla en castellano, porque o tirabas de "speak" o tirabas
de las voces de Festival en inglés hablando en castellano.
Tú sabes que quiero decir, que ese
acento americano es raro que tiene las voces inglesas cuando
le esfuerzas a decir un texto en castellano. Tanto Festival
como Speak como Merry TTS o Merits, que son motores y tecnologías
totalmente open source, es más, Festival es GPL 2, creo que se
ha actualizado ya la 3, Speak está
en GPL 3, Merry TTS es Critic Commons, todo libre, siempre
hay que respetar las licencias de los
autores. Speak tiene soporte actualmente, si no recuerdo mal
el dato, para 107 idiomas, todo a
base de voluntarios, gente que ha compartido reglas gramaticales
y de pronunciación, reglas de fonética, gente que se ha molestado
en grabar audios para incluir esos fonemas no habituales,
y gracias a eso pues hay personas que por ejemplo están
en Finlandia que solo hablan finlandés y
pueden usar un lector de pantallas en finlandés en vez de tener
que usar una voz en inglés. O por
ejemplo personas que hasta hace menos de ocho años en Asia no
tenían una síntesis de voz que
pronunciase bien su idioma, o sea, se hacían adaptaciones de
coger por ejemplo la caja fonética de Nuance para japonés
y hacían la voz china y era horrible. Es como, no sé, supongo
que sería intentar escuchar un
texto en castellano con una voz en francés o una voz en
italiano, de que te chirría muchísimo.
Pues las personas ciegas pues no tenían otra opción hasta
que los proyectos de software libre
han llegado allí, porque también está el tema de no
solo los muros comerciales sino los muros sociopolíticos
que impiden que el open source llegue a todas partes,
pero bueno, Speak AI Festival han tenido mucho éxito. Una
cosa muy interesante es que en principio
Stephen Hawking utilizó la voz de Dettalk pero le daba mucho
problema tener ese hardware y terminó
incluyendo un módulo que copiaba a 100% la caja fonética de Dettalk
pero ejecutándose con Festival y ahí los propios ingenieros
de la universidad, creo que era de Oxford, Hawking o Cambridge,
no me acuerdo, lo siento, pues se preocuparon de actualizarle,
de personalizarle algo que la gente
de Dettalk no permitía. Esta es la voz que hay, el hardware
es este y no se puede modificar nada.
Claro, no estaban contentos porque no se podía adaptar la
forma de interactuar que tenía Hawking,
con su silla de ruedas para escribir los mensajes que
quería escribir, pero es que además no era
una voz agradable de escuchar ni para él ni para el público,
ni era rápida ni eficiente, entonces gracias al software
libre se permitió que no solo Stephen Hawking sino otras
personas con problemas prolocutivos o
problemas de movilidad pudiesen tener una voz. Y bueno,
y ahora en la actualidad, año 2024 ¿ha cambiado mucho la
cosa? Sí, notablemente, brutalmente, increíblemente, aunque
Festival, Mervi, TTS y Speak siguen fuertes, porque cuando
no tienes espacio, porque solo tienes un
mega de RAM, ahí metes Speak, tienes menos de 500 megas de
RAM, metes Festival, pero cuando te
sobran los recursos ha aparecido algo que es mucho más útil
para las personas que están a punto de
perder su voz o se tienen grabaciones de su voz, al menos de una hora,
o mientras más horas tengas de grabación de su voz hablando
con naturalidad mejor, porque gracias a la inteligencia
artificial se están clonando voces para crear cajas de síntesis
de voz. Y ahí es la revolución que estamos teniendo, que ya
hay cosas tan alucinantes como con tres minutos de tu voz
ya se puede hacer una síntesis de voz, aunque claro,
tiene que ser hablando en el idioma que la inteligencia
artificial considera como nativo y no queriendo una voz emotiva,
que esa es otra. Hay voces sin emotividad que hablan una voz
así de plana y voces que hablan con
más naturalidad, se llama emotividad, que hacen entonaciones de
interrogación, de admiración e incluso en algunos casos
pueden transmitir sentimientos de alegría o
terror. Y por supuesto, por desgracia para todos nosotros, esas voces
son caras porque son del carácter privativo, porque el
open source se ha centrado principalmente en dar soporte y
ayudar lo más rápido posible a la
humanidad. A esas personas que hablan farsi o suahili, o a
esas personas que hablan sánscrito,
o a esas personas que hablan vietnamita, que también son personas,
digo yo, pero ni Nuance, ni Loquendo, ni IBM, ni Apple, ni Google,
que mira que Google ha hecho un esfuerzo por sacar sus voces
más en idiomas, pero es el catálogo de Google o de Apple y
actualmente dan soporte a menos de 30 idiomas. Sí, ahora que
estábamos hablando de esos ciento
y pico idiomas disponibles para los sistemas operativos libres,
también recordar a esos sistemas operativos libres basados
muchos en ULinux, gracias a la labor de traductores,
pues se pueden tener también los textos traducidos a ciento
y pico idiomas y disponibles para que la
gente pueda instalar y meter el idioma que necesite o que prefiera.
Es lo bonito del mundo colaborativo del open
source, que con el esfuerzo de unos, el esfuerzo de otros,
al final consigues que una persona tenga acceso a la
tecnología y encima en su idioma, con la menor
fricción posible. Digamos que es lo bonito de "venga, vamos a
unirnos unos cuantos, yo sé hacer
esto, tú sabes hacer esto" y entre todos sacamos algo que
sea útil y es lo interesante. Con lo
de la inteligencia artificial el problema está en la regulación
a quién pertenece la voz. ¿La persona que graba? ¿La persona
que envía la grabación? ¿La persona que pulsa el botón
para generar la voz? ¿O la persona
que utiliza los mensajes generados por esa voz? Y ahí entramos
en un dilema socio-geopolítico bastante interesante porque las
opiniones de uno es una forma, la opinión de otro es otra y a
mí lo que me preocupa es que algunos están regulando a
favor de las grandes empresas, poniendo
una regulación tan estricta que una universidad o un
investigador en su casa o un voluntario en
su casa no pueden cumplir pero en cambio las grandes empresas
sí. Y en otro lado se está regulando
de forma de que todo vale y tampoco todo vale porque si es
necesario un poco de regulación pero no dejémosle toda la tarta
a aquellos que solo buscan la cuchara para ellos mismos que
el Open Source ha abierto mucho, ha aportado mucho a nuestro
planeta y la regulación debería respetar
y reflejar esto y bueno ahí seguimos al pie del cañón.
Pues una sección muy completita nos ha quedado hoy Jonathan.
Pues me alegro y espero que a la gente le esté gustando y se
aceptan peticiones como siempre digo que a veces a uno se le
acaban los temas. Muy bien pues hasta el próximo programa.
- Créditos de la música:
- "Evening" de Kevin MacLeod (incompetech.com) - Licensed under CC: By Attribution 4.0
Este podcast tiene licencia Reconocimiento-CompartirIgual 4.0 Internacional (CC BY-SA 4.0).