Programa 03:

  • Odisea en el ciberespacio, con David Marzal, donde hablamos de WheelMap, StreetComplete y otros proyectos molones.
  • Accesibilidad web, con Pablo Arias, donde repasamos conceptos sobre el texto alternativo de las imágenes en la web.
  • Otros mundos, otras realidades, con Thais Pousada, charlamos sobre Comunicación Aumentativa y el portal de Arasaac.
  • Laboratorio de testing con Markolino, nos comenta sobre ampliación de pantalla.
  • Laboratorio de testing con Víctor, comenta sus pruebas con KDE Neón.
  • Diseño para todos, con Jonathan Chacón, nos da a conocer la mecatrónica.

Subtítulos disponibles en steno.fm si vuestra aplicación no los implementa.

Enlace a comentarios por si vuestra aplicación no los implementa.

Transcripción completa pinchando aquí
        
En la sección de 2023, una odisea en el ciberespacio, seguimos
contando con nuestro David particular, David Marzal.
Hola David, ¿hoy de qué vamos a hablar?
Buenas y feliz año, que estrenamos 2024.
Pues hoy, por sugerencia tuya además, me descubriste una
aplicación que estaba investigando y de aplicaciones de mapeo para
accesibilidad física a tiendas, si es ruedas y cosas de esas.
¿Y cómo se llama? Pues tenemos Wheelmap, que es
como rueda en inglés map, y también una que yo ya usaba,
que es StreetComplete. Pues vamos con Wheelmap.
Vale, Wheelmap tiene versión para iOS y para Android, no
está en FDroid, y usa como base principal OpenStreetMap,
que es la parte que tiene más de software libre.
Pero aparte, lo que usa son como 7 o 8 proveedores
diferentes para enriquecer los datos.
O sea, si Gear, que creo que era el mapa de Nokia o otras
páginas específicas tienen esos datos,
los importa a los que ya hay en OpenStreetMap.
Y entonces te deja, desde la aplicación o desde la página
web, ver si un local, si una tienda, es completamente accesible,
medianamente accesible o nada accesible.
¿Has hecho la prueba de intentar etiquetar algún local?
Sí, es muy fácil, porque está hecho específicamente
para eso. A diferencia de StreetComplete,
entonces es como un semáforo, rojo, amarillo y verde.
Y luego en gris te sale lo que está por mapear.
Y solo son tiendas, porque tú en StreetComplete puedes mapear
prácticamente todo lo que existe,
sea las calles, la acera, el paso de peatones, cualquier
cosa que exista en OpenStreetMap. Pero en Wheelmap está enfocado,
y aparte lo dicen que están hechos así a posta, en solo tiendas.
Para que alguien pueda saber antes de ir si esa tienda va a
poder pasar con la silla de ruedas, va a necesitar ayuda o que no
lo haga. Y lo hace muy bien porque te
deja, por un lado, consumir los datos,
o sea, tú puedes simplemente ver esa información, o te deja
rellenarlo tú. Y entonces ellos se encargan de
meterlo en OpenStreetMap. Y es sencillo.
La verdad es que la que estoy usando de normal es StreetComplete,
porque me deja rellenar más cosas.
En StreetComplete, que sí que está en FDroid, pero solo
está para Android, tú puedes hacerte como unas
listas. Lo llaman Quests, como aventuras.
Entonces tú dices, pues mira, yo hoy quiero mapear cosas de
accesibilidad, y me interesa mucho mapear
cosas de si el restaurante es vegano,
o quiero mapear solo el ancho de las calles, o a mí me interesa
el número de los edificios. Entonces tú ordenas cuál es
tu preferencia de mapeo y te va enseñando millones de cosas
que puedes meter. Entonces tiene como una curva
de aprendizaje mayor y está hecho para rellenar,
no para tú saber si ese sitio puede ir o no.
Entonces yo recomendaría que quien quiera saber la
información, porque le hace falta,
usara Wheelmap. Y si hay gente que le guste mapear y regalar
su tiempo a gente que le puede venir bien,
pues puede usar StreetComplete si quiere hacer muchas cosas,
o si está específicamente enfocado a accesibilidad, que se quede
con Wheelmap. ¿Te pongo una pregunta para la
nota? A ver, dime.
¿Qué tipos de datos relacionados con la accesibilidad podemos mapear
en OpenStreetMap, tanto directamente en OpenStreetMap
como usando la aplicación que estabas comentando?
Aparte de la tienda, que en una tienda te dice, a ver, hay un
escalón. El escalón es de menos de 7
centímetros. Una vez que entran en la tienda,
todos los sitios son accesibles. Hay un cuarto de baño preparado
para una persona en silla de ruedas. Eso es lo básico, ¿no?
Pero en StreetComplete tú puedes también decir si el
paso de peatones tiene un suelo diferente, rugoso,
para que personas invidentes puedan saber que ahí hay un
paso de peatones o un semáforo. También te deja decir si un
semáforo tiene botón para pulsar
y que una persona invidente sepa que se va a poner en verde o rojo,
o si tiene los pajaritos estos que tienen algunos de que pita
cuando cambia de rojo a verde. Luego también puedes mapear si
las calles tienen como el retranque, si tienen una cuestecita para
que tú cuando vayas andando puedas ir con la silla.
O simplemente no una rampa entera, sino que le han puesto como 3
centímetros para que no sea una acera de
golpe ahí que va bajando y de repente tiene como un golpecito
de pompón y tienes que seguir. O sea,
puedes ir a ese detalle. Te deja también clasificar la
altura de los bordillos. Tiene un rango. Creo que tiene
hasta estos centímetros, nada y muy alto.
Y te deja también clasificar el tipo de asfalto.
O sea, esto es cemento, esto es tierra, esto es hierba, para
que sepas por dónde vas andando. Yo eso de vez en cuando sí que
lo voy haciendo. Te deja identificar la dirección
de la calle o si hay una acera separada completamente,
dónde están los pasos de peatones. Identificar los semáforos que
tienen sonido acústico para personas con problemas visuales,
para el aviso acústico. Sí, eso es lo que yo te decía
antes de pajarito. El sonido que hace al cambiar entre rojo
y verde. Eso yo la mitad de mi ciudad lo
tengo mapeado. Aunque ahora hay un proyecto
que van a cambiar varios semáforos y me tocará hacerlo de nuevo,
pero sí. Y aparte, yo por ejemplo lo
tengo puesto accesibilidad como primera quest y segunda vegano
vegetariano. Lo primero que me sale en el
mapa conforme voy andando son solo preguntas de accesibilidad.
Entonces cada vez que llega un paso de peatones me pregunta ¿tiene
el suelo rugoso sí o no? ¿Por los dos lados o solo por
un lado el paso de peatones? Hay una mediana en el medio,
cuando le contestas eso te dice ¿Tiene rampa, está a ras de
suelo o hay escalón? Y luego te pregunta si el semáforo
existe, ¿tiene sonido, tiene botón?
O sea, tiene como tres tipos de preguntas para cada cosa, para
que quede completamente. Eso al final lo que hace es los
datos que tú podrías meter a mano en un editor de OpenStreetMap
pues te lo hace más visual y te da algunas ayudas.
En plan, pues no estoy seguro y entonces te da ejemplos.
Pues mira, esta es una foto de cómo sería si es solo parcial.
O si es un salto mediano y no es un escalón muy grande.
Entonces te lo explica y es bastante sencillo una vez que
ha hecho tres o cuatro ir cogiéndole el caire.
Si es verdad que lo hago por racha y luego está gamificado porque
te da puntos. Mira, has hecho tanto esta
semana, has conseguido esta insignia porque has mapeado
mucho este tipo. Estás ayudando a la gente a
que pueda no sé qué, por lo cual te motiva.
Y yo cuando voy solo, cuando voy con mi hija es más
complicado. Pero cuando voy solo, siempre
en una calle por la que no suelo ir,
abro la aplicación y empiezo ahí a rellenar cosas.
Lo que no he llegado a ver, porque en Willmap sí que puedo
ver cuando relleno eso, si un restaurante tiene aseo
para menos válido. Pues yo eso lo puedo ver.
Pero todo esto de la acera, de si hay salto, no hay salto, lo
de los semáforos, eso a día de hoy no sé dónde
lo verías. O sea, lo puedes ver en OpenStreetMap,
pero eso no es una cosa muy útil del día a día.
O sea, no te vas a estar metiendo en OpenStreetMap e ir viendo
los semáforos. No he encontrado una aplicación
tan sencilla como Willmap para el resto de cosas.
Sí, bueno, podrías hacer tú una explotación de datos a
través de aplicaciones, pero que no son súper sencillas,
hay que tener algún pequeño conocimiento.
En Willmap comentar también que es accesible a través de
la web, a través del navegador, del
ordenador. También podemos ver el mapa y
planificar nuestra ruta si lo queremos ver en grande,
no hace falta usarlo solamente en el móvil.
Es donde recomiendan meter nuevos sitios.
O sea, si hay una tienda que no existe, te recomiendan que pases
de la aplicación móvil y vayas directamente a la parte
de arriba a la derecha de la web que pone "insertar un nuevo
sitio" y dicen que es más amigable la
hora de rellenar los datos, que es lo que ellos luego van a
transferir a OpenStreetMap para tener los datos sincronizados.
Seguiré investigando la parte de visualización,
porque yo ahora mismo donde tengo más experiencia es en mapear,
en darle información a la gente.
Tenemos la parte de las tiendas, pero claro,
me falta el saber cómo puede la gente que le hace falta
saber lo de las aceras, a ver si hay un Willmap.
Seguiré investigando y si lo encuentro lo pondré por aquí.
La gente que realmente lo hace falta ya lo conoce la aplicación
y no lo pueden decir. Sí, supongo que también
algunos de los navegadores, los GPS que nos van guiando,
algunos tendrán funciones para que nos vayan cantando este
tipo de características, por lo menos los que son más
abiertos y configurables y que tienen de OpenStreetMap.
Pues mira, probaré OrganicMap y el ASMAN o algo así.
Sí, eso es una bestia parda. Hace falta ser ingeniero para
entenderlo. Me lo quité porque tenía
demasiada funcionalidad, pero lo probaré de nuevo a ver
si tiene eso. Tiene bastantes menús, pero a
la vez es muy configurable y te deja configurar muy bien.
Después también, si no conoces a través de Overpass Turbo,
también se pueden hacer consultas rápidas y te genera
el mapa y te coloca los puntos. Está muy bien.
Sí, yo tengo unas cuantas plantillas, pero claro, no lo
veo para el usuario de a pie. En plan voy a ir a una tienda y
voy a estar en mi ordenador haciendo una consulta Overpass
Turbo antes de ir a andar con mi perro
guía o con mi bastón. Eso, intentar encontrar algo
más amigable. Pues hasta aquí la sección de
2023 no hay design en el ciberespacio, aunque ya hemos cambiado a 2024,
pero bueno, el nombre es el nombre.
Un saludo. Y en la sección de accesibilidad
web, contamos con Pablo Arias nuevamente.
Hola, Pablo. Muy buenas, Jorge. Muy buenas a
todos. Hoy que estrenas micro, ¿de
qué nos vas a hablar? Hoy vamos a hablar sobre el
texto alternativo que debemos incorporarle
a toda imagen que añadamos a nuestros contenidos de la web.
Ahí está. Y que la mayor parte de la gente no hace.
Justo. Efectivamente. A veces se puede omitir,
pero la mayoría de las veces sí que requiere un textito
alternativo. Sí. Y en este caso, entendemos
web, tanto cuando hablamos de las páginas web
como en redes sociales, también, en la mayoría de
ellas, también podemos meter ese
texto alternativo, ¿verdad? Efectivamente. Así es. Así es.
Entonces, muy interesante que acompañemos a la imagen
de un pequeño texto que la describa.
Pueden pasar varias cosas. Una de ellas es que la gente no
la vea, pero también puede pasar que
la imagen no cargue por algún problema técnico.
Entonces, si eso fuese el caso, pues tenemos ese texto que por
lo menos la describiría. Cuéntanos cuáles son las claves
para que ese texto alternativo sea un poco bueno o cumpla la
normativa WCAG. A ver, lo que hay que hacer
principalmente es describir la imagen que estamos visualizando.
Esto teóricamente lo puede hacer cualquier inteligencia
artificial, que incluso ya hay muchas
herramientas que lo hacen. Entonces, si queréis utilizar
alguna, pues os puede ayudar. Pero no es necesario.
Es decir, se trata de describir la imagen en el contexto en el
que está. Una imagen meramente decorativa,
no hace falta poner ningún texto alternativo.
Simplemente se deja el atributo alt vacío.
Que no es decorativa, que sí que aporta valor,
pues sí que le ponemos ese valor que aporta.
Por ejemplo, una imagen que no aporta valor,
el típico icono de cada elemento de menú,
pues que la home lleva una casita, la página de inicio lleva una
casita, eso no aporta valor. ¿Qué vamos a poner ahí?
Como texto alternativo, casita o icono de casa.
No hace falta. Ahí con que esté el nombre
del elemento de menú es suficiente.
Si no estuviese, sí, sí que habría que ponerlo.
Pero estando el elemento de menú, no hace falta.
Si estamos poniendo un iconito que es un PDF, por ejemplo,
un archivo que nos vamos a descargar y al lado está el icono de PDF
para simbolizar que el archivo que nos descargamos es PDF,
simplemente en el texto alternativo ponemos "en formato PDF" y ya
está. Supongamos que tenemos documento
del 2024, lo que sea, y la coletilla "en formato PDF".
Eso es lo que la persona que utiliza un lector de pantalla oiría.
Pues es útil ponerlo. Debemos evitar las imágenes
con texto. Es decir, esas imágenes que
tienen texto encima debemos evitarlas.
Pero en caso de que lleven texto,
pues ese texto se lo añadimos a la etiqueta del texto alternativo.
Por ejemplo, el típico icono de enviar,
pues ahí le ponemos como texto alternativo "enviar"
y así todo el mundo puede entenderlo.
Y hay más ejemplos. La típica imagen que nos
acompaña en un post de un blog, pues ahí podemos describir
qué es el contenido de esa imagen
con respecto al artículo del blog.
Es decir, describir la imagen de forma genérica no aportará
mucho, sino más bien aportará por
qué esa imagen para este artículo del blog.
Entonces, pues ahí pondremos un poco relacionado
con lo que vamos a leer en el post.
Todo esto, además, dicen que Google es el usuario ciego y sordo
que más visitas va a hacer a tu web.
Entonces, también lo estamos cuidando a él.
Esta imagen alternativa ayuda a que los buscadores como Google
sepan de qué va esa imagen que tú has introducido ahí
y también al final le da contexto a todo el contenido de
tu página. Realmente hay una chica que se
llama Olga Carreras que en su web tiene un mapa de
decisión, incluso también un asistente,
para decidir qué texto alternativo sería el más adecuado para
cada imagen. Entonces, si estamos hablando,
por ejemplo, de una obra de arte,
ella dice que describamos con el nombre de la obra de arte.
Por ejemplo, si es un cuadro, ponerle el nombre del cuadro,
incluso si queremos ponerle el autor.
Si estamos hablando de una imagen para un blog o un periódico,
que estemos creando un artículo para un periódico,
lo que tenemos que tratar de indicar es lo que está sucediendo
en esa foto, lo que decía antes, en
relación a nuestra noticia o a nuestra publicación.
Si hay dos personas dándose la mano,
indicar si esas dos personas están llegando a un trato o lo
que sea. El presidente de no sé qué
dándole la mano al presidente de no sé cuánto
por su trato de tal. Con eso estamos describiendo lo
que está sucediendo en esa imagen.
Aunque no la veas, te haces una composición del lugar.
Esa es la idea. Si tenemos la duda, vídeos,
pero que reproducen unos pocos segundos,
¿en ese caso deberíamos poner también un texto alternativo
describiendo lo que se ve en esos segundos?
¿Te refieres a un GIF animado? No, para mí un GIF sería una
imagen animada. Hablaría, por ejemplo, las típicas
miniaturas de vídeos de plataformas como YouTube u
otras, que cuando pasas el cursor por
encima, o a veces simplemente de forma
automática, reproducen en bucle unos pocos
segundos. Efectivamente, sería ideal
poder describir qué está pasando en esa animación.
Sí que es cierto que el texto alternativo no es infinito.
Entonces, si se hace muy largo, hay un método para poder crear
un texto alternativo en una nueva página.
Le indicaríamos que en esa imagen
hay una descripción más larga en otra ubicación.
Y en esa ubicación podemos extendernos todo lo que queramos.
Pero si no, el texto alternativo creo que lo recomendable
es que no supere los 250 caracteres.
Hablo de memoria ahora mismo. Pero creo que es recomendable
que no supere esa cifra, porque si no ya se hace
demasiado largo. Es interesante que no sea repetitivo.
Es decir, no debemos repetir el título del artículo
en el texto alternativo de la imagen.
Es más bien describir la imagen,
porque si no, no estamos aportando nada.
Hay imágenes que pueden ser un poco más difíciles de describir.
Por ejemplo, un gráfico en el que haya datos
o un gráfico de barras o ya sea un gráfico también
de tipo circular, de segmentos.
Ahí es un poco más difícil de escribirlo.
Se puede hacer, si lo conseguimos hacer de forma breve,
se puede hacer dentro del propio gráfico,
dentro del propio texto alternativo, donde digamos, pues mira, hay
cuatro barras. La barra número uno tiene este
valor y la dos este otro y la tres
este otro y la cuatro este. Si nos llegan los 250 caracteres
para ello, genial. Y si no, podemos incluir una
descripción más en profundidad en otra URL.
Mi duda entonces quedaría con las típicas infografías
que son un poco extensas, que ahí a lo mejor los 250
caracteres no nos llegan. Claro, las infografías, lo suyo
es documentarlas. Es decir, las infografías,
como decía antes, no es interesante incluir texto
dentro de las imágenes. Sé que las infografías son
precisamente eso, pues una imagen que incluye
dentro múltiples textos. Esto tenemos que tratar de
evitarlo porque los lectores de pantalla
no lo van a entender y los buscadores tampoco a
priori tienen el conocimiento para poder hacerlo, pero no van
a invertir su tecnología en leer las imágenes, al menos
de momento, que yo sepa. Lo que debemos hacer es escribir
ese texto a mayores en la página que estamos
visualizando. Es decir, el que está en la
infografía, ese texto que esté también
escrito en la propia página. De esa forma, pues nos evitamos
tener que hacer un texto alternativo gigante,
sino más bien es la propia página ya es descriptiva de la
imagen y a la imagen le podríamos
poner infografía sobre el texto que aquí vamos
a poner o que hemos puesto. Supongo que con estas pautas ya
seremos capaces de generar todos los textos
alternativos que nos hagan falta.
Sí, en la página de usableyaccesible.com, que es la de Olga Carreras,
están estos dos asistentes que os comentaba
y en mi web tenéis enlaces directos a ella.
En mi blog tengo un artículo de accesibilidad
que hablo sobre este tema de las imágenes, entre otras
cosas, y están enlaces a ambos,
tanto el diagrama de toma de decisión como el asistente
que te va haciendo preguntas y te dice,
pues esta imagen forma parte de un enlace o botón, sí o no.
Y le vas respondiendo las preguntas
y te va indicando como complementar ese texto alternativo.
Y en lo referente a las imágenes, ¿qué resolución mínima es
la aconsejable para cumplir los estándares de
accesibilidad? Bueno, resolución mínima yo
entiendo que no hay como tal. Lo ideal es utilizar el tamaño
de las imágenes al tamaño en el que se van a
visualizar. Es decir, no usarlas ni mucho
más grandes ni mucho más pequeñas.
Si el tamaño en el que se va a visualizar la imagen,
vamos a suponer es un icono, no vamos a subir ahí una
fotografía hecha con nuestro móvil
con 18.000 megapíxeles, no tiene sentido.
Al igual que tampoco tiene sentido una imagen
que se va a visualizar a todo el ancho de la pantalla,
subirla con un tamaño mini que se noten los píxeles.
Entonces, lo ideal, subirlo al tamaño al que se va a utilizar.
Ahora mismo es cierto que es difícil saber a qué tamaño
se va a utilizar esa imagen teniendo móviles, tabletas
y ordenadores tanto portátiles como de escritorio.
Y televisores de 90 pulgadas. Efectivamente, y televisores de
4K o incluso 8K. Entonces, lo que sí nos
permite hacer la tecnología web
es definir una imagen para determinados tamaños.
Iba a decir una imagen para cada tamaño, pero eso es un
poco locura. Entonces, podemos definir no
solo una imagen si quisiéramos, si esta imagen es importante,
podemos definir un tamaño para móvil, un tamaño para
tableta, otro para ordenador y otro para televisor de super
resolución. Todos los tamaños que queramos
podemos definir. A lo mejor con uno nos llega,
sino dos, tres, cuatro, los que necesitemos.
Y supongo que el vídeo será tres cuartos de lo mismo,
en función del tamaño que lo vayamos a ver.
Lo subiremos con la resolución adecuada.
Efectivamente. De hecho, a ver, lo del vídeo ya es ir un poco
más allá porque, como bien sabes, los
reproductores como YouTube o similares
te suelen adaptar la resolución a tu ancho de banda,
al tamaño de tu dispositivo, etc.
Se adapta, se adapta a la circunstancia. Pondremos también los enlaces
que comentabas en las notas del programa
y hasta aquí la sección de accesibilidad web con Pablo Arias.
Perfecto. Pues muchas gracias, Jorge, y muchas gracias a todos
los oyentes. Y estamos en la sección de "Otros
mundos, otras realidades" con Thais Pousada.
Hola, Thais. Hola. Buenas noches.
¿Y de qué mundos y de qué otras realidades nos vas a
hablar hoy? Pues hoy vamos a dedicar el
espacio a hablaros de la comunicación aumentativa,
que no alternativa, ahora os explico las diferencias,
y de un recurso gratuito que tenemos online que es el portal
de Arasac, que es el portal de comunicación
aumentativa y alternativa de Aragón. Porque Arasac son las iniciales
de sistemas aumentativos y alternativos de comunicación.
De comunicación, efectivamente, sí.
Y la diferencia que hay entre la comunicación aumentativa y
alternativa es que la aumentativa, digamos,
que complementa o apoya al lenguaje oral o la escritura,
pues, por ejemplo, las personas que utilizan los pictogramas
para comunicarse, es un apoyo a esa comunicación.
Mientras que la comunicación alternativa es el uso de otro
código para comunicarse. En este caso, se trata de una
sustitución completa del lenguaje, porque éste está ausente.
Entonces, ejemplos de la comunicación alternativa serían
la lengua de signos o el braille, que hoy
precisamente, que estamos grabando el 4 de enero,
es el Día Internacional del Braille.
Que es el día que nació el inventor del braille, tengo
entendido. Luis Braille, sí.
¿Por qué es tan importante la comunicación para los humanos?
Porque sin ella no estaríamos haciendo este podcast y el
hecho de comunicar no sólo implica las palabras,
sino implica que una persona emite un mensaje
hacia otras personas o hacia otra persona y se intercambia
algún tipo de información que puede ser escrita, puede
ser visual, puede ser oral, puede ser por gestos
o puede ser por dibujos que representan acciones u objetos
y que son los pictógrafos. Porque somos bichos sociales,
¿no? Necesitamos esa interacción entre otros
de nuestra misma especie para sentirnos vivos.
Exacto. Necesitamos comunicarnos y comunicar a los demás.
Es decir, la comunicación normalmente se hace de forma
asíncrona, pero también se puede realizar
de forma asíncrona. Es decir, yo puedo dejar un
mensaje de texto por WhatsApp, por ejemplo,
y la persona lo puede leer a las dos horas y no es una
comunicación síncrona. O puedo dejar algo escrito en
mi blog o en mis redes sociales y quedará ahí
para que las personas lo lean o lo visualicen a posterior.
Y entonces es una forma de garantizar que transmitimos
información y que recibimos información.
Bueno, nos estabas contando algunos ejemplos de sistemas
alternativos de comunicación y creo que vas a comentar alguno
aumentativo. Aumentativo. La comunicación
aumentativa es ese complemento al lenguaje oral
o al escrito y que los elementos de la comunicación
aumentativa facilitan una comunicación funcional
para aquellas personas que tienen más dificultades en
la comprensión de ese lenguaje. Son muy utilizados estos tipos
de recursos de apoyo en personas
con trastorno del espectro del autismo, en personas con discapacidad
cognitiva o también en algunas personas
que temporalmente han perdido su habilidad
o capacidad de comunicación, de comprensión o de expresión
y necesitan estos apoyos de forma temporal.
¿Me pones algún ejemplo? El principal elemento de la
comunicación aumentativa es el uso de los pictogramas.
¿Qué son los pictogramas? Los pictogramas son dibujos que
pueden representar conceptos, verbos, emociones, acciones
y también preposiciones o elementos conectores del lenguaje.
Al igual que con las palabras, los pictogramas permiten
construir frases y permiten también que
personas que tienen dificultades en la lectura y la escritura
se puedan comunicar de forma activa.
Puedo describirlos de una forma un poquito más vulgar.
Son dibujos que representan conceptos que al verlos
realmente transmiten una acción. Simplemente con verlos lo
entendemos muy rápido qué quiere representar ese dibujo.
El ejemplo más claro de pictogramas es cuando vamos a un aeropuerto
de Rusia o un aeropuerto de Egipto, vemos un conjunto de símbolos.
Por ejemplo, el símbolo del aseo o el símbolo de recogida de
equipajes o el símbolo de salida y
sabemos qué significa. No necesitamos conocer o saber
ruso o otro idioma para poder entender.
Eso es la comunicación a través de pictogramas.
Y en este portal que estábamos comentando tenemos aquí un
montón de recursos de este tipo.
Sí. Arasa, que es el portal de la Comunicación de la Conserjería
de Educación de Aragón, ya tiene más de 10 años y en
todo este periodo ha evolucionado muchísimo
y han ido generando muchos recursos.
Lo más sencillo es buscar pictogramas. Es decir, la página web es arasac.org
y en esa página web podemos hacer una búsqueda de un pictograma.
Por ejemplo, buscamos, esto es algo que yo siempre hago destacar
porque si buscamos DNI, tal cual, el DNI nos va a
aparecer un pictograma de un DNI de España.
O si buscamos tortilla nos va a aparecer la tortilla de patatas
o paella nos va a aparecer una paella.
Entonces esto es algo que es importante porque al igual que
los idiomas, los pictogramas son un código.
Entonces estos pictogramas de Arasac se generaron en un
contexto español con lo cual incluyen elementos
propios de la cultura de nuestro país.
Mientras que si nos vamos a otros conjuntos de símbolos,
por dar ejemplos, los SPC que eran los que se utilizaban
antes pero son de pago o los Widijit que también son
de pago. Estos son símbolos que se
generaron en un entorno anglosajón en Estados Unidos
y en el Reino Unido y que no incluyen esta parte contextual
tan importante en representación de palabras
propias de nuestro país. En la página web de Arasac
podemos encontrarnos un buscador que nos ofrece los símbolos
que existen poniendo una palabra clave.
Pero además tiene un apartado que es Aula Arasac
y en ese Aula Arasac aparecen diferentes recursos, software,
que permiten utilizar los pictogramas dentro de ese software.
Y me explico, pues por ejemplo, nosotros utilizamos el Word o
el LibreOffice para escribir documentos de
texto. Arasac tiene una herramienta,
un software propio que se llama AraWord.
Cuando lo instalamos en este exige instalación, no funciona
online, exige instalación, entonces
cuando es gratuito, por supuesto,
y cuando lo instalamos en el ordenador e importamos todos
los pictogramas, cuando escribimos un texto, por
ejemplo, "Me gusta el chocolate", pues al mismo tiempo aparecen
en el documento los pictogramas que se corresponden con "Me
gusta el chocolate". Entonces van apareciendo a
medida que yo escribo un texto escrito,
lo traduce inmediatamente a los pictogramas,
a ese texto como quedaría escrito con pictogramas.
Luego se puede imprimir, se puede exportar en PDF, etc.
Esto es uno de los software que incluye.
Otro software interesante que es también muy utilizado por
personas con TEA es la elaboración de agendas.
Entonces para eso tienen un software que es Pictogram Agenda.
Entonces este software que es online, este sí que no hay que
instalarlo, pues permite ir generando como
una agenda del día con pictogramas. Entonces esto para las personas
con TEA le viene genial porque de esta forma pues
tienen todas sus actividades ordenadas,
actividades que están identificadas con pictogramas
y que pueden ir tachando una vez que las han realizado.
Entonces tienen esa agenda del día elaborada.
Otro software interesante de Arasak es el que permite generar secuencias,
es decir, que se llama Secuencia AC, que es también un software
online. Entonces en este caso para
realizar una tarea tan fácil o sencilla
como nos puede ser, lavarse las manos.
No todas las personas saben cuál es la secuencia correcta
para lavarse las manos. Entonces en este caso el
profesional genera una secuencia, es decir, abrir el grifo, meter
las manos debajo del agua, echarse jabón, enjabonarse las
manos, aclararse las manos, cerrar el grifo y secarse con
toalla. Entonces toda esta secuencia de
tareas que componen la actividad de lavarse las manos
se puede, digamos, ejemplificar con pictogramas.
Entonces para eso está este software, Secuencia AC,
en el que el profesional va configurando esa secuencia con
pictogramas y luego puede imprimir o puede
visualizarlo la persona en una tablet, por ejemplo.
Y luego también existen diferentes tipos de comunicadores
a través de pictogramas que utilizan las herramientas
de Arasat y que se pueden instalar en el dispositivo móvil,
que son gratuitas también, y que facilita, por ejemplo,
la elaboración de tableros de comunicación interactivos,
es decir, interactivos se refiere a que una casilla abre otro
grupo de pictogramas. Por ejemplo, yo quiero y en
quiero me aparecen de comidas, de bebidas, de acciones,
entonces van abriéndose pantallas, nuevas pantallas,
con conjuntos de pictogramas que pertenecen a esa categoría.
Y esto lo puede llevar la persona en su móvil a través
de las app móviles que también se proporcionan en
esta página web. Muy interesante.
Sí, la verdad es que desde que se creó que era simplemente el
conjunto de pictogramas que eran 3.500, ahora ya superan
los 10.000, hasta este momento que tienen
ese aula Arasat online en la que puedes descargar
o acceder online a diferentes software, en la que hay
tutoriales, en la que hay ejemplos de
trabajos realizados por otros profesionales y personas,
pues está estupendo y es un recurso gratuito que tenemos
ahí para mejorar esa parte de
comunicación aumentativa. Es un gran repositorio con
tanto software como otros elementos muy trabajados.
Muy bien, es de aplaudir esta iniciativa.
Sí, la verdad es que, y bueno, siguen ahí.
Quiero decir, no es como otros proyectos que empiezan y cuando
se termina la financiación se van y ya no hay lo que se
llama el soporte técnico. Estos al final están ahí, es
un grupo de trabajo financiado por la conserjería de
educación de Aragón y lo bueno es que tienen muchos
colaboradores y colaboradores de diferentes países.
Es decir, Arasat nació en España pero ahora mismo ya los
pictogramas también ya están generados para portugués,
inglés, todas las lenguas oficiales de España, francés.
Tienen por todo el mundo y claro, al tener tanta comunidad
que trabaja con estos pictogramas, al final se van generando
recursos que las personas también comparten.
Entonces se genera una biblioteca online muy grande que podemos
aprovechar. Muchas veces no hace falta
crear nada nuevo sino que ya lo tenemos ahí en esa biblioteca.
Los recursos de Arasat son muy utilizados en educación para
generar contenidos educativos o para ajustar los contenidos a
un lenguaje más fácil o traducir los contenidos que
se tienen que dar en una asignatura básica
a lenguaje aumentativo con pictogramas. Pues hasta aquí la sección de
Tais Pausada. ¿Qué tal? Soy Marco Orino,
Marcos para los amigos, y hoy me gustaría hablar sobre
algo que he decidido llamarlo "tamaños y posiciones".
Voy a contar mi experiencia de uso con dos cosas que utilizo
con bastante frecuencia. Uno, la función de ampliar la
pantalla del entorno de escritorio que utilizo, que es XFCE,
que básicamente, por si no lo sabes, es mantener la tecla Alt
apretada y mover la rueda del ratón,
y bueno, pues se amplía la pantalla.
Para mí, que tengo un resto visual, es decir, que no tengo
una ceguera total, pero sí que veo algo, pues va
muy bien. No es que esté permanentemente
utilizándola, pero sí que va muy bien.
Y debo agradecerle este conocimiento a Víctor, que es otro participante
del podcast, porque él fue el que me dijo "Oye,
mira, a ver, prueba esto. Mantén la tecla Alt apretada y luego
la rueda del ratón". Y yo "¡Ostras! Qué guay, ¿no?"
Entonces, pues sí, desde aquí mi agradecimiento. En su día
se lo di, por supuesto, pero desde aquí mi agradecimiento
público por esa enseñanza, Víctor. Otra cosa que utilizo es la
terminal. Y sé que hay mucha gente por
ahí que es muy reacia a utilizar la terminal,
que me he encontrado gente que incluso critica el hecho de que
haya emuladores de terminal, que eso es una cosa, yo qué
sé, un engendro que tiene Linux.
Todo lo contrario, para mi gusto. Es lo mejor que me puede
haber pasado. En Windows, sí, me gustaba
utilizar el símbolo de sistema, pero me quedaba muy corto por
el tema de comandos. No había mucha documentación,
o por lo menos yo no la encontraba en ese momento.
Y la verdad es que viene muy bien que hasta para casi lo
último que se te pueda ocurrir haya un comando.
¿Por qué me interesan tanto los comandos?
Pues porque son bastante predecibles una vez que los conoces.
Ya sabes en qué parte de la pantalla está el resultado que
buscas. Yo qué sé, por ejemplo,
cuando hago podcast hago normalización de sonoridad.
No sé cómo decir esto. Esto es básicamente una forma de
asegurarte de que todos los audios suenen
al mismo nivel, que la persona que lo escuche sienta
que está escuchando un audio y otro al mismo nivel
y que no hay una diferencia muy grande entre uno y otro.
Hay un comando, que vale para eso y para muchas cosas más,
que es ffmpeg. Cuando yo utilizo ese comando
con los argumentos correspondientes y todo,
genera una salida, la salida del comando, es decir, lo que
te pone como respuesta a ese comando.
Y claro, tú ya sabes qué línea tienes que buscar,
dónde está en la pantalla. Claro, eso no te tienes que calentar
la cabeza, fuera de que tampoco tienes que
necesariamente ir a utilizar el ratón.
Quizá si estoy en un emulador de terminal, pues para subir y
bajar con la rueda del ratón o cualquier cosa de estas, pero
por lo demás no necesito el ratón para nada más.
Y si sabes mecanografía, pues la verdad es que es una comodidad
para mí que tengo que estar pues a unos
5 centímetros de la pantalla con unas gafas
para poder, bueno 5, a lo mejor unos 10, 15 centímetros como
mucho de la pantalla para poder verla, pues la
verdad es que va muy bien. Va muy bien porque evidentemente
la pantalla completa nunca llegas a verla,
o sea, puedes verla pero no con la definición que te gustaría.
Y entonces pues el saber que las cosas están en un sitio
concreto va muy bien, la verdad. Yo definitivamente, yo diría
que si se hiciera bien, la terminal es una de esas
cosas que tranquilamente se podrían,
digamos, con un buen lector de pantallas, se podría promover
el uso de la terminal entre personas ciegas y por
supuesto con discapacidad visual.
Para mí es definitivamente una de esas cosas por las que,
independientemente de que Linux sea software libre, que eso
pues también tiene su peso, vamos, por supuesto, según la
razón principal, pues definitivamente la segunda
razón es porque hay una terminal
y hay un ecosistema de, digamos, de comandos o instrucciones,
como le llaman algunos, que están muy, muy, muy, muy
bien. Así que nada, eso es lo que
quería compartir por aquí. Un saludo.
En esta ocasión traemos KDE Neon a nuestro laboratorio.
Vamos a ver qué características tiene de accesibilidad,
desde que arrancamos el CD hasta instalarlo y ver qué
experiencia, qué facilidad nos da.
He estado tres semanas, unas tres semanas más o menos,
usando KDE con cierta normalidad. Os comento, ¿os apetece estar
cinco horas? Podría dar el tema, seguro,
pero creo que lo vamos a dejar por ahí en unos cuantos
minutos y para ello vamos a ir a las
características básicas que toda persona con problemas
visuales o la gran mayoría necesita
o aquellas cosas básicas que hacen un entorno cómodo.
Arrancamos la ISO y que vemos una pantalla fondo negro con un
logo. Sería de agradecer que nos
indicara que debemos pulsar una tecla
y nos mostrará no solo el menú que hay para lenguaje, idioma,
teclado, también incluyo uno de accesibilidad.
Piensen que a un usuario novel o que nunca ha conocido Linus
le vendría de ayudaría. Son pequeños detalles que
estaban antes en otras distribuciones o que están en otras distribuciones
y que por aquello del minimalismo desaparece.
El usuario, recuerden, no es adivino y lo que no se ve no está.
En el proceso de instalación de KDE Neon,
el instalador nos muestra una serie de diapositivas que son
bonitas, pero es el momento perfecto
para marcar tu diferencia sobre los otros escritorios en
el que puedes decir o mostrar al menos unas ciertas
características de accesibilidad generales.
Un aspecto imprescindible para personas que tienen dificultad
visual es tener un zoom que funcione y
que lo haga bien. En KDE Neon eso está en un
sitio bastante escondido que tiene que ver con efectos
de escritorio, cuando en realidad quizá debería
estar en algo asociado a accesibilidad de escritorio.
Pero bueno, no seré yo quien diga dónde ir,
pero en efecto de escritorio regular.
Cuesta de encontrar y el funcionamiento deja bastante
que desear. En otros escritorios tenemos la
opción de, mediante una tecla más scroll,
tener un zoom que lo podemos variar con facilidad en
cualquier momento. Esta posibilidad no se puede
hacer hasta el momento y que yo haya visto en KDE Neon.
Podemos cambiar las teclas, pero no con el ratón.
Algo curioso es el atajo de teclado, que no recuerdo cuál es el
original porque lo he tenido que modificar
de lo incómodo que es. Dependemos de la tecla + y -
junto a otras teclas, pero solamente actúa en la
parte del teclado. En la parte del teclado, los
que tenemos un teclado grande con todas las teclas,
en el + y - que hay en el teclado numérico,
en ese no funciona, no sé por qué.
Quiero recordar que hay dos opciones de cómo se mueve el puntero en
la pantalla. Una que es proporcional, es
decir, que si vemos de una esquina a
otra con un factor determinado de aumento,
digamos, por ejemplo, un 20%, el puntero del ratón coincidirá
cuando muestre la esquina, coincidirá el puntero.
Cuando esté en el centro, el puntero estará en el centro.
Parece lógico que el puntero, o los temas del puntero del ratón,
tengan colores llamativos, naranja, amarillo, verde, azul, rojo,
en lugar de punteros de color negro o blanco.
Se echa de menos ese tipo de, por lo menos que tengan una opción.
En otros escritorios, pues, no digo que sea perfecta,
pero alguna opción hay, por defecto.
Hay formas de invertir los colores diferentes a como lo hace Kade
Neon, que viene a ser la misma forma
que se hacía en Gnome 2. Si tienen algún dispositivo de
Android, verán que invierte los colores,
el tono, pero no los colores. Con lo cual, hacer la inversión
de colores que no es natural, pero cuesta menos de ver.
Eso sería una opción interesante a implementar.
Muchas veces, las personas con problemas visuales necesitan
un apoyo visual para no perder al ratón.
Hay varios métodos. En Kade Neon, tenemos una
especie de aro que no para de dar vueltas.
Yo entiendo que la persona que lo ha hecho, lo ha hecho con la
mejor intuición del mundo, pero una cosa es un apoyo
visual que nos ayude a encontrar el puntero.
Y no, pues eso, una especie de aro dando vueltas.
Creo que hay otro tipo de soluciones. Y algo que llama también la
atención es que sea blanco y negro,
cuando en realidad debería ser de algún color llamativo
o tener algún motivo de un color llamativo
o que siempre busque el contraste sobre el fondo.
Una característica que comparte junto a otros muchos sistemas
operativos es mover las ventanas con el
botón super más los cursores. Ocurre algo muy curioso en el
que podemos mover las ventanas hacia izquierda, derecha, abajo,
arriba, pero no podemos poner la ventana
maximizada. Si tenemos la ventana maximizada,
podemos moverla a derecha, izquierda, abajo, arriba,
pero no podemos volver a poner esa ventana maximizada.
No sé el motivo, si es un error o que nadie se ha dado
cuenta de ello. Esto es una característica que
a personas con problemas visuales les puede ayudar a la hora de
organizar las ventanas sin tener que estar moviendo
las ventanas de forma visual arrastrando. Los atajos de teclado de KDE Neon,
pues, llamaba la atención la redundancia
de los atajos y cierta desodorización de
estos. Sinceramente, el botón de pulsar
para abrir el menú de inicio, pues, en general, es un incordio,
porque limita, bueno, entorpeces a cualquier tipo de,
no solo de accesibilidad, sino para tener otro tipo de atajos.
Así como Alt, esto es curioso, yo creo que es en todos los
sistemas operativos, Alt + espacio abre el menú de
la ventana activa. Sin embargo, en KDE Neon, no
sé muy bien por qué, se habilita lo que en otros se
hace pulsando, creo que es Alt + F2,
para ir hacia un buscador de aplicaciones o similar.
Es algo que deberían repensar, que no solo afecta a los usos,
a las funciones generales, como para implementar acciones
de accesibilidad. Una característica de KDE Neon,
del escritorio KDE Plasma, son las esquinas activas.
Es muy bonito, siempre y cuando no actúen sin que lo desees.
Quien no conoce este tipo de esquinas,
son puntos que están en la esquina de los escritorios.
En la pantalla se pueden poner más,
pero se pueden poner a la izquierda, arriba, a la derecha,
en el que tienen ciertas funciones que se pueden personalizar.
Cuando se emplea un zoom, ocurre que sin querer, de forma
involuntaria, con el puntero tocamos esos
puntos y entonces salta, y eso hace que tengamos que
mover el ratón para que se esconda, o dar a un teclado para anular
la acción que salta, automática. También cabría la posibilidad
de un comportamiento semiautomático. Es decir, que visualmente avise
que estás en esa esquina activa, pero que tengas que darle al
ratón una pulsación a asignar para que ocurra esa acción que
tengas programada. Es cierto que la coral sí que
tiene un aviso luminoso, pero muy, muy pequeño, que
casi pasa desapercibido. Cada neón, cada escritorio,
cada Plasma, tiene otras muchas
características que podrían ser para muy largo
tiempo de ellas. Seguro que si encuentran, si
prueban y buscan propiedades, encontrarán características
que, sin ser o estar pensadas para accesibilidad, les resulta
útil. No solo para problemas visuales,
sino otros tipos de dificultades. Yo aquí lo dejo, y durante
mucho tiempo no creo que vaya a probar cada
neón. Vuelvo a mi escritorio habitual.
XFC, quién sabe si es el próximo en contaros algo.
En cada neón puedes encontrar varios temas, claro, oscuro,
pero dentro de las posibilidades que ofrece, que son unas cuantas,
no puedes personalizar los tonos. Los temas de iconos de alto
contraste, sinceramente, yo creo que no lo usa nadie,
ese tipo de grafía. No sé si lo usarás alguien,
pero yo creo que si no es ni bonito,
dudo que eso lo ponga alguien. Por lo menos yo he consultado a
personas de misma problemática y no lo usa nadie, ese tipo de
perfil. En cuanto a colores oscuros,
pues a veces hay personas que por su problemática no ven
bien en oscuro y blanco, o blanco y oscuro, sino que
necesitan tonos intermedios. En Gnome 2, pues eso se podía
hacer de un modo muy fácil. Se puede elegir el color que
uno quisiera, tanto para las fuentes como
para el fondo de la ventana. Y eso en KDE parece que te dan
un tema, y no sé, es algo sorprendente
que no se pueda personalizar de manera sencilla.
En el escritorio de KDE Neon podemos configurar el teclado,
de forma que al pulsar un atajo de teclado,
éstas se iluminen, o nos sugieran qué letras
o qué pulsadores podemos tener asociado a esa tecla.
Es una característica interesante si queremos descubrir
el potencial del escritorio de KDE Neon.
También nos ayudará a exprimir el máximo de nuestros programas
que utilizamos, bien en Ofimática, Video o cualquier otro.
Y dado que la accesibilidad es parte del escritorio,
seguro que será siempre un plus el conocer estos,
o que nos ayude a encontrar esos atajos,
sobre todo cuando empezamos a utilizar un escritorio
como KDE Neon. Desafortunadamente no lo puedo
probar, porque el teclado que tengo no
tiene LED, el cual es necesario que sean
independientes por cada pulsador.
Cuéntanos cómo es tu experiencia,
si tienes la suerte de tener uno de estos teclados.
Curiosamente, esta característica de encender las teclas
para completar atajos, también se encuentra en Gnome.
Pues el banco de pruebas diría que en esta ocasión
KDE Neon necesita mejorar mucho. Sinceramente, no llega a lo
mínimo que debería llegar, en cuanto al menos lo que tiene
que funcione bien. Lo siento, pero así es.
Hasta la próxima, con otro escritorio.
Y en la sección de Diseño para Todos,
con Jonathan Chacon, hoy nos trae un palabra que
viene de Oriente, me parece. Un poquito más lejos.
Mecatrónica. ¿Qué es la mecatrónica?
Todo el mundo sabe lo que es el tema de Ingeniería,
todo el mundo sabe lo que es la Electrónica,
o debería saberlo, todo el mundo sabe lo que es la
Física, y todo el mundo sabe lo que es
la Informática. Pues la mecatrónica es la unión
de sistemas de información, automatización, electrónica y
mecánica. ¿Todo ello para qué?
Pues para construir robots, sistemas domóticos de asistencia,
prótesis ortopédicas, todo lo que se nos pueda ocurrir
que esté fabricado en metal o plástico o resinas.
Y de ahí viene todo este tema de mecatrónica y el open
source. Todo el mundo puede pensar que
la mecatrónica es solo privativo, en una gran parte es así, pero
no del todo. La mecatrónica empezó allá
por los finales de los 60, no recuerdo mal 68 o 69,
y en el 75 tuvimos el primer club de computación libre,
tanto para fabricar hardware y software,
y fue el Homebrew Computing Club,
y de ese club de usuarios salieron cosas como el Apple I,
algunos modelos de placas base que luego montaron procesadores
Motorola 5000 y 60000, y un movimiento que ha ido evolucionando
con ingenieros, gente afín, gente fanática de
la tecnología, y todo ha desembocado en cosas
como el Open Motors, que es un conjunto de investigadores,
empresas y demás que se dedican a compartir,
y esa es la base de ese open source de conocimiento,
compartir diagramas, planos, instrucciones, software,
todo lo necesario en el caso de Open Motors
para fabricar motores o vehículos eléctricos.
Casi los podríamos llamar los primeros makers que existieron.
Ahí está, es la evolución a partir de la democratización
de la impresión 3D, cuando se libera y se hace abierta,
y ahí aparece el movimiento maker.
Es el que retoma el testigo de ese movimiento
de "do it yourself", "hazlo tú mismo".
Llega a niveles insospechados porque el hardware libre es caro.
Es caro. Nadie o muy poca gente sabe
soldar en condiciones, ya si hablamos de forjar o
modelar o fresar piezas de metal,
y la aparición de estos materiales artificiales
que se pueden imprimir en impresoras 3D
ha facilitado que el movimiento maker crezca,
esté en una etapa muy madura, tan madura que hoy por hoy se
construyen más sistemas de ortopedia
infantil gracias al hardware libre
que a las propias aseguradoras de salud
o a los propios hospitales. Por ejemplo, autofabricantes.org
es una comunidad en la que se comparten,
se planifican y se diseñan ortopedias para niños
y es todo libre. Todo el mundo puede colaborar.
Incluso también los propios hospitales
que a vez usan más impresoras de este tipo para muchos fines.
Tened en cuenta que, por ejemplo,
una ortopedia de una mano mecánica, no electrónica,
pongamos que un niño es mejor que lleve una ortopedia mecánica
frente a una electrónica. La fabricación de esa mano,
gracias a tecnología libre, viéndote a materiales caros,
resistentes a temperaturas y demás,
nos podemos ir a la friolera de 45 euros.
Si te bajas a una ortopedia oficial,
privativa y demás, por debajo de los 750 euros en
Europa, no bajas.
En Estados Unidos nos podemos ir a los 3.000, 5.000 dólares.
Si te pones de 5 euros, ni te abres la puerta.
Y también para más casos. Por ejemplo, yo tengo un
compañero que es veterinario y hace operaciones, y él
muchas veces, para estudiar el animal,
hace el hueso, el músculo que tiene que operar,
lo hace en 3D y así consigue estudiarlo mejor,
sin que el animal sufra, y después lo opere.
También hay una gran parte de lo que se llama la precirugía
o planificación quirúrgica, en la que se simulan,
que ahí el gran competidor es el tema que hablamos antes,
de la visión de la realidad virtual.
Pero vamos a centrarnos en este hardware libre,
en esta mecatrónica, en la que grandes adalides,
como la gente de Raspberry Pi, o de Arduino,
han apoyado mucho a que esa mecánica,
esa impresión 3D, sea articulable, sea manipulable,
y sea cada vez más inteligente. Porque la impresión 3D,
sin esa parte de software y de esa parte de articulación
que proporciona Arduino y Raspberry Pi,
no podría competir con grandes fabricantes privativos.
Y gracias a soluciones de Arduino,
se consiguen cosas como, por ejemplo,
seguir y planificar la supervivencia
del lince ibérico en España, o controlar la migración de aves,
o cosas tan increíbles como el control doméstico
de una residencia de ancianos en Serbia o Croacia.
Y todo con tecnologías libres, muy baratas,
y no olvidemos la parte de accesibilidad.
Al ser libres, son muy adaptables, muy modificables,
y muy mejorables por la comunidad.
Habiendo comunidad, aparece la posibilidad de dar feedback
que proporcione esa experiencia de "oye,
necesitamos accesibilidad". Por ejemplo, la impresión 3D,
por comentarte, dentro de la comunidad
de personas ciegas, se utiliza mucho para
la reproducción de objetos que nos permitan
a personas ciegas entender cómo es un objeto que no se
puede apreciar bien con el tacto. Por
ejemplo, cómo es el Taj Mahal,
o el edificio Chrysler, o, por ejemplo, cómo es
simplemente la ecografía de un feto
dentro del vientre de su madre. Una madre que
sea ciega quiere ver a su hijo, lo mismo que cualquier madre
sin discapacidad visual, a través de impresión 3D
y de forma muy barata, se puede hacer
una reproducción en relieve de esa ecografía.
Y a veces tampoco es necesario elaborar elementos
que tengan una complejidad muy grande,
porque TAIS, otra compañera de este programa, está en un
grupo en el que ayudan también a
personas con problemas de discapacidad
y accesibilidad, haciendo a veces
cosas con estas impresoras 3D muy básicas,
pero que para estas personas les resuelven
problemas del día a día. No sé, por ejemplo,
a la hora de comer o a la hora de
interactuar con cualquier objeto,
algún utensilio que se fabrica con estas
impresoras pueden ayudar a cierto
tipo de personas con alguna discapacidad motriz.
Claro, ahí está el tema de lo que
se llama los congresos de bajo coste, como suelen realizarse
en Albacete una vez al año, donde
con soluciones libres diseñan y fabrican objetos
como, por ejemplo, una pinza muy larga para gente que
no se pueda agachar, o gente que
está en silla de ruedas y no tiene
movilidad en la cintura, o enhebradores, dirás tú, ¿enhebradores
de agujas? No, por ejemplo, enhebradores para poder meter tu brazo
en el hueco de la manga de la chaqueta. Hay
gente que no tiene movilidad ninguna y le
den un brazo y en el otro no. Todo
tipo de dispositivos, artilugios,
objetos, pulsadores, por ejemplo,
un pulsador oficial, un pulsador, para que la gente
lo entienda, es el típico timbre de mesa
que se utiliza en los concursos de la tele para decir
"yo lo sé", pues eso para personas con
muy poca movilidad, gracias a un poquito de Arduino y
¿qué te digo yo? dos CDs de estos de grabar viejos,
pues puedes convertirlo en un pulsador
con un pequeño circuito que cierre la corriente
y mande el click al software. Pues todo
esto, movimiento maker, movimiento bajo coste
y tecnología libre. La verdad que sirve también
para retroalimentar a la industria, tanto la privada como
la comunidad científica y de universidades
para entender qué es lo que necesita la gente, incluso
aprender con una tecnología que se pensaba
para un uso, se descubren muchísimos más usos y muchísimas
más posibilidades. Y espero que en estos años futuros,
gracias a la IA también, pues esa
gente sea capaz de realizar, incluso
en sus casas, teniendo una máquina de
impresión de estas 3D, algunos elementos
sin tener conocimientos ni de ingeniería
ni de 3D, ni nada de nada. Hombre, te puedo decir que
esta gente de autofabricantes.org o varias gentes del movimiento
maker están enseñando a módulos
de inteligencia artificial a diseñar cosas y
estos módulos de inteligencia artificial
o sistemas de conocimiento para inteligencia artificial
están mejorando diseños ya existentes
en las comunidades donde se comparten y, por ejemplo,
enfocados para ahorrar material de impresión
o para reforzar la dureza o la sostenibilidad
o incluso están apareciendo comunidades
de hardware libre que crean comunidades
ecológicamente sostenibles gracias a esta
unión del hardware libre y la inteligencia
artificial porque están aprendiendo a que
sistemas de riego, control de la luz, todo tema
de domótica para el exterior, no sólo
para el interior de los edificios, se gestionen
mediante una IA para hacerlo lo más económico y lo más
ecológico posible. Sí, incluso
también algunas de estas máquinas de impresión
3D, muchos algoritmos que tienen de
control para que la precisión de la pasta que
ponen sea más precisa, pues también
ya incorporan IA porque el mayor problema de las máquinas
pequeñitas es que las vibraciones, el
movimiento del brazo, hace que a veces no sean
todo lo precisas que deberían ser y
gracias a estos algoritmos, pues consiguen
que ese chorro de líquido que van echando, que sea más
preciso. También hay un tema
de mejora de la usabilidad de estas propias impresoras, por
ejemplo Prusa en las últimas versiones
ya está metiendo sistemas de autogestión y automantenimiento
que por ejemplo para las personas ciegas
no vienen muy bien porque procesos de
calibración de la boca o control
para cuando se atasca, pues para una persona ciega es
bastante complicado, pues ya se están incorporando
las últimas versiones de Prusa sistemas para tanto
detectarlos como para resolverlos. Yo no quiero plantear aquí un
futuro apocalíptico, pero estamos hablando
que ya las máquinas se están construyendo a sí mismas.
Bueno, yo te digo una cosa, teniendo en cuenta
que si las máquinas se construyen a sí mismas para ayudarnos a
las personas bienvenidas sean. El tema
es siempre meterle un sistema de
apoptosis, o sea de cuando haya demasiadas
máquinas que no sigan construyéndose. Tener siempre una salida para
ese bucle. Yo siempre digo
que los cuchillos no matan, los que matan son las personas
que empuñan a los cuchillos. La tecnología
nos está ofreciendo muchas oportunidades y
visto que la sociedad habla de inclusión y de accesibilidad
cuando es campaña electoral o cuando tienen que cumplir una
responsabilidad social corporativa,
la tecnología cada vez sí va siendo más responsable
socialmente y va siendo más inclusiva.
Así que yo sigo apostando por un mundo más
tecnificado y más social. Jonathan, me quedo con las ganas
de preguntarte ¿qué te gustaría ver estos
próximos diez años? ¿Algún avance, elemento
que en tu día a día, por ejemplo, te ayudara
a tener una mejor vida? Dos elementos.
Hay un tema para las personas con dependencia o movilidad
reducida, como puede ser una persona ciega de
rueda o con muy poca movilidad o incluso
una persona ciega que necesita asistencia
para moverse de forma segura y autónoma
que sería un asistente personal, llámalo robot, llámalo
androide, llámalo perro robot, llámalo wearable con
inteligencia. Lo suficiente para
que una persona ciega no tenga porqué
salir con un bastón o un perro guía
o una persona en silla de ruedas con tetraplejias pueda vivir
sola sin necesidad de otra persona.
¿Por qué? Porque aunque normalmente
tenemos personas que nos ayuden con
el continuo trato, con la continua
dependencia, con el continuo proceso de
necesitar asistencia, solicitarla pues las personas nos enfadamos,
tenemos malos rollos, hay sancio social, pero un
robot, un androide, un asistente artificial
no se cansa, siempre está pendiente entonces eso sí garantizaría
una autonomía plena de personas con dependencia.
Y lo segundo pues sería inteligencia artificial
útil en tiempo real para ciertos procesos
que por dejadez o desconocimiento
las personas encargadas de diseñar y desarrollar productos y
servicios no solucionan. O sea, un
petito grillo de "oye, no publica esta
página web" o "ya que has publicado
la página web te la voy a arreglar". Un secretario 2.0
estás diciendo. Pero tecnológicamente
o sea, socialmente responsable con temas de accesibilidad
es posible pero todavía la inteligencia artificial es
más tonta. Yo la parte de la ética y la
filosofía de momento no la veo demasiado
implementada en la IA pero bueno.
No, queda mucho, queda mucho. Además hay
una pelea bastante importante entre los ingenieros,
entre los que me incluyo, los éticos
y los filósofos y los sociólogos. O sea, hay
cuatro bandos y no te he dicho los políticos, que es el
bando que más miedo me da y todavía no ha entrado
en lisa. Ahí también te faltaría
meter a los empresarios que son los que toman a veces
la decisión final. Sí, pero los empresarios en
realidad van a ver los resultados de eso y van
a ver cómo pueden explotar, evitar las leyes
o aprovechar las leyes para sacar
una venta. El empresario, el objetivo
de una empresa es siempre ganar dinero.
Su punto de vista está claro. Buscar un
hueco de mercado y llenarlo con sus productos y servicios.
El problema es, por ejemplo, cuando la ética,
que es muy necesaria a la hora de
regular ciertas tecnologías
que pueden implicar un daño a la
humanidad importante, por ejemplo, energía nuclear,
acción de material radiactivo, el uso
o posesión de armas de destrucción masiva, bla, bla, bla.
Están reguladas. El problema es cuando unos respetan esas
normas y otros no. Y tenemos lo que pasa,
que en Europa no se producen armas de destrucción masiva,
pero en otros países sí. Y entonces la inteligencia
artificial es el problema de, vamos a
retrasar el desarrollo de la inteligencia artificial
para pensar y demás y otros no lo van a hacer.
Y vamos a hablar, claro, hemos vuelto al año 39-40
con esta batalla por ver quién consigue
el agua pesada para esa energía nuclear.
Bien para alimentar la energía que necesitan las ciudades o
bien para fabricar armas. Pero
era una guerra, de tecnológica y de investigación. Pues
estamos en el mismo proceso y me da miedo porque
yo creo que ahora los gobiernos son mucho más
irresponsables que antes. Pues sí,
por desgracia, la casta política
a mejor no ha hecho. No, no. Pero bueno, hablemos de
tecnología, libertad y open source.
Comentar que hay una rama de la mecatrónica muy implicada
en la accesibilidad. Estamos hablando
del desarrollo no solo de ortopedias sino de sillas de ruedas cada
vez más efectivas o sillas de ruedas que suben
escaleras, de
rampas y ascensores amoldables y adaptables
a casi cualquier tipo de inmueble, elementos domóticos. Por
ejemplo, ahora que vemos esas persianas
de cierta tienda sueca de muebles
que están muy baratas. Eso gracias
a la mecatrónica libre y el open source
porque al disponer de diseños de circuitos y
mecanismos y de materiales más baratos
con que construirlos, tenemos que
la domótica se ha abaratado muchísimo. Tener una
persiana domotizada en el 2010
costaba una media de 1.100, 1.400 euros
por persiana. Ahora tienes una persiana por 100 euros.
Hasta aquí la sección de diseño para
todos. Muchas gracias Jonathan.


    

Este podcast tiene licencia Reconocimiento-CompartirIgual 4.0 Internacional (CC BY-SA 4.0).