martes, marzo 31, 2015

chismes, chismes, chismes...




Me voy a meter donde no me llaman, para variar, que no se diga que me da por modificar las malas costumbres.

¿Y donde no me llaman esta vez? pues aquí. Para quien le de pereza pinchar (a ese nivel hemos llegado con el progreso tecnológico, y pensar que antes nos documentábamos en archivos y bibliotecas...) es una noticia que habla sobre cómo un software super listo, creado por Israelíes super listos, detecta lo que piensa una persona y puede ser usado para evitar catástrofes como la de Germanwings (y pongo otro "pincha aquí" por si alguien ha vivido en una burbuja la última semana) o, en menor escala, para saber como van a actuar, por ejemplo, tus empleados y poder despedirles por anticipación.

Y yo no es que dude de la tecnología, que a veces también, si no que así al vuelo se me ocurren tantas variables por las que un software puede fallar en ese sentido. Se supone que el chisme en cuestión según tu voz determina tu estado de ánimo y, a partir de ahí, elucubra sobre si quieres o no asesinar a tu jefe. Es decir, ya no sólo va a elucubrar tu jefe si no que además sus elucubraciones van a venir secundadas por una maquinita. 

Como ejemplo el artículo dice que, en las declaraciones de Clinton, que se detectó estrés. Señores, yo y medio planeta sabíamos que tenía estrés y casi, casi le faltó llorar.

Pero digo, me genera dudas:

- Analiza la voz y la reconoce y de ahí sale una lista de posibles sospechosos. Ajá ¿Y los mudos no asesinan? ¿gente que no habla por si misma
- Te analiza porque te entrevistan y de ahí sacan algo parecido al nivel de estrés. Pero ¿no respondemos de forma distinta al estrés? ¿no hay quien se muestra seguro de sí mismo y quien titubea? ¿los que titubeamos somos asesinos potenciales?
-  Si tienes alguna enfermedad mental que te permite estar incorporado en el mundo laboral (llámese tumor o llámese esquizofrenia o trastorno bipolar) ¿no afectaría a esos resultados sin querer eso decir que aunque la persona no siga las pautas normales de comportamiento no implica que sea necesariamente un asesino?
- O peor ¿se dispone, a estas alturas del desarrollo, de una aplicación que sabe lo que sienten las personas y no se usa para ayudar en la mejora en trastornos psicológicos?
- Israel tiene un software que sabe como vas a actuar ¿entonces definitivamente podemos considerar que asesina a niños palestinos o se va a justificar diciendo que son futuros terroristas?

Si sigo seguro que me surgen más y más dudas, pero como el artículo en cuestión tampoco aclara mucho el funcionamiento del chisme no creo que sea lógico seguir con ello porque, al fin y al cabo, son elucubraciones (que si tuviera aquí un software os podría decir si mi intención al elucubrar es cometer un crimen o puro aburrimiento). 


No hay comentarios: