Plantilla de lo que hay que pedirle a un programador cuando promete algo

Creo que frustración es la palabra que más se aproxima a lo que la mayoría de las personas sienten cuando tratan con programadores. Frustración en el sentido de diferencia entre expectativas y realidad. Es este artículo sugiero una plantilla con una serie de puntos que pedirle a un programador que se supone que va a entregar algo, para evitar malentendidos. Hay cosas que hay que pedirle antes de que empiece el trabajo y otras después. No entraré en metodología de seguimiento de proyecto, sólo en la documentación que debe se debe exigir.

Antes de la entrega

1 Identificación de la tarea

Debería incluir cómo mínimo:

  • tipo de tarea, si es una mejora, corregir un error o cambiar algo que ya existe
  • número de referencia único para trazar cada tarea
  • números de referencia de tareas relacionadas
  • la versión del programa sobre la que se realizarán los cambios

2 Descripción de la funcionalidad

La descripción de la funcionaldiad deseada es teóricamente responsabilidad del analista funcional, o del cliente, pero nunca hay que dejar que una persona sin conocimientos técnicos diseñe en solitario una funcionalidad.

En la redacción de especificaciones existe una jerga de moda que es cómo en este ejemplo:

Cómo administrador de la trastienda u operador de la trastienda con permiso de modificar pedidos quiero que el formulario de edición de pedido me permita modificar la cantidad de items en una línea del pedido siempre y cuando el pedido no haya sido ya empaquetado para su envío de manera que el cliente pueda hacer cambios de último minuto llamando por teléfono si se ha equivocado en un pedido.

Nótese que la especificación del requerimiento contiene:

  • el actor (administrador u operador con privilegios).
  • lo que se pide (modificar la cantidad de ítems).
  • los prerrequisitos (que el pedido no haya sido empaquetado).
  • lo que se pretende conseguir con el cambio.

La descripción debe ser tan detallada cómo sea posible, incluyendo, si procede:

  • diagramas de flujos de datos
  • diagramas de transiciones de estado
  • diagramas de procesos de negocio
  • wireframes o mock ups de las pantallas

La descripción debe incluir también una explicación paso a paso de cómo reproducir el error, si es un error, o de cómo se espera que el usuario utilice la funcionalidad incluyendo requerimientos de accesibilidad.

3 Criterio de aceptación

Aquí se especifica qué comportamiento debe exhibir el software entregado para que sea aceptable como solución al problema planteado.

Siguiendo con el ejemplo anterior el criterio de aceptación podría ser:

1. Entrar en la trastienda y buscar un pedido.
2. Acceder al formulario de edición de pedido.
3. Si el pedido ya ha sido empaquetado para envío o ha sido cancelado entonces no es posible modificar la cantidad de ítems en cada línea.
4. Si el pedido no ha sido aún empaquetado para envío entonces aparecerá un botón [Editar Cantidades] que permitirá cambiar la cantidad de ítems en cada línea.
5. Cuando se cambia la cantidad el precio varía de forma acorde.
6. No es posible especificar cantidades por encima del stock disponible.
7. Si una cantidad se pone a cero entonces la línea de pedido desaparecerá cuando se grabe el pedido.

Es posible y deseable añadir también requerimientos no funcionales. Típicamente estos son el tiempo máximo que una transacción puede durar y cuántas transacciones concurrentes debe ser capaz de atender el sistema sin sobrepasar el tiempo máximo de servicio.

4 Finalidad y principios

Aquí se explica el propósito último del cambio. Por ejemplo, si se trata de mejorar la experiencia del cliente priorizando la consistencia del interfaz sobre su simplicidad. O si es un cambio puramente técnico cual es el compromiso entre velocidad y uso de memoria.

5 Cambios en el modelo de datos

De manera que se pueda saber fácilmente qué nueva información estará disponible para explotación o qué otros sistemas habría que modificar al ser afectados por un cambio en el modelo de datos.

6 Consideraciones de diseño técnico

  • Listado de asunciones y dependencias.
  • Referencias a documentación y notas de reuniones.
  • Descripción de las restricciones: throughput, latencia, ancho de banda, integridad de datos, seguridad…
  • Si se está desarrollando un API o servicio, documentación estructurada tipo JavaDoc o Swagger.

7 Notas de implementación

En ellas se enumeran las partes del software que serán creadas o modificadas con una descripción de los cambios a realizar en cada parte.

8 Interfaces

Listado de los sistemas con los que se comunica el software a modificar y cómo se interactúa con dichos sistemas.

9 Plan de pruebas

Las pruebas son resumidamente de cuatro tipos:

  1. Pruebas unitarias
  2. Pruebas de integración
  3. Pruebas de rendimiento
  4. Pruebas de seguridad

10 Plan de despliegue

Dónde se instalará el nuevo sóftware, en que máquinas y entornos.

Si la funcionalidad requiere cambios en la configuración, cómo instalar un certificado digital, abrir un puerto en el firewall, instalar una librería, etc.13 Documentación
Cómo mínimo el manual de usuario y la guía de operación.

11 Estimación de esfuerzo y plazos de entrega

Cuántas horas/hombre costará el desarrollo. Cómo se encajan dichas horas/hombre en un calendario.

Después de la entrega

11 Evidencias

Cuando esté desarrollado el software, videos o capturas de pantalla que muestren su funcionamiento.

12 Bitácora de trabajo

Donde figuran las horas empleadas en cada tarea con fines de contabilidad analítica y mejora de las estimaciones en futuros desarrollos.

13 Resultados de las pruebas

Explicando qué se ha probado, con cuántos usuarios y datos se hicieron las pruebas de carga y sobre qué hardware.

También cómo se hizo el análisis de vulnerabilidades de seguridad y se se encontró alguna.

Post relacionado: Cómo estimar el esfuerzo en desarrollo de software

Compartir:
  • Twitter
  • Meneame
  • Facebook
  • Google Bookmarks
Publicado en Organizando la Comunidad. Modelos de Desarrollo | Deja un comentario

Cómo motivar a un equipo en situaciones difíciles

A lo largo de las últimas décacas, he conocido a personas extraordinarias en el ámbito laboral. También he conocido a no pocas que presumían de ser excelentes gestoras de equipos. Muchas de estas, en mi humilde opinión, ni tenían suficientes competencias técnicas ni entendían nada de nada sobre lo que motiva a la gente en realidad. En este artículo explico las razones. No me las he inventado yo, sino que se basan en los hallazgos de quienes, habiendo pensado profundamente sobre el tema, llegaron a conclusiones sólidas sobre la motivación basadas en hechos empíricos. En el razonamiento mezclo muchas cosas debido, a que considero que el comportamiento de una persona es inherentemente complejo y casi nunca se puede explicar de un modo simple atribuyéndolo a uno o dos factores.

Ese jefe impopular

Antes de empezar con la crítica mordaz, he de reconocer que las políticas de recursos humanos han progresado mucho desde la era del vetusto departamento de personal. Hay personas competentes que de veras se preocupan por la gente en todos los departamentos y que tienen un interés sincero por el bienestar social y laboral. Sería muy injusto que esas personas se sintiesen aludidas aquí. Pero este artículo va de invitar a reflexionar a los que no están en el grupo anterior, ergo empecemos.

La mayoría de los gerentes de proyecto piensan que gestionar consiste en hacer listas de cosas y apretar. Presumen de tenerlo todo bajo control, lo cual es un eufemismo para describir su microgerencia paranóica. Ven a la gente cómo vaga y torpe por naturaleza. Y, cómo ellos mismos están motivados casi exclusivamente por el dinero y el poder, creen que a todo el mundo le motiva lo mismo. Creen que gestionar es patear culos y que «trabajo en equipo» significa un montón de gente haciendo lo que yo digo.

Pero para hacer una lista de cosas y estar todo el día pendiente de ella vale casi cualquiera. Y el caso es que, en sus inicios, los regímenes policiales cómo la Gestapo o la Lubianka parecen funcionar muy bien. El miedo mantiene los trabajadores en tensión y al principio la productividad aumenta. Todo el mundo está muy contento de que haya un líder firme para poner orden. No obstante, tal ambiente laboral es insostenible a largo plazo. A la postre, los bullies policiales se van quedando sólos y aislados debido a que todos los que podían cuestionarles bien han dimitido bien han sido enviados a un gulag siberiano. Con el paso del tiempo, cada vez se necesita más gente para completar las mismas tareas debido a la desgana y la desmotivación, a la vez que se mata la posibilidad de aportar ninguna innovación pues podría suponer un riesgo o alterar el status quo. Todo esto resulta letal para la motivación y termina sólo de una forma: con un montón de gente quemada. Aunque a fin de cuentas muchos grandes logros de la Humanidad se han alzcanzado sobre los hombros de sacrificios personales.

De dónde surge la motivación de una persona

Existen varias teorías simplificadoras sobre la motivación humana. Me gustaría que fuese factible aceptar alguna de ellas cómo verdadera pero la realidad es que la psicología humana no puede resumirse en un modelo rudimentario.

Sin embargo, para que se pueda trabajar a efectos prácticos con la motivación, aquí me voy a centrar en seis aspectos clave:

1. La ilusión.
2. Los factores higiénicos y motivadores.
3. Lo que a porta a cada cual valor cómo persona.
4. Los incentivos externos versus internos y cuándo usar cada uno de ellos.
5. El ciclo de refuerzo positivo.
6. La presión grupal.

La ilusión

Se puede vivir prácticamente sin ninguna cosa excepto sin ilusión. Cuando las personas pierden la iusión, pierden la motivación. Es por la necesiad de ilusionarse que los líderes visionarios consiguen que mucha gente les siga en la creencia de que se dirigen hacia alguna parte. Peligrosamente cerca de la ilusión está el iluso, quien puede arruinar su vida en la vana ilusión de algo que es imposible que suceda.

Factores higiénicos y motivadores

Existen prerrequisitos que deben cumplirse antes de poder pensar en motivar a una persona. Los psicólogos los llaman factores higiénicos del trabajo. Es sencillo de entender, una persona no puede sentirse motivada si es obligada a sentarse en una silla rota dentro de un zulo mal iluminado doce horas al día. Esto parece obvio, pero es increíble el número de empresas donde los factores higiénicos no existen. He trabajado en sitios donde los trabajadores tenían que rellenar las botellas de agua en los lavabos obligándoles, poco más o menos, a beber agua del water. He trabajado en sitios donde los programadores carecían de pantallas y el vocerío de la zona abierta era tan grande que resultaba imposible hablar por Skype.

La fuente de valor de cada persona

Una de mis citas favoritas de Bertrand Russell es que «cada uno es feliz cuando realiza la actividad que le es propia». Esto quiere decir que algunos son felices entrenando para olímpicos, otros opositando a astronautas, dando sermones en la iglesia, criando hijos o cuidando del jardín. Lo importante es que la persona que realiza la actividad sienta que su ejercicio le aporta algo a sí misma y al resto del mundo.

En mi opinión, la metodología más eficaz para investigar la fuente de valor de una persona es el eneagrama. Existe mucha documentación en Internet sobre el eneagrama y es un poco largo de explicar, de modo que no me extenderé aquí demasiado sino que me lo llevaré a un apéndice. Lo relevante es que algunas personas están orientadas a obtener el poder, otras buscan fama y reconocimiento público, otras se sienten bien cuando alcanzan logros técnicos, otras se dedican a ayudar a los demás a obtener los logros, etc. Cómo lo que desea cada persona es diferente, la fuente de motivación es única y personal para cada individuo. Además, incluso para una misma persona, su fuente de motivación cambia en función del momento vital en el que se encuentre y de si se encuentra en una fase de relajación creativa o sometida a extrema presión.

Los incentivos externos e internos

Todas las personas necesitan para empezar un salario aceptable para sentirse a gusto en el trabajo. Entonces, a partir de cierto umbral de ingresos lo que realmente les motiva son otras cosas. Es más, los incentivos económicos excesivos son contraproducentes en algunos casos. Las razones por la que el dinero puede tener el efecto contrario del previsto en la productividad son:

1ª) El dinero desvía el foco de atención del trabajador desde la recompensa intrínseca del trabajo bien hecho a la recompensa extrínseca del dinero.

2ª) La existencia de una bonificación económica induce al trabajador a pensar que sólo tiene que hacer lo necesario para conseguir el bono, y nada más.

Cuando se trata de llevar a cabo tareas rutinarias y bien definidas, entonces el dinero tiene el efecto de aumentar la productividad. Creo que fué a Diego Mariño a quién le escuché decir en una ocasión que los comerciales en Silicon Valley son «coin operated» refiriéndose a que sólo se dedicarían a vender bajo un flujo constante de incentivos económicos, porque, en el fondo, un comercial es una persona que está motivada casi exclusivamente por el dinero. Sin embargo, cuando la tarea a completar no está bien definida y requiere de innovación y creatividad, los bonos pueden ser de poca o nula ayuda. Un caso famoso fué cuando en Google alguien tuvo la feliz idea de ligar algo así cómo el 30% de la retribución variable de toda la empresa al éxito de Google+ frente a Facebook. Entonces los empleados de Google empezaron a hacer cosas no para que Google+ encontrase su propio segmento de mercado sino para crecer en número de usuarios a toda costa, aunque dichos usuarios en realidad no entrasen nunca en Google+.

Hay dos excepciones al uso de los bonos económicos en tareas creativas. La primera excepción es cuando el bono se otorga después de completar la tarea sin que estuviese previamente pactado y a modo de recompensa puntual excepcional. Esto es una solución de compromiso entre intentar que se sientan motivados a dedicar largas horas de trabajo por el incentivo del logro y que a posteriori puedan compensar a su cónyuge con algo dorado por las horas que no pasaron en casa. La segunda excepción es cuando el bono es tan grande cómo para hacerle creer al trabajador que cambiará su vida. Típicamente se materializa en la clásica oferta de opciones sobre acciones. El trabajado debe desembolsar, por ejemplo, 20.000 euros de su bolsillo, para comprar unas acciones presuntamente a precio de ganga que (le dicen) se espera que multipliquen su valor por veinte en cuatro años. Yo he visto personas soportar durante años con cara de felicidad un ambiente laboral repugnante en la esperanza de que las acciones les pagarían la hipoteca, un cochazo y aún les sobraría para unas vacaciones en el Caribe.

Finalmente, hay bastante gente que destesta su trabajo, y yo les entiendo, porque muchos trabajos apestan, y para esa gente el único factor motivador es el dinero.

El ciclo de refuerzo positivo

Cada actividad necesita tener un mecanismo de recompensa a corto plazo aunque la recompensa sea pequeña. Las personas necesitan feedback positivo sobre su progreso para sentirse motivadas a continuar. El psicólogo que mejor ha explicado esto es Mihaly Csikszentmihalyi en su libro «Flow».

La presión grupal

La aceptación social es una de las necesidades más profundas de todos los seres humanos. Esta presión grupal puede utilizarse muy efizcamente cómo método de motivación forzosa. En la I Guerra Mundial se determinó que un porcentaje no pequeño de soldados de reemplazo evitaban disparar en las trincheras. Por motivos pacifistas, por miedo, o por la razón que fuera, el caso es que el capitán de una compañía no quiere ver mermada en un 10% su potencia de fuego porque algunos no aprietan el gatillo. Lo que se descubrió es que la forma más efectiva de conseguir que todos disparasen no era hablarles de las malas consecuencias para ellos mismos de no hacerlo sino de las malas consecuencias para sus compañeros. Les obligaban a hacer cosas cómo cavar una tumba para un compañero caído o escribir una carta de pésame a su viuda.

Trasladado al momento actual y al entorno laboral, la presión grupal es el fundamento de la infame jornada china 996, de nueve de la mañana a nueve de la noche seis días en semana. Se empieza dándole a unos pocos tareas que seguro que no podrán completar en ocho horas, estos empiezan a quedarse más tiempo en la oficina. Luego se les recompensa un poco, aunque no mucho. Y lentamente todo el mundo se siente presionado por sus propios compañeros para trabajar cómo si estuviese pegado a la silla con una grapadora, aunque ninguno quiere realmente hacerlo. La técnica realmente funciona, mas no puedo evitar decir que hace falta ser una porquería de ser humano para emplearla sistemáticamente.

Una forma más benigna de motivación grupal es el sentimiento de pertenencia a una unidad de élite. Hay muchos experimentos que demuestran cómo segregar a un grupo y decirles que son mejores (aunque no lo sean en absoluto) les impulsa a convertirse realmente en los mejores. La existencia de un desafío espolea a las personas a dar lo mejor de sí mismas. Sólo hay una pega: en un grupo de alto rendimiento hay poco espacio para la compasión o la beneficencia. Al que no alcanza el nivel, le echan del grupo, sin importar los motivos. Esto puede provocar que los miembros del grupo se vuelvan paranóicos y dejen de colaborar temerosos de quién podría ser el próximo en caer. Tampoco es lugar para personas que buscan la conciliación entre la vida personal y la laboral pues a estos la falta de balance, a la larga, les pasa factura.

Delegar versus Dirigir

Las corrientes ideológicas más cool y molonas sobre cómo aumentar la productividad de los empleados defienden que los jefes deberían ser más bien cómo consejeros que cómo  dictadores. Promulgan que se le diga a la gente lo que se quiere conseguir, pero nó cómo deben hacer su trabajo. Recomiendan que se conceda a los trabajadores la máxima autonomía posible sobre su tiempo, sus tareas, sus métodos y su equipo. Se fundamentan en el lema «contrata a personas más inteligentes que tú y déjales trabajar».

Lo anterior es factible sólo en determinadas ocasiones. En muchas otras puede conducir a un desastre.

Para empezar, puede que las personas más inteligentes que tú no quieran trabajar contigo ¿por qué habrían de trabajar con un zotes cómo tú por jefe?

En segundo lugar puede que no tengas el bolsillo lo bastante profundo para contratar a los mejores, que suelen ser escandalósamente caros.

En tercer lugar la autonomía de métodos y tiempos sólo funciona si existen dos requisitos previos: 1º) los empleados son todos los suficientemente experimentados y 2º) existen herramientas y protocolos eficaces de comunicación horizontal entre los empleados (no me refiero a que se acuesten entre ellos, aunque eso también mejora la comunicación, por cierto). Si el personal es inexperto, dejarles a su libre albedrío sólo puede resultar en un desastre. De hecho uno de los hundeproyectos más peligrosos es el novato proactivo quien, a pesar de recibir instrucciones muy claras sobre lo que debe hacer y cómo hacerlo, decide que él tiene una idea mejor y se pone a hacer otra cosa de forma diferente sin tener ni puta idea de por qué no se hacen las cosas así en base a la experiencia histórica. A ningún soldado veterano le gusta que le digan dónde debe de ponerse en el campo de batalla para que le vuelen el culo, pero un novato teme hasta la muerte quedarse sólo en medio de un tiroteo sin nadie que le diga lo que tiene que hacer, y al novato que no  hace caso de las órdenes le convierten rápidamente en un bocadillo de carne picada.

Por último, la autonomía para elegir cuándo y desde dónde trabajar, la forma de hacerlo e incluso la elección de objetivos debe estar acompañada de una estructura de soporte a las tareas contextuales. Cuando las personas tienen libertad total tienden a desdeñar la burocracia y los procedimientos en favor de tareas creativas. En el ejército, por ejemplo, los soldados de élite están rebajados de tareas de cocina las cuales les distraerían de su foco principal  pero todavía necesitan comer a diario y es por eso que junto a cada compañía de soldados de élite hay otra compañía de servicios.

Tareas intrínsecamente aburridas o peligrosas

Algunas tareas necesarias son incuestionablemente aburridas o peligrosas. En estos casos  lo mejor, y lo éticamente correcto, es ser sincero con la persona que tendrá que desempeñarlas. Reconociendo que la tarea no es nada excitante. Si se le va a dar mierda a alguien, al menos hay que tener la cortesía de no dársela envuelta en papel de regalo. También hay que ofrecer una explicación racional sobre por qué la tarea es necesaria. Fué en una biografía del caudillo Francisco Franco Bahamonde donde leí que se le atribuía la frase «la vida no tiene sentido si no es para quemarla en una gran causa». Algunos compran este lema y pueden formar un grupo extraordinariamente eficaz (Jesucristo empezó con 12 followers fanáticos).

La gestión de crisis

Es sorprendente lo rápido que puede deteriorarse el ambiente laboral en una empresa. Sucedió en Microsoft y está sucediendo en el presente en Facebook. En ambos casos hubo una combinación de dos factores: 1º) el crecimiento de la empresa se estancó y, por consiguiente, su valor en bolsa y el valor de las stock options, y 2º) la empresa empezó a ser percibida cómo algo perverso y demoníaco. En esos casos los empleados pierden rápidamente la fé y es probable que se produzca una estampida justo en el momento más inoportuno.

No conozco ninguna fórmula magistrar para sortear las turbulencias que acarrea un fracaso o un escándolo de relaciones públicas. La gente detesta que le mientan, pero los mismos que odian la mentira con frecuencia no están preparados para oir la verdad. Son cómo si tu padre te dijese que si dependiese de él quemaría vivos en una hoguera a todos los gays y luego te preguntase por tu orientación sexual.

Nada puede reemplazar a los valores auténticos y genuinos, aunque, por desgracia, raramente se encuentra el coraje necesario para aplicar esos valores hasta sus últimas consecuencias en las empresas.

Los gestores de equipo mediocres tienen sólo un modo de actuación: bien son microgerentes todo el tiempo, bien delegan y son incapaces de entrar en detalles. La habilidad para alternar entre ambos modos de funcionamiento es una de las clave de los mejores jefes. En situaciones normales dejan que la gente trabaje a su aire y no inmiscuyen para evitar disrupciones en el trabajo. Pero si la cosa se pone fea son capaces de ocuparse personalmente de todo aquello que esté sobrepasando a los subordinados en un momento puntual.

En los peores momentos, mantener bajo control a los elementos subversivos, reconocer los errores, pivotar en la visión y proponerle a la gente un nuevo plan basado en la honestidad es lo mejor aunque no siempre lo más factible.

Conclusión

  1. Ofrecer una visión a los trabajadores. Si quieres que la gente te siga para empezar debes estar dirigiéndote hacia alguna parte.
  2. Explicar por qué las tareas desagradables son necesarias.
  3. Usar el dinero con moderación cómo fuente de incentivo.
  4. Acompañar la otorgación de autonomía con apoyo y control para seguir los procedimientos imprescindibles.
  5. Decirle a la gente con frecuencia lo que hace bien y ayudarles a mejorar en lo que no hacen bien sin avergonzarles públicamente.
  6. Utilizar el grupo cómo fuente de soporte e inspiración para los individuos.

Apéndice. Los eneatipos.

El eneagrama está basado los siete pecados capitales del catolicismo:  ira, avaricia, orgullo, lujuria, gula, envidia y pereza; a los cuales se añadieron dos más: miedo y vanidad. Para cada pasión hay un eneatipo característico numerados del 1 al 9. Cada eneatipo tiene una motivación principal. Además, cuando un eneatipo se siente relajado adquiere características de otro eneatipo y cuando se siente stressado tiene a parecerse a un tercer eneatipo.

Eneatipo 1. El iracundo.

La motivación principal del iracundo es el perfeccionismo. Su virtud cuando están calmados es la serenidad. Buscan la perfección y hablan de forma hipócrita en términos de lo que esta bien y lo que esta mal sin medias tintas, ellos lo tienen claro. Fácilmente transforman su ira en normas, leyes y resentimiento. Su miedo principal es que les pillen siendo malos. Cuando se sienten seguros tienden hacia el entusiasmo del eneatipo 7 y cuando se sienten amenazados tienden hacia el indivicualismo del eneatipo 4.

Eneatipo 2. El orgulloso.

La motivación principal del orgulloso es ayudar y dar a los demás. Sus virtudes cuando están calmados son la humildad  y el desapego. Buscan seducir para sentir que el otro los necesita. Dan y ayudan fingiendo no esperar nada a cambio pero precisan agradecimiento y tienen poca tolerancia al rechazo. Su miedo principal es que no les quieran. Cuando se sienten seguros tienden hacia la ecuanimidad del eneatipo 4 y cuando se sienten amenazados tienden hacia la fuerza y la venganza del eneatipo 8.

Eneatipo 3. El vanidoso.

La motivación principal del vanidoso es la imagen que proyectan de sí mismos en los demás. Es por esto que pueden llegar a ser muy mentirosos. Sus virtudes principales son la identificación con el trabajo que realizan y su eficacia. Pero en el fondo están desconectados de sí mismos. Buscan sentirse valorados. Su miedo principal es que no les valoren cómo los mejores. Cuando se sienten seguros tienden hacia la acción positiva y eficaz del eneatipo 9, cuando se sienten amenazados tienden hacia el miedo y la indecisión del eneatipo 6.

Eneatipo 4. El envidioso.

La motivación principal del envididioso es estar pendientes de los demás. Sus virtudes principales son la empatía y la equidad. Aunque creen que nunca tendrán aquello de lo que carecen. Pueden ser individualistas y melancólicos. Buscan ser únicos y especiales. Su miedo principal es convertirse en  irrelevantes. Cuando se sienten seguros tienden hacia la humildad y libertad de acción del eneatipo 2, cuando se sienten amenazados tienden hacia el resentimiento y la ira del eneatipo 1.

Eneatipo 5. El avaricioso.

La motivación principal del avaricioso es la autosuficiencia y la omnisciencia. Su virtud principal es el desapego. Buscan entender los conceptos y tener un entendimiento maestro. Su miedo principal es la incompetencia. Cuando se sienten seguros tienden hacia la inocencia y la protección paternal del eneatipo 8, cuando se sienten amenazados tienden hacia la acumulación egoista del eneatipo 7.

Eneatipo 6. El miedoso.

La motivación principal del miedoso es tener soporte y guía. Su virtud es la fé y lealtad. Buscan la autoridad y el poder al mismo tiempo que huyen de ello. Su miedo principal es encontrarse en los peores escenarios sin ayuda. Cuando se sienten seguros tienden hacia la acción calmada y eficaz del eneatipo 9, cuando se sienten amenazados tienden hacia la inseguridad y el sentimiento de inutilidad del eneatipo 3.

Eneatipo 7. El glotón.

La motivación principal del glotón es planificar y acumular experiencias. Sus virtudes principales son la capacidad para vivir el presente y el compromiso. Pero cómo no se quieren perder nada, profundizan poco. Buscan una vida llena de aventuras. Su miedo principal es el dolor y la deprivación. Cuando se sienten seguros tienden hacia la maestría y la observación del eneatipo 5, cuando se sienten amenazados tienden hacia el resentimiento y la ira del eneatipo 1.

Eneatipo 8. El vengador.

La motivación principal del vengador es la justicia. Su virtud principal es que son protectores y magnánimos y pueden actuar sin miedo. Dividen el mundo entre fuertes y débiles. Su fijación es la lujuria o el exceso; tienen gran autoconfianza. Buscan ser fuertes y prevalecer sobre las circunstancias. Su miedo principal es ser controlados, heridos o violados. Cuando se sienten seguros tienden hacia la ayuda desinteresada del eneatipo 2, cuando se sienten amenazados tienden hacia la avaricia del eneatipo 5.

Eneatipo 9. El perezoso.

La motivación principal del perezoso es la paz y la indolencia. Su virtud principal es la mediación para resolver conflictos plegándose a los demás si es necesario. Su adaptación para evitar el conflicto los aleja de sus deseos, gustos y necesidades. Se funden con el entorno y les cuesta mucho expresar sus necesidades. Buscan el amor y la paz de espíritu. Su miedo principal es la fragmentación social y la separación. Cuando se sienten seguros tienden hacia la acción con fé y corage eneatipo 6, cuando se sienten amenazados tienden hacia la mentira del eneatipo 3.

Referencias:
Eneagrama: ¿Qué es y cuáles son los 9 eneatipos? (Jordi Gil)
Enneagram of Personality (Wikipedia)

Compartir:
  • Twitter
  • Meneame
  • Facebook
  • Google Bookmarks
Publicado en Organizando la Comunidad. Modelos de Desarrollo | Deja un comentario

Cómo orquestar tu propio Chernobyl

El 26 de abril de 1986 se produjo una explosión que destruyó el reactor nuclear número 4 de tipo RBMK (Reaktor Bolshoy Moshchnosti Kanalnyy) en la central de Chernobyl. Recientemente, HBO ha puesto de moda el incidente con una miniserie. No voy a hacer aquí un spoiler de la serie ni a contar los hechos, ya que para eso es fácil recurrir a la página del accidente en Wikipedia o a libros como Midnight in Chernobyl o Chernobyl: The History of a Nuclear Catastrophe. Lo que voy explicar son los factores causantes de la catástrofe, aplicados como ejemplo al desarrollo de software, pero los principios subyacentes son los mismos para cualquier otra área de ingeniería.

Antes de empezar, conviene tener en cuenta el postulado fundamental de la teoría de desastres: si existe alguna posibilidad, por improbable que sea, de que suceda un desastre, entonces sucederá si se observa el sistema durante suficiente tiempo. Es por esto en parte que se ha paralizado en muchos países la construcción de centrales nucleares ya que, en el fondo, es imposible garantizar que nunca habrá ningún accidente.

No obstante lo anterior, hay formas de incrementar espectacularmente la probabilidad de un desastre, y voy a ellas.

Causa #1: La persona al mando no es quien debería ser.

La última palabra en decisiones operativas la tiene una persona que no comprende bien los fundamentos de la tecnología empleada. Además, está más preocupada por las implicaciones políticas del proyecto y por su propia carrera que por los daños que pudieren ser causados. También es posible que la persona responsable se encuentre demasiado cansada o ansiosa o distraída con otras cosas.

Causa #2: «Esto nunca ha pasado».

Otro principio aplicable a los desastres es que siempre son peores que el peor de los desastres anteriores. Hay dos razones posibles para ello, por la intensidad del suceso, o porque, en su ingenuidad, las personas a cargo piensan que el hecho de que algo no haya sucedido nunca en el pasado implica que nunca sucederá. Esto puede parecer un error de juicio muy tonto, pero, por ejemplo, existen emails de Mark Zuckerberg con el jefe de producto de Facebook en 2014 Sam Lessin en los que Zuckerberg cree imposible que suceda una fuga de datos como la que se produjo años después con el escándalo de Cambridge Analytica.

En general, soy escéptico de que haya tanto riesgo estratégico de fuga de datos como piensas. Estoy de acuerdo en que existe un claro riesgo en el lado del anunciante, pero no he descubierto cómo eso se conecta con el resto de la plataforma. Creo que filtramos información a los desarrolladores, pero no puedo pensar en ninguna instancia en la que los datos se hayan filtrado de un desarrollador a otro y nos hayan causado un problema real. ¿Tienes ejemplos de esto?

Causa #3: Las medidas de seguridad están por debajo del mínimo absoluto necesario.

En el caso de Chernobyl el edificio de contención estaba pésimamente fabricado con materiales de mala calidad. El tejado era débil y estaba fabricado con un material que no era ignífugo. Además faltaban barras de control en el núcleo del reactor.

En el caso de un proyecto software puede que la auditoría de seguridad contra intrusiones no se considere crítica o que nadie haya probado realmente a restaurar los backups.

Causa #4: Se ignoran pequeños defectos.

La investigación tras el desastre de Challenger en 1986 demostró que la causa de la explosión podía trazarse hasta unas juntas que no habían sido testeadas por debajo de 10 grados centígrados. Tanto la NASA cómo el proveedor de las juntas conocían el problema. Y los ingenieros advirtieron del peligro de programar el lanzamiento para un día de frío extraordinario.

En software, la dinámica es ignorar todo aquello que no está definitivamente roto. No se investigan los logs a menos que haya un reporte de error por parte de los usuarios. Se va posponiendo sine die el arreglo de partes potencialmente conflictivas. Los errores de redondeo y conversión de unidades han causado también algunos de los desastres de software más famosos.

Causa #5: Se presiona a los ingenieros para que se salten sus propios protocolos.

En el análisis de las causas del accidente fatal del vuelo 5022 de Spanair el 20 de agosto de 2008 se determinó que se produjo a una combinación de dos factores. Primero el sistema TOWS que alerta sobre la configuración inapropiada de los flaps estaba inoperante. El TOWS no es un sistema crítico (pequeño defecto). Además los pilotos omitieron la comprobación, probablemente porque el avión iba con más de una hora de retraso debido a un problema previo con la turbina de aire de impacto (RAT), otro pequeño defecto. El avión se estrelló porque intentó despegar con los flaps replegados.

Tras el accidente, y con los datos aportados por la CIAIAC, la Agencia Europea de Seguridad Aérea emitió la Directiva de Aeronavegabilidad AD 2008-0197, de fecha 29 de octubre de 2008, por la que se enmienda el manual de vuelo de los aviones del tipo DC-9 y MD, incorporando una comprobación obligatoria del TOWS antes del arranque de motores en cada vuelo.

En software, es tristemente habitual reducir o incluso prescindir de los tests. A veces doy una estimación de tiempo requerido y recibo la pregunta: «¿Y sin los unit tests cuanto tardarías?» ¡No! Idiota. Un entregable de software sin juego de pruebas es cómo un plato de bacalao con tomate, pero sin tomate y a veces incluso sin bacalao.

Causa #6: El sistema se somete a un stress inusual.

En el caso de Chernobyl la situación de stress fué que se decidió realizar una prueba tras un periodo en el cual la central había estado funcionando por debajo de su plena potencia, lo cual causa una acumulación indeseable de gas xenon y, además, de las treinta barras de control que el manual operativo del RBKM-1000 especificaba que debía haber cómo mínimo, habían sido retiradas todas menos seis.

En software las situaciones de stress se empiezan a producir aproximadamente cuando el sistema recibe una carga de trabajo que es 100 veces mayor de la normal. Aunque muchos sistemas fallan incluso antes con tan sólo 10 veces más carga de la normal.

Causa #7: Se acumula lentamente sobrecarga en el sistema.

Existe una página en Wikipedia con un listado de los puentes que se han caído desde 1800. En muchos casos el fallo estructural fué debido a una fatiga de materiales combinada con un peso puntual extraordinario sobre el puente (stress inusual).

En software es frecuente que las aplicación «pierdan» memoria con el paso del tiempo, y que se vaya agotando el espacio en disco o las conexiones disponibles contra la base de datos. Cuando se agota el pool de conexiones a la base datos todo el sistema deja de funcionar. Por separado, puede que todos los componentes estén bien: el servidor web, el servidor de aplicaciones y puede que hasta la propia base de datos, excepto porque no hay posibilidad de conectarse a ella.

Causa #8: Malentendidos y mala comunicación.

El peor accidente aéreo de toda la historia ocurrió el 27 de marzo de 1977 en el aeropuerto de Los Rodeos en Tenerife. Chocaron dos Boeing 747. El aeropuerto estaba saturado de tráfico debido a que un aviso de bomba en el aeropuerto de la cercana Gran Canaria había obligado a desviar vuelos a Los Rodeos. La causa fue que, en medio de una intensa niebla, el comandante de uno de los aviones estaba ansioso por despegar y recibió una comunicación: «you are clear» de la torre de control. Según las normas, el comandante debería haber esperado a recibir una segunda confirmación, pero sin esperarla se dirigió a la pista de despegue y aceleró encontrando en su camino al otro avión que iba camino de aparcar. Y hay otros muchos accidentes aéreos atribuidos a errores de comunicación: la colisión en pleno vuelo de Charkhi Dadri en 1996, el vuelo 152 de Garuda Indonesia Airlines en 1997, el vuelo 965 de American Airlines en 1995, el vuelo 182 de Pacific Southwest Airlines en 1978, el vuelo 1008 de Dan Air  en 1980, el desastre en el aeropuerto de Linate en 2001, el vuelo 52 de Avianca en 1990.

En el desarrollo de software, creo que se pueden imputar más errores a especificaciones deficientes y mala comunicación que a ninguna otra causa singular. En 1962 hubo que destruir el cohete Mariner 1 con destino a Venus debido a que un programador implementó incorrectamente una fórmula matemática escrita a mano omitiendo una barra superior.

Que significa el enésimo valor suavizado de la derivada con respecto al tiempo de un radio R. Pero en la especificación del programa se omitió la función de suavizado que especifica la barra superior.

Causa #9: Se toman decisiones estúpidas fruto del pánico.

En Chernobyl el jefe de ingeniería envió dos ingenieros a que intentaran insertar manualmente las barras de control en el núcleo. Poco después de dar la orden se dió cuenta de que las barras ya eran en sí misma muy pesadas y si no estaban bajando por su propio peso sería inútil intentar empujarlas. Pero ya era demasiado tarde, los dos ingenieros recibieron una dosis letal de radiación y murieron pocos días después.

En software una buena parte de Black Monday del 19 de octubre de 1987 y el Flash Crash del 6 de mayo de 2010 se atribuyen a trading algorítmico operando en modo pánico.

Yo he presenciado en demasiadas ocasiones cómo se intentaba cambiar una versión de software de forma temeraria, o se apagaban sistemas de alerta y seguridad que impedían hacer algo o se introducían cambios no testeados para arreglar un bug crítico urgente que acabó siendo dóblemente crítico.

Causa #10: Se usan productos sin soporte del fabricante.

El caso más famoso de software no soportado es probablemente el bug que la CIA plantó en un software canadiense que los soviéticos estaban intentando adquirir cómo parte de un plan estratégico para hacerse con tecnología sensible estadounidense. El bug inducía premeditadamente un aumento de presión en un gaseoducto transiberiano y provocó en 1982 la mayor explosión no nuclear causada por el hombre en toda la historia.

 

Compartir:
  • Twitter
  • Meneame
  • Facebook
  • Google Bookmarks
Publicado en Casos Prácticos | Deja un comentario

El fracaso de las redes sociales y el pivotaje de Facebook hacia la invasión más absoluta de la privacidad.

Las redes sociales son un fiasco, pocas, si acaso alguna, han conseguido cumplir con las expectativas que prometían. Cada una por diferentes motivos pero todas, en el fondo, por la imposición a ultranza de beneficios económicos por encima de la responsabilidad social corporativa, lo cual las ha hecho evolucionar desde la gran promesa de un cambio en las relaciones sociales a ser percibidas algo así cómo un tipo de tabaquismo digital. Voy a comentar aquí sólo unas pocas seleccionadas: Facebook, Instagram, LinkedIn, la extinta Google+, Twitter, Pinterest, Tumblr, Tinder y el resto de sitios de dating.

Facebook

Es bien sabido que Facebook empezó siendo un servicio de intercambio de fotografías entre universitarios, algo así como un «Hot or Not». Su rápido incremento en popularidad no se vió realmente acompañado de un incremento en ingresos hasta que Facebook Connect convirtió a Facebook en el sistema de gestión de identidad de facto en muchos otros sitios de terceros. Es la posibilidad de combinar sus propios datos con el espionaje sistemático de todo lo que sus usuarios hacen online lo que otorga a Facebook un valor sin parangón para los anunciantes. Según sus biógrafos, a Zuckerberg nunca tuvo el foco en las herramientas para anunciantes sino en la experiencia de usuario. Hay que decir que la habilidad de Zuckerberg para gestionar el crecimiento y las rondas de inversión fué absolutamente prodigiosa.

El problema fundamental con Facebook, desde mi punto de vista, es que Zuckerberg nunca ha creído realmente en la privacidad. Dicho por él mismo: «si piensas que alguien no debería enterarse de lo que estás haciendo es que en primer lugar no deberías estarlo haciendo».

Facebook insistió desde el principio en la necesidad de que los usuarios usasen identidades reales. Esto fué un gran acierto para su crecimiento pues limita en gran medida sin esfuerzo la mayoría de los contenidos inapropiados. Existe un desafío no resuelto en todas las redes sociales sobre el anonimato. Si se permiten perfiles anónimos entonces la red se llena rápidamente de pornografía y otros contenidos aún mucho más indeseables. Pero si se insiste en la identificación a ultranza de los usuarios entonces la red se convierte en el Reino de lo Políticamente Correcto donde es imposible decir nada significativo sin ofender a alguien y, por consiguiente, la forma de que la red pueda usarla todo el mundo es que sus contenidos se conviertan en la más absoluta vacuidad.

A pesar de los esfuerzos que todas las redes han hecho por eliminar los contenidos que infringen su política de uso, la misión de limpiar las redes de barbaridades sólo ha tenido hasta ahora un éxito limitado. Vale la pena leer artículos cómo la vida secreta de los moderadores de Facebook o las tribulaciones del C.E.O. de YouTube con los videos de sexo con animales. Ni con la mejor inteligencia artificial y un ejército de desdichados trabajadores viendo cosas horrendas ocho horas al día por el salario mínimo consiguen ponerle puertas al campo.

El pivotaje de Facebook para salir del punto de mira de las críticas más acérrimas está siendo abandonar la comunicación pública en favor de la explotación comercial de las comunicaciones privadas. Esto tiene sentido por varios motivos. En primer lugar se sabe que aunque una persona tenga muchos contactos en una red social, regularmente sólo interacciona con un puñado de ellos (Jesucrito tenía 12 followers). Además, debido a la autocensura, lo que los contenidos públicos dicen de una persona no es quién ella es realmente, aunque, como ya he comentado, debido a que vía Connect, Facebook puede trazar la navegación de un usuario, Facebook sabé cuales son sus preferencias reales aunque no las publique. En segundo lugar, al quitar los contenidos de la vista de la audiencia general se elimina el problema de las quejas con contenidos falsos o inapropiados. Recuerdo una frase del presentador de televisón Gran Wyoming que me pareció épica: «la corrupción me parece muy bien, siempre y cuando los corruptos se reunan todos a puerta cerrada en una plaza de toros y se dediquen a meterse la mano en los bolsillos unos a otros». Si las comunicaciones están encriptadas punto a punto cómo en WhatsApp, Facebook puede alegar ante el regulador que no sabe lo que los usuarios están hablando entre ellos, ni necesita saberlo pues su negocio real es trazar lo que hace el usuario en otros sitios web a través de Connect.

Ya he comentado en otro artículo titulado qué necesidades psicológicas satisfacen las redes sociales cómo Facebook explota el mecanismo de recompensa de la dopamina y cómo los filtros burbuja nos impiden ver una realidad compartida y radicalizan nuestras opiniones.

La gente está abandonando Facebook, hasta el punto de que Facebook ha cambiado su política de retención para dificultar el borrado de cuentas. Es por esto que compraron WhatsApp e Instagram y ahora están trabajando para unificar las tres plataformas. Facebook puede actualmente cruzar sus datos con los de WhatsApp e Instagram, pero las tres aplicaciones siguen siendo esencialmente silos de información lo cual dificulta la explotación.

Lo que es oro puro acerca de WhatsApp es que está inseparablemente ligado al número de teléfono que es el dato que los anunciantes tienen sobre sus clientes en sus propias bases de datos. Facebook, también pide número de teléfono con la excusa de incrementar la seguridad de la cuenta, pero es opcional. La pega de WhatsApp (para Facebook) es que sus creadores sí estaban preocupados por la privacidad. Todos los mensajes en WhatsApp están encriptados de forma que sólo el emisor y el receptor los pueden leer. El modelo de negocio de WhatsApp consistía simplemente en crear un chat libre de anuncios y espionaje a cambio de que los usuarios pagasen la modesta suma de algo así cómo 1$ al año, hasta que llegó Facebook con una oferta por 19.000 millones dólares.

En su último cambio, Facebook ha simplificado el interfaz y ha anunciado que dará más peso a los grupos algo, que, por cierto, fué el último intento de reposicionamiento de Google+ antes de cerrar, pero el caso de Google+ lo comentaré más adelante. Por ahora la organización de las «tribus digitales» sigue siendo un problema sin una buena solución. Los grupos existen desde Yahoo Groups! y antes de eso incluso desde las Usenet News. Pero todavía nadie ha encontrado una solución completamente eficaz contra las flame wars y otras dinámicas indeseables que surgen espontáneamente en los grupos. La solución de Facebook fué convertir al dueño del muro en el propietario absoluto de la conversación y omitir los «No me gusta». Pero al eliminar la controversia se elimina también la parte más significativa de un debate.

Instagram

De todas las opciones perniciosas para los jóvenes en las redes sociales, Instagram es, probablemente, la peor. A diferencia de Facebook, en Instagram se pueden tener cuentas con avatares. Y, de hecho, no pocos adolescentes tienen dos cuentas: la cuenta de su yo real, y la cuenta de su alter ego imaginario.

Instagram empezó siendo un servicio de retocado automático de fotografías. Los usuarios entraron por la utilidad de sus herramientas y se quedaron por la red que iba creando su uso compartido.

Pero Instagram ha creado un mundo de mentira. Un mundo donde todo es retoque digital. Un mundo donde los que son «transparentes» se deprimen porque la condena al ostracismo es una de las peores cosas que pueden sucederle al ser humano, y los que son populares desarrollan inmediatamente el miedo a perder esa popularidad y se vuelven esclavos de sus estadísticas de visitas.

Otra característica de Instagram es que permite borrar contenidos pasado un tiempo. Esto es por dos motivos: primero genera en los lectores el conocido «Fear Of Missing Out» (FOMO) o miedo a perderse algo; y segundo muchos jóvenes de dieciseis años no quieren que se sigan viendo las fotos de cuando empezaron a usar Instagram con trece años. En resumen, Instagram te ayuda a olvidarte de quién fuiste. Borra tu propia historia y fomenta que no te acuerdes de dónde vienes ni, por consiguiente, sepas a dónde vas.

LinkedIn

Una de las primeras veces que oí un comentario acerca de LinkedIn fué a un veterano y muy reputado programador quién sentenció: «LinkedIn es el herpes de Internet».

Si mal no recuerdo, creo que corría el año 2004 cuando yo era un superusuario de una red social española llamada eConozco, posteriormente adquirida por Xing. eConozco tenía muchas de las funcionalidades de LinkedIn, excepto los endorsements. Y a mi me pareció una forma novedosa y excitante de mantener mi base de datos de contactos profesionales que en aquella época consistía en miles de tarjetas de visita meticulosamente clasificadas en sendas carpetas. Luego LinkedIn tomó la delantera y sucedió algo sorprendente, en lugar de ser una herramienta para crear y mantener tu base de datos, pasó a ser una herramienta donde tú les construías a ellos su base de datos que luego intentaban venderte a ti mismo o a cualquier otro dispuesto a pagar por ella.

LinkedIn se convirtió en un repositorio gigante de curriculums maquillados y reclutadoras con fotografías que parecen más propias de un sitio de encuentros casuales de una noche. Y ni siquiera los propios reclutadores lo usan sistemáticamente porque hay porcentualmente menos gente de la que cabría pensar y, además, los más interesantes a menudo no están, o tienen un perfil que no usan, y por consiguiente, los reclutadores siguen recurriendo al spam sistemático por email.

LinkedIn tiene un feed de noticias que es cómo el camión de la basura de las notas de prensa que las empresas no consiguen colocar en los medios.

Tras vaivenes el bolsa, al final LinkedIn acabó siendo adquirida por Microsoft para apalancar su CRM SaaS contra Salesforce.

Google+

Google+ ha sido ampliamente estudiado cómo uno de los fracasos sonados de Google. Y no fué el primero ¿alguien se acuerda de Orkut y Wave? Yo la verdad es que pensé desde el principio que Google+ no tenía futuro.

En Google+ concurrieron varios factores. En primer lugar se trataba de un ataque frontal contra un adversario muy bien fortificado.

El siguiente error de bulto en Google+ fué ofrecer un modelo de seguimiento asimétrico (estilo Twitter) cuando en los objetivos de negocio se explicaba que la misión era conectar a las personas con sus más allegados. El modelo asimétrico no es apropiado para interacciones con alguna expectativa de calidad. Cuando enviamos un email a alguien esperamos que nos responda. Pero cuando publicamos un tweet no esperamos realmente que nadie en concreto reaccione. No es compatible que pretendas establecer relaciones de calidad con un modelo de seguimiento asimétrico.

Otro de los errores causado por el deseo de crecer rápidamente fué crear una cuenta en Google+ automáticamennte a todos los usuarios de Google. Esto dio origen a un pueblo fantasma con centenares de millones de personas que aparentemente tenían una cuenta en Google+ pero que de hecho no la habían usado nunca.

La obsesión por crecer en Google+ fue causada en parte porque cuando Page sucedió a Eric Schmidt como CEO una de las primeras cosas que hizo fue ligar el 25% de la retribución variable de todos los empleados de Google al éxito de la empresa cómo red social.

Otro error sistemático de percepción en Google ha sido creer que a los usuarios les gusta recopilar y organizar su información debido a que esa es la misión principal de Google: recopilar y organizar su información. Y puede que a un puñado de geeks les guste la organización, pero la inmensa mayoria de los usuarios no son capaces ni siquiera de mantener apuntadas sus contraseñas en alguna parte. En Instagram, por contraposición, el desdén por la organización de la información es tan grande que algunos contenidos introducidos por los usuarios se borran automáticamente tras un intervalo de tiempo. Facebook sólo permite buscar por palabra clave en tu propio timeline el último año, cualquier post anterior no aparece en las búsquedas a menos que tenga al menos un comentario de menos de un año de antiguedad.

Twitter

A Twitter se le ha tildado en múltiples ocasiones de ser la oveja negra de los resultados económicos en redes sociales. Yo sobre Twitter opino que tiene un componente de spam y que ofrece pocas ventajas adicionales a los canales RSS sobre blogs clásicos con comentarios.

Twitter, no obstante, ha probado el valor de su viralidad en varias ocasiones y ello le hace merecedor, a mis ojos, de mérito social.

Pinterest

Lo que personalmente me fastidia de Pinterest es su increíble habilidad para pervertir el uso de Google colocando resultados irrelevantes en las primeras posiciones de las búsquedas. A menudo busco imágenes por palabra clave en Google. Y a menudo acabo obteniedo docenas de enlaces a cuentas de Pinterest a las que no puedo acceder sin registrarme y que de todas formas no contienen ninguna información relevante excepto una fotografía que alguien copió de otra parte.

Tumblr

Tumblr saltó a la picota cuando en diciembre de 2018 bloqueó todos los contenidos sexuales explícitos. A pesar del bloqueo, tales los contenidos históricos siguen siendo accesibles a través de los canales RSS de cada blog individual y miles de millones de imágenes procedentes de Tumblr permanencen indexadas en otros sitios web.

Tumblr es un ejemplo paradigmático de lo extremadamente peligroso que es confiar los contenidos a una plataforma que tiene la potestad de cambiar unilateralmente su política de uso en cualquier momento. Cualquiera que tuviese un negocio basado en publicidad por poner contenidos para adultos en Tumblr lo ha perdido de un plumazo.

La maldición de Tumblr está basada en dos cosas que ya hemos comentado: primera cuando los perfiles son anónimos muchos usuarios comparten porno y segunda era demasiado fácil compartir porno en Tumblr debido a que la herramienta en sí misma es brillante por su simplicidad y buen funcionamiento.

El problema de la pornografía no es sólo que pueda considerarse moralmente cuestionable sino, además, que la mayor parte de los contenidos que se comparten infrigen derechos de autor y esto acarrea una sucesión infinita de demandas de los productores de contenidos contra la plataforma. Y por si lo anterior fuera poco, los anunciantes en general no quieren que sus productos se vinculen a la pornografía, por consiguiente es prácticamente imposible poner publicidad en sitios porno excepto de más porno.

Por último, la adquisición de Tumblr por parte de Yahoo! cómo parte de las múltiples adquisiciones fallidas auspicidas por Marissa Meyer no contribuyó en nada a un pivotaje eficaz en Tumblr, hasta que el final Tumblr acabó cometiendo el equivalente a un suicidio digital.

Tinder y los sitios de dating

El primer sitio de dating que recuerdo se llamaba Love Lycos. Allá por el año 2000 una amiga me habló de él contándome que tenía un chat muy divertido. Luego apareció match.com con el posicionamento de un sitio para solteros que buscan otros solteros con el fin de contraer matrimonio monógamo perpétuo. El año pasado, casi 20 años después de mi primer contacto con un sitio de dating, me encontré en el metro de Londres anuncios de muzmatch.com «el sitio para los solteros musulmanes» sea lo que sea que eso signifique realmente, que no lo sé.

Lo trágico respecto de los sitios de dating es que las redes que más deberían verificar la identidad de los usuarios y la veracidad de los contenidos son precisamente las que menos lo hacen. Cuando se hizo pública la lista de usuarios de Ashley Madison, un sitio para citas secretas entre personas casadas, se descubrió que había hasta obispos católicos registrados en el sitio. En match.com la plaga histórica eran los hombres casados que mentían sobre su estado civil en busca de una aventura, esto solía desanimar bastante a las mujeres en busca de pareja estable.

Lo bueno de match.com es que permite aplicar un filtro muy específico para buscar a una persona muy concreta, lo cual es cómo buscar una aguja en un pajar, pero el esfuerzo, según múltiples testimonios de usuarios, puede merecer la pena.

Pero cómo no todo el mundo va buscando casarse ni todos los casados pretenden seguir estándolo indefinidamente, empezaron a aparecer sitios de dating con usos diferentes. Desde sitios para gays orientados hacia la promiscuidad más absoluta, hasta sitios de relaciones «alternativas» basadas en todo tipo de fetiches, pasando por sitios para gente de más de cincuenta años en los cuales las mujeres divorciadas y con pensión son el objetivo sistemático de estafadores que les venden amor de mentira a cambio de pedirles dinero para alguna emergencia que es totalmente falsa.

Hasta que apareció Tinder. Creo que Tinder tiene el dudoso mérito de reunir casi todos los aspectos psicológicamente nocivos que puede tener una red social. Veamos cómo funciona. Tinder es en esencia otro «Hot or Not». Te muestra una foto de alguien y tienes que elegir si te gusta o no te gusta. Si la otra persona te elige a tí también entonces aparece un match (una coincidencia) y ambos podeis iniciar un chat. Esta propuesta de uso resultó ser demoledora para solucionar uno de los desafíos más grandes de los sitios de dating que es la desproporción entre número de hombres y mujeres y la desproporción entre las horas de uso que hacen los hombres y las que hacen las mujeres. Básicamente, en un sitio de dating típico puede haber algo así cómo ocho hombres activos por cada mujer activa y, además, según los psicólogos, los hombres piensan en media ocho veces al día en sexo mientras que las mujeres piensan en media sólo una vez al día. Así que multiplicando 8×8 la mujer promedio recibe en un sitio de dating 64 veces más demanda de la que puede procesar. Esto es abrumador y genera la paradoja de la elección (cuando tenemos demasiadas opciones no sabemos cual elegir). Pero en Tinder no ves cuanta gente le ha dado a «Me Gusta» en tu perfil. No sabes cuantos usuarios hay activos ni cuándo se conectó cada uno por última vez. Sólo ves una sucesión infinita de personas una por una y el scroll infinito es una de las trampas psicológicas bien conocidas por los expertos en manipulación del comportamiento. A la mujer le parece que tiene mucho donde elegir, aunque no demasiado, pero en realidad sólo es libre de elegir lo que Tinder decide mostrarle, y Tinder le mostrará por un lado perfiles populares y por otro perfiles que necesitan un incentivo en forma de varios «Me Gusta» para seguir en la red. Prácticamente todas las fotos en Tinder están ridículamente retocadas haciendo parecer su escaparate cómo un concurso de belleza imposible para nadie que no sea experto en Photoshop, y donde, según un estudio, el 80% de los hombres menos atractivos compiten por el 22% de las mujeres menos atractivas y el 78% de las mujeres atractivas compiten por el 22% de los hombres más atractivos. Es posible meter algunos datos básicos en el perfil, cómo la edad, la localización geográfica, la profesión… pero nadie mira eso a priori porque el tiempo empleado en ojear cada perfil no llega a cinco segundos. Y, además, no se verifica ninguna información, excepto un dato, la altura. Esto es debido a que se sabe que el primer factor que tienen en cuenta las mujeres a la hora de elegir es la altura. Y es perfectamente legítimo, también dicen que los caballeros las prefieren rubias. Excepto que de nuevo la elección juega en contra de la mujer. Debido a que en promedio, los hombres son más altos que las mujeres, no es difícil encontrar un hombre alto, o, al menos, más alto que la mujer, entonces para los hombres la altura no es realmente un problema pero para las mujeres sí porque cuanto más altas son ellas mismas menos candidatos potenciales pueden preseleccionar. La solución magistral de Tinder es que hace creer a la mujer que está empoderada cuando en realidad es justo lo contrario y a los hombres les da de vez en cuando una recompensa en forma de premio cómo las máquinas tragaperras.

Conclusión

Las redes sociales se han convertido en la versión digital de las tabacaleras: un oligopolio que mueve cantidades astronómicas de dinero con pingües beneficios a costa de causar daños a la salud mental pública. No se trata de ser ludita negando el progreso. Internet ha transformado a la Humanidad y las redes sociales son parte de esa transformación. No es que sitios cómo Amazon o Alibaba sean menos agresivos en cuanto al uso de datos privados, pero Amazon y Alibaba han cambiado por completo para mejor la relación entre productores, distribuidores, retailers y clientes finales. También hay empresas que han conseguido mostrar hasta ahora respeto por la privacidad, como Apple. Pero algo equivalente a duras penas penas puede afirmarse acerca de la gran mayoría de las redes sociales.

Es hora de que nos planteemos seriamente la necesidad de proteger a la población, especialmente a los más jóvenes, de la mayor colección de experimentos de manipulación psicológica con fines puramente comerciales en toda la historia. Espiando a la gente para venderle cosas que no necesita por medio de hacerles creer que están eligiendo algo que en realidad ya ha sido escogido previamente para ellos aunque ellos mismos no se estén dando cuenta.

Post relacionado:
Un nuevo concepto de privacidad.

Compartir:
  • Twitter
  • Meneame
  • Facebook
  • Google Bookmarks
Publicado en Usos sociales de la tecnología, ¿Dónde estamos? ¿Hacia dónde vamos? | 1 comentario

Cómo mostrar empatía sin tenerla realmente

Me gano la vida con el arte de la programación. Lo que implica, entre otras muchas cosas, que me importan un bledo los nimios problemas autoinfligidos de la mayoría de la gente. Porque, sí: un gran porcentaje de problemas entre la población del mundo desarrollado son imaginarios, fruto del aburrimiento. No obstante lo anterior, profesionalmente me tomo muy en serio todos los problemas de todos los usuarios; incluyendo aquellos a quienes siendo estudiante en mi juventud veía por la ventana fumar porros mientras yo tomaba apuntes sin levantar la vista de la pizarra para no perderme. Y ahora esos bandarras me vienen llorando que un Excel que no se quiere abrir les está haciendo la vida miserable. Incluso a esos les presto ayuda desinteresadamente sin dudarlo. En este post explico cómo lo hago.

Lo primero que me gustaría comentar acerca de la empatía es que es una de las habilidades peor entendidas que existen. Mucha gente confunde la empatía con la sensibilidad y son en cierto sentido casi lo contrario. Pondré un ejemplo, supongamos que tu muy mejor amigo (o amiga) te dice: «Mi pareja y yo estamos embarazados». La mayoría de las personas responderán bien «¡Enhorabuena!» bien «¡No me jodas!». Por descontado que la noticia de un embarazo no deja indiferente a nadie. Sin embargo, ambas respuestas son equivocadas a menos que supieras de antemano si es lo que ellos querían que pasase. Puede que el embarazo fuese no deseado, entonces es una mala noticia. O puede que fuese lo más deseado del mundo. En cualquier caso la única respuesta prudente es: «¿Embarazados? ¿Y cómo os sentís ambos al respecto?».

Existe el mito de que las mujeres son más empáticas que los hombres. Yo personalmente creo que es justo al revés. Mis razones para creerlo son dos. Primera, existe un amplio consenso entre los psicólogos acerca de que las mujeres experimentan sus propias emociones de forma más intensa y frecuente que los hombres. Esto es un hándicap porque las personas que experimentan emociones intensas no ven el mundo cómo es, sólo lo ven cómo les hace sentir a ellas. Es por eso que la figura arquetípica de un psiquiatra es un psicópata cómo Hannibal Lecter quien, desprovisto de cualquier emoción propia, puede ver perfectamente las de los demás sin sesgo cognitivo alguno. La segunda razón es que, en general, es más fácil manipular a los hombres que a las mujeres por la vía de la culpa, y la culpa, en el fondo, es el sentimiento de que hemos herido la sensibilidad del otro.

Lo que sí es cierto es que las mujeres tienen mayor capacidad para interpretar el lenguaje no verbal que los hombres. Hay bastante estudios comparativos de niños y niñas que demuestran que las niñas desde muy temprana edad pueden leer mejor que los niños las expresiones faciales de sus padres. Con una única excepción, si la expresión es una clara amenaza agresiva entonces los hombres la captan más rápidamente y mejor que las mujeres.

Pero, sin más preámbulos, voy a pasar ya a la lista de consejos, que es lo que empatizo que cualquiera que haya leído hasta aquí estará esperando impacientemente.

Mimetizar el lenguaje corporal

Lo primero que necesita una persona para percibir empatía en otra en sentir que está siendo comprendida. La forma más eficaz de lograr esto es simplemente decir «te comprendo» y poner la misma cara que está poniendo el otro cuando está diciendo algo. Esto lo saben hacer muy bien los expatriados que no entienden el idioma pero saben que para integrarse en el grupo hay que reirse cuando se rie todo el mundo aunque no hayas entendido el chiste. Mimetizar la expresión facial es especialmente útil cuando no se encuentran palabras significativas, por ejemplo en un funeral. Dado que la muerte es un suceso terminal que admite pocos o ningún comentario, lo mejor es fijarse en si los allegados del difunto están rotos por el dolor o rebosantes de alegría al percibir ¡por fin! la herencia.

Evidentemente, no siempre hay que poner la misma cara que el otro. Si durante una conversación una persona está claramente a la defensiva, por ejemplo, con las piernas y brazos sendamente cruzados, cruzar los brazos nosotros también sólo servirá para iniciar una serie de monólogos paralelos. En este caso lo que hay que adoptar un lenguaje corporal que muestre que no estamos en actitud de criticar ni amenzar sino de escuchar y comprender.

Crear una zona de seguridad

Esto es un requisito previo y esencial para una comunicación significativa. Si la otra persona piensa que será cuestionada o criticada es prácticamente seguro que evitará iniciar una conversación. La piedra angular de la empatía es un interés sincero por la otra persona desprovisto de juicios a priori. Ningunear los sentimientos del otro no mejora en nada la situación, pues, aunque, cómo he dicho, su problema sea inicialmente imaginario, a base de imaginarlo tozudamente esa persona ha convertido el problema en algo muy real de la misma forma en la que Pinocho dejó de ser un niño de madera.

Escuchar activamente y con plena presencia

Esto parece obvio pero, de hecho, muchas veces las personas no están escuchando sino que simplemente están esperando a que el otro se calle y a menudo ni siquiera esperan pues los latinos tenemos una cosa llamada «conversación colaborativa» que básicamente consiste en interrumpiar al otro cuando lo que dice te está aburriendo o estás en desacuerdo o te parece una tontería.

La tres técnicas básicas de la escucha activa son el reflejo por ejemplo «Me suena lo que dices», «creo que tú eres un poco cómo yo»; la afirmación, por ejemplo, «Correcto»; y el ánimo a segir hablando, por ejemplo, «¿Y qué pasó después?», «¿Qué te hace decir eso?», «Sólo por curiosidad…».

Yo siento muchas veces la necesidad imperiosa de interrumpir. Algunos no hablan más que mierda, la verdad, pero siempre me reprimo pensando: ¡Un momento! Lo que estoy a punto de decir ya me lo sé, ergo no me aporta nada verbalizarlo excepto una demostración de pedantería hacía la otra persona, sermoneándole algo que ya sabe (aunque a veces no se haya dado cuenta).

Hacer pausas

La precipitación es enemiga del entendimiento. Las personas empáticas se toman su tiempo y dejan espacio para el silencio y la reflexión.

Evitar los consejos no solicitados

Decirle a alguien lo que debería hacer es poco eficaz por varios motivos. Para empezar puede que el oyente no esté dando credibilidad a nuestras palabras pero, además, se sabe que las personas creen más firmemente en sus ideas cuando piensan que han llegado a ellas por sus propios medios.

La alternativa es hacer preguntas y compartir experiencias. Al decir: «antes de que tomes una decisión, en mi experiencia lo que me pasó fué esto y aquello e hice lo otro y lo de más hallá y el resultado fué tal y cual» compartimos sabiduría con la otra persona pero no le damos el mensaje de que estamos intentando influenciarla.

Cuando una persona está ofuscada en sus propios pensamientos obsesivos hay muy poco que se puede hacer para sacarla de ellos. Salvo contadas excepciones, la empatía en esos casos consiste en dejar que se estrellen y luego ayudarles a ir recogiendo los pedacitos de ellos mismos que les hayan quedado para recomponerse. Muchas personas que acuden a un consultor no quieren realmente solucionar su problema, lo que quieren es que alguien les justifique por qué no pueden solucionarlo. Esto es lo mismo para el paciente de psicoterápia que tiene un mal hábito cómo para el gerente en una empresa que se pasa el día explicando por qué las mejores prácticas conocidas en su sector no se pueden aplicar en su departamento. Entonces cuanto más escuchas sus quejas menos les ayudas.

Hablar en términos de «nosotros» en lugar de «tú»

Las personas tienen tendencia a creer más a quienes se parecen a ellos. Esto lo sufren los padres de adolescentes quienes creen más a otros adolescentes que a sus padres a pesar de que sus colegas son evidentemente un atajo de zotes. La empatia puede surgir de forma espontánea entre dos personas simplemente porque ambas nacieron en el mismo pueblecito de una región remota, la similitud crea proximidad.

Preguntar qué podemos hacer por la otra persona

Yo siempre que se me acerca alguien cuyas intenciones desconozo, inicio la conversación de la misma forma: «¿Qué puedo hacer hoy por tí?». La promesa a priori de ayuda hace que la otra persona se sienta comprendida incluso antes de haber pronunciado su primera palabra.

Imaginar el punto de vista del otro

Esto es de hecho muchísimo más difícil de lo que parece. Mi ejemplo favorito es un acertijo que sólo un psicópata puede resolver. El acertijo narra que un hombre asiste a un entierro donde por casualidad conoce a dos hermanas y se enamora instantáneamente de una de ellas que había venido de lejos. Al terminar el entierro se separan y él la busca infructuosamente. Entonces decide matar a la otra hermana que sí sabe dónde está ¿por qué?. La razón es que el hombre espera que su amada asista al entierro de su hermana. Pero, sinceramente, hay que ser un tarado mental para urdir semejante estrategia y un medio tarado ni siquiera para imaginarla.

La forma más práctica de imaginar el punto de vista del otro se basa en ignorar sus actos y sus palabras y centrarse en enumerar sus miedos, sus objetivos y sus deudas emocionales.

Post relacionado:
Por qué la mitad de la población no se entiende con la otra mitad


Compartir:
  • Twitter
  • Meneame
  • Facebook
  • Google Bookmarks
Publicado en Mitos, arquetipos y filosofía | Deja un comentario

Cómo estimar el esfuerzo de desarrollo de software

La fuente más frecuente de conflicto entre el cliente y el proveedor de un desarrollo de software a medida es la diferencia entre las expectativas de plazos, costes y calidad y lo que realmente se entrega. En este artículo presento un modelo sencillo de estimación junto con una plantilla Excel. Todo ello con el fin de reducir sorpresas y frustración. Me hubiese gustado que el texto fuese cómo una simple receta de cocina: 50g de azúcar, 2 huevos, 400g de harina… Pero me temo que la explicación requiere que introduzca algunos conceptos previos antes de llegar a la receta en sí misma.

Para los impacientes, aquí está la plantilla Excel para hacer estimaciones de software, aunque aviso seriamente de que su uso es peligroso si no se manejan bien los principios expuestos a continuación.

Porqué es difícil estimar con fiabilidad

Todavía hoy en día, las estimaciones del esfuerzo requerido para desarrollar un programa tienen casi más de arte que de ciencia. Es posible estimar con precisión cuánto se tarda y cuánto cuesta fabricar un tornillo, esto porque todos los tornillos son iguales, pero en el caso del software cada programa es diferente. Existen, no obstante, varios modelos de estimación maduros y bien conocidos que producen buenos resultados siempre y cuando estén correctamente calibrados.

A la complejidad intrínseca de la estimación, hay que sumar los factores económicos que influyen en el proceso. El mercado del software es cómo el de los coches usados. El cliente evalúa coches de diferentes proveedores. A primera vista todos lucen cómo recién pintando y huelen a nuevo por dentro. El cliente sabe que no todos los coches son efectivamente igual de seminuevos. Y que el vendedor tratará de colocarle aquel vehículo que le reporte mayor beneficio. Por consiguiente, en ausencia de una forma de distinguir entre un vehículo bueno y uno malo, lo más sabio que puede hacer el cliente es elegir el más barato entre los que parecen iguales dado que así al menos minimiza sus pérdidas en el caso de que la compra resulte ser una tartana. Esto induce a los proveedores a bajar precios de forma temeraria en la esperanza de ganar un contrato a pérdida pero obtener beneficio en la actualización y mantenimiento de un software incompleto y defectuoso.

La diferencia entre estimar, planificar y presupuestar

Quien compra un desarrollo lo que quiere saber es cuánto dinero le va costar. Este cálculo requiere tres etapas: 1ª) estimación de esfuerzo, 2ª) planificación de proyecto y 3ª) negociación económica. Aquí vamos a cubrir sólo la parte de estimación de esfuerzo. La razón es quela planificación requeriría otro artículo entero, y la negociación económica, cómo ya he explicado, suele consistir en el regateo gitano más absoluto.

La moda actual es estimar el esfuerzo en unidades abstractas y no en horas/hombre. La razón es que el número de horas requeridas para desarrollar una funcionalidad puede variar (y varía) mucho dependiendo de la naturaleza del proyecto, de la calidad de las especificaciones y de la clase de mano de obra empleada. Por supuesto, al final se convierten las estimaciones abstractas en horas/hombre mediante un proceso que explicaré más adelante.

Proyectos cerrados versus “time & materials

Los presupuestos de los proyectos suelen presentarse en dos modalidades: 1ª) funcionalidad, precio y plazo previamente acordados, o 2ª) facturación de horas sobre la marcha según se vayan descubriendo necesidades.

Los departamentos financieros suelen abogar porque se compren proyectos cerrados debido a que bien los consideren cómo inversión en activo bien cómo un gasto, les gusta tener una cifra bien defenida que contabilizar. Pero no siempre se sabe a priori todo lo que se necesitará, es más, la mayoria de las veces no se sabe y en principalmente debido a ese desconocimiento inicial que surgieron las técnicas ágiles de desarrollo iterativo facturando al cliente por “time & materials”.

Al proveedor, en realidad, lo que más le interesa no es un proyecto cerrado ni “time & materials” sino cobrarle al cliente por el valor que el proyecto tiene para él. La razones son que el proveedor puede pedir más dinero, ya que el cliente rentabilizará sobradamente la inversión; y no se arriesga con una oferta a la baja en concurrencia competitiva con otros proveedores ni ve sus márgenes erosionados porque el cliente sabe cuánto cuestan realmente las cosas. En consultoría, la regla del dedo gordo para los márgenes es que estos no pueden nunca inferiores al 15% si el encargo se subcontrata enteramente a un tercero ni inferiores al 40% si el proyecto se realiza con recursos propios. Por debajo de estos umbrales mínimos el proveedor está en serio riesgo de acabar perdiendo dinero. Pero si el cliente tiene acceso a la contabilidad analítica del proveedor (sabe cuánto tiempo tarda en hacer algo y cuánto le cuesta la mano de obra por hora trabajada) entonces lo esperable es que el cliente trate de reducir el precio hasta dejar al proveedor en su coste de empresa más un 10%.

Calidad de las especificaciones y retrabajo

Es difícil exagerar la importancia de empezar con unas buenas especificaciones. El mayor porcentaje de problemas con el software proviene de que las especificaciones eran incompletas o erróneas.

Adicionalmente, los diseñadores gráficos saben mejor que nadie que el esfuerzo requerido para completar una tarea está relacionado con la cantidad de decisiones que tenga que tomar el cliente. Paradójicamente, a mayor cantidad de decisiones y responsabilidades por cuenta del cliente mayor coste. Es debido a dos razones: 1ª) que el tiempo empleado en comunicación y retrabajo aumenta y 2ª) que es difícil imponerle el cumplimiento de hitos en plazo al cliente y, por consiguiente, se generan más tiempos muertos de espera.

Definiciones previas

Vamos a introducir a continuación algunas definiciones que necesitaremos para hablar con precisión durante el proceso de estimación.

Objetivos (Targets) : Es lo que se pretende conseguir expresado en términos del valor entregado al cliente.

Funcionalidades (Features): Son las características del software descritas según su comportamiento.

Historias de Usuario (User Stories): Son conjunto de funcionalidades que deben implementarse juntas para alcanzar un objetivo.

Épicas (Epics) : Son grupos de historias de usuario que definen funcionalmente grandes porciones del software.

Estimaciones (Estimates) : Son predicciones de cuanto esfuerzo se requerirá para producir cada funcionalidad.

Planificación (Planning) : Esel proceso de conectar los objetivos con funcionalidades y sus estimaciones para producir un calendario de entregas. Es importante recalcar que las estimaciones no son planes para alcanzar un objetivo. Las estimaciones no deben ser una predicción condicionada por los objetivos de negocio.

Expresiones de probabilidad (Probability confidence statements): Son predicciones sobre el futuro que incluyen una probabilidad de ocurrencia expresada cómo un porcentaje. Cuando debido a una incertidumbre irreducible las estimaciones incluyen una expresión de probabilidad, esta no debeser inherentemente ambigua del estilo «altamente probable» o «muy improbable». Las afirmaciones con probabilidad deben usar un porcentaje: «Llegaremos a esa fecha de entrega con un 85% de probabilidad» incluso si el porcentaje en sí mismo es otra estimación. La razón es que, incluso sin un fundamento cuantitativo para los porcentajes, su uso reduce el número de malentendidos entre las partes. Por consiguiente, los porcentajes no deben interpretarse cómo una probabilidad sino cómo una métrica de lo que tenía en mente quien hizo la estimación.

Rangos (Ranges): Son intervalos de tiempo dentro de los cuales se espera que una funcionalidad esté completada. Los rangos se pueden expresar cómo una Fecha ± X Unidades de Tiempo o cómo un triplete [fecha más temprana de entrega, fecha más probable de entrega, fecha más tardía de entrega] lo cual es equivalente a hablar de mejor caso, caso medio y peor caso. Por convenio, se puede considerar que la fecha más probable de entrega es aquella en la cual la funcionalidad estará lista con más de un 75% de probabilidad y la fecha más tardía de entrega es aquella en la cual la funcionalidad estará lista con más de un 95% de probabilidad.

Definición de «Funcionalidad Lista» (Definition of Ready): La definición precisa de cuándo una funcionalidad está lista para ser entregada, usada y facturada es uno de los aspectos más controvertidos del proceso de desarrollo de software. Cómo mínimo, cada funcionalidad debe haber pasado los tests unitarios del desarrollador, las pruebas de integración de sistemas, las pruebas funcionales del equipo de testeo y la validación del cliente. Pero ningún software está realmente listo para pasar a producción sólo porque haya pasado unas pruebas. Ningún fabricante sensato de automóviles pondría un nuevo modelo en una cadena de producción sólo porque ha pasado algunas horas de prueba en un circuito. Lo que mejor determina la fiabilidad de un software es la cantidad de horas en las que se ha observado su funcionamiento libre de fallos en condiciones de uso reales o indistinguibles de las reales. Además, puede haber requerimientos adicionales para que algo esté listo, por ejemplo:

  • Documentación
  • Auditoría de seguridad
  • Auditoría legal
  • Pruebas de carga
  • Monitorización y alertas

El estilo de desarrollo

Para el propósito de estimar, se pueden considerar dos grandes tipos de estilo de desarrollo; secuencial e iterativo, que a su vez tienen los siguientes subtipos.

Prototipado Evolutivo Iterativo (Iterative Evolutionary Prototyping): Es el estilo que se emplea cuando los requerimientos no son bien conocidos.

Programación Extrema Iterativa (Iterative Extreme Programming): En este estilo sólo se definen los requerimientos que serán implementados en la siguiente iteración.

Entrega secuencial por etapas (Sequential Staged Delivery): En este estilo la mayoría de los requerimientos se proporcionan al inicio del desarrollo. Un caso especial es el Proceso Unificado Racional (Rational Unified Process, Jacobson, Booch, 1999) en el cual se busca que al menos el 80% de los requerimientos estén bien definidos al inicio.

Entrega Evolutiva (Evolutionary Delivery): Este estilo define cualquier cosa entre no tener casi ningún requerimiento al principio y tenerlos casi todos. Y su acercamiento es bien iterativo, bien secuencial dependiendo de cuántos requerimientos se disponga.

Scrum: Es el estilo de desarrollo más en boga actualmente. Consiste en coger un conjunto de funcionalidades que pueden ser implementadas en un sprint. Un sprint es un intervalo arbitrario de tiempo, pero no muy corto ni muy largo, normalmente entre 15 y 30 días. Una vez que se ha acordado el sprint, el cliente no puede hacer ningún cambio sobre ese sprint. Debido a que Scrum no admite modificaciones sobre la marcha dentro de un sprint, es en parte un estilo secuencial, pero, debido a hay múltiples sprints, es también iterativo.

Factores que afectan a las estimaciones

Si bien las estimaciones de las que tratamos aquí son de índole técnica, existen factores externos que no se pueden ignorar a la hora de realizarlas. Entre los más importantes cabe citar:

  • Incertidumbre es las especificaciones.
  • Carencia de implicación de los usuarios en la validación de requerimientos.
  • Cambios en el alcance y prioridades del proyecto sobre la marcha.
  • Capacitación profesional de los recusos humanos empleados.
  • Cambios en las plataflormas y herramientas subyacentes.
  • Cambios frecuentes de contexto entre actividades no relacionadas.
  • Indisponibilidad de terceras partes involucradas en el proceso.
  • Claridad de los requerimientos de fiabilidad.
  • Requerimientos de documentación.
  • Cambios en las dependencias con sistemas externos.
  • Tamaño del proyecto.
  • Comunicación y reuniones.

Qué contar y cómo contarlo

El método que se propone aquí es hacer algo similar a un escandallo de producción. Se realiza un inventario de las piezas a fabricar, se calcula el coste de cada una por separado y luego se suma. En un proyecto de software hay muchas cosas que pueden considerarse piezas, tanto de alto nivel cómo requerimientos legales, casos de uso, historias de usuario, etc. cómo artefactos técnicos tipo páginas web, tablas en base de datos, informes, etc.

Las piezas que merece la pena contar deben cumplir ciertas características:

    • Deben estar altamente correlacionadas con el tamaño del software a producir.
    • Se debe poder contar antes de que empiece el desarrollo.
    • El conteo debe producir una media estadísticamente significativa.
    • Contar las piezas debe requerir poco esfuerzo.

Algunos ejemplos de piezas útiles:

      • Casos de Uso
      • Historias de Usuario
      • Peticiones de Cambio
      • Tablas en Base de Datos
      • Reglas de Negocio
      • Clases
      • Servicios Back-End
      • Fragmentos del Front-End
      • Formularios
      • Páginas Web Completas.
      • Informes
      • Archivos de configuración
      • Casos de Prueba

A cada pieza se le asignará un tamaño o complejidad, es decir, podemos hablar, por ejemplo, de formularios simples (2-4 campos) medios (4-12 campos) y complejos (+12 campos).

A cada pieza se le asignará una medida del esfuerzo requerido para fabricarla llamada story points. Los story points son una estimación del esfuerzo independiente de los factores que afectan a la productividad. Están fuertemente correlacionados con el número de horas necesarias para producir la pieza, pero no son horas. Los story points sirven para desacoplar la estimación de esfuerzo de la cantidad de tiempo requerido, por ejemplo, digamos que para cavar una piscina de 8×4×2 metros hay que sacar 64m³ de tierra, eso serían los story points: 64. Luego el tiempo necesario para cavarla depende de si lo haces a pico y pala o cuentas con una excavadora.

Además, los story points sirven para medir la productividad. En un equipo de trabaja mejorando contínuamente sus habilidades, procesos y herramientas la tendencia que se debe observar es hacia el incremento de número de story points producidos por semana. Es decir, con las mismas horas de trabajo se espera que el equipo tienda a producir más valor con el paso del tiempo.

Aquí definiremos por convenio un story point cómo la unidad atómica de trabajo que no puede ser subdividida con propósitos de estimación. Grosso modo, un story point equivale a entre dos y cuatro horas de trabajo, ya que es prácticamente imposible realizar ningún cambio aunque sea algo tan trivial cómo cambiar dos líneas en un fichero de configuración en menos tiempo si se tiene en cuenta el tiempo necesario para leer y entender el cambio requerido, verificar que ha funcionado y procesar la burocracia asociada a la petición de cambio.

Luego en resumen el método de estimación de esfuerzo consiste en listar las funcionalidades de producto, para cada funcionalidad enumerar las piezas que requiere y a cada pieza asignarle una cantidad de story points. Esto es lo que hace el siguiente Excel de ejemplo:

Plantilla de Estimacion de Esfuerzo de Desarrollo de Software

Estimaciones de alto nivel

Al principio de todo es posible que no se pueda hacer un escandallo porque las piezas que se requerirán son aún desconocidas. En primera aproximación, una cosa que se puede hacer se conoce cómo t-shirt sizing (a mi me gusta más llamarlo cake sizing). La idea es muy sencilla: a cada funcionalidad se le asigna una categoría de complejidad a ojo de buen cubero: minúscula, muy pequeña, pequeña, mediana, grande, muy grande, enorme. Cada categoría se correlaciona con un número de story points.

El proceso de Estimación Wideband Delphi

Una forma de asignar story points a las funcionalidades es el poker planning el cual consiste en que los técnicos se reunen y literalmente apuestan cuanto esfuerzo va a requerir una funcionalidad. Este método presenta varios inconvenientes. En primer lugar no es sistemático debido a que usa juicios ad hoc en lugar de contar piezas. Además, se sabe que la estimación de uno de los técnicos puede influenciar la de los otros. Es posible que un miembro del equipo sea más respetado y por ello su opinión subjetiva tenga más peso que los juicios objetivos de otros miembros del equipo, o puede que en cuanto un miembro haya hecho una estimación los otros tiendan a llegar precipitadamente a un consenso. Por estos motivos Boehm propuso en 1981 lo que denominó Wideband Delphi Estimation Process cuya técnica es la siguiente:

1. Se selecciona un pequeño grupo de personas para hacer cada estimacion.
2. Se designa un coordinador delphi para cada estimación.
3. El coordinador pide que cada miembro haga estimaciones independientemente.
4. El coordinador recopila las estimaciones y las consolida.
5. Durante la consolidación, el coordinador puede descartar estimaciones que están claramente desencaminadas.
6. El coordinador convoca una reunión para acordar con los miembros del equipo la estimación final.

Calibrado

Debido a la incertidumbre inicial en las estimaciones y a que la estimación se genera de forma independiente de la cantidad de horas necesarias, es necesario calibrar el modelo que se use de dos formas. Primera hay que tener alguna métrica del márgen de error en las estimaciones. Esto requiere de algunas matemáticas que me voy a llevar a un apéndice para no fastidiar al lector no técnico ni a aquellos sin ganas de leer sobre principios estadísticos sobre la marcha. Y la segunda es una correspondencia entre story points y horas/hombre que debería ser actualizada en cada iteración.

Conclusión

Para producir estimaciones consistentes a través de las iteraciones se requiere un método sistemático y repetible.

Este método puede ser un proceso Wideband Delphi que produce story points asignados para cada funcionalidad.

Proceso de Estimación

Apéndice A: Checklist de Estimación

  • ¿Está claramente definido lo que se está estimando?
  • ¿Incluye la estimación todos los tipos de desarrollo necesarios para completar la funcionalidad?
  • ¿Incluye la estimación todas las áreas funcionales?
  • ¿Tiene en cuenta la estimación los requerimientos de seguridad, auditoría y rendimiento?
  • ¿Tiene la estimación suficiente nivel de detalle cómo para no esconder ningún trabajo inesperado?
  • ¿Están los miembros del equipo que tendrá que implementar de acuerdo con la estimación?
  • ¿La estimación es para software nuevo o para modificar otro existente?
  • ¿Se asume que la productividad será similar a aquella en otros desarrollos comparables en las mismas condiciones?
  • ¿Incluye la estimación un peor caso, caso medio y peor caso?
  • ¿Es el peor caso realmente lo peor que puede pasar con alguna probabilidad?
  • ¿Se han documentado todos los prerrequisitos, restricciones y asunciones?
  • ¿Ha cambiado el entorno desde que se hizo la estimación?
  • ¿Están los recursos humanos necesarios suficientemente asignados y comprometidos?

Apéndice B: Agregados y medidas de error

Para hacer planificación de un proyecto se necesita algo más que las estimaciones individuales. También hay que poder:

1. Agregarlas.
2. Hacer un análisis PERT.
3. Estimar el márgen de error.

Ninguna de esas es trivial. No es buena idea simplemente sumar todas las estimaciones, la razón es que para cada estimación existe (o debería existir) un mejor caso, un caso medio y un peor caso; medidos en story points. Para crear un sumatorio significativo hay que tener en cuenta la desviación típica, una medida de la variación de un conjunto de datos numéricos que no tengo espacio para explicar aquí. De modo que lo voy a resumir a tope con una receta.

Para menos de diez estimaciones, lo mejor es tomar el mejor caso y el peor caso para un cálculo aproximado de la desviación típica hecho de la siguiente forma:

Desviacion Típica = (Suma de los peores casos – Suma de los mejores casos) / D

Donde D es un divisor tomado según la siguiente tabla:

Si el esfuerzo real está dentro del rango estimado al menos un X % de las veces Entonces tomar el dividor D cómo
20% 0,51
40% 1
50% 1,4
60% 1,7
70% 2,1
80% 2,6
90% 3,3
99% 6

La desviación típica se puede utilizar para calcular la probabilidad de que el esfuerzo real sea mayor o menor que el estimado.

Un X % de las veces El esfuerzo real será menor o igual que
2% Estimación – (2 × Desviación Típica)
10% Estimación – (1,28 × Desviación Típica)
16% Estimación – (1 × Desviación Típica)
20% Estimación – (0,84 × Desviación Típica)
25% Estimación – (0,67 × Desviación Típica)
30% Estimación – (0,52 × Desviación Típica)
40% Estimación – (0,25 × Desviación Típica)
50% Estimación
60% Estimación + (0,25 × Desviación Típica)
70% Estimación + (0,52 × Desviación Típica)
75% Estimación + (0,67 × Desviación Típica)
80% Estimación + (0,84 × Desviación Típica)
84% Estimación + (1 × Desviación Típica)
90% Estimación + (1,28 × Desviación Típica)
98% Estimación + (2 × Desviación Típica)

Las estimaciones de desviación sobre las estimaciones, sirven para introducir buffers de seguridad los cuales pueden introducirse a nivel de funcionalidad o por camino crítico de proyecto usando PERT, una técnica fuera del ámbito de este artículo.

Apéndice C: Herramientas de estimación

La lista de herramientas de estimación en Wikipedia es sorprendentemente corta y ni siquera incluye algunas herramientas relativamente conocidas cómo SystemStar. Ahsta dónde yo sé, todo el mundo que conozco usa bien algo encima de JIRA bien Excel. O algunos herramientas propias.

Apéndice D: Otros métodos de estimación

El método propuesto aquí no es para nada el único posible para estimar. De los métodos alternativos voy a citar sin explicarlos sólo tres para el lector interesado en leer más: Putman’s Software LIfecycle Management, COCOMO, y Puntos Función IFPUG. COCOMO require, a mi juicio, un nivel de madurez en la recolección y explotación de datos que la mayoría de las organizaciones simplemente no alcanzan. Respecto de los Puntos Función yo creo que están obsoletos. Los Puntos Función se inventaron para estimar el esfuerzo de procesos batch que convertían datos de entrada en datos de salida. Entonces la complejidad del proceso es bastante bien aproximada por la complejidad de las entradas y las salidas. Pero los puntos función no se inventaron originalmente para estimar el esfuerzo de interfaces de usuario complicados e interactivos cómo los que existen en la mayoría de las aplicaciones.

Post relacionado: Cómo sobrevivir a las estimaciones de software

Compartir:

  • Twitter
  • Meneame
  • Facebook
  • Google Bookmarks
Publicado en Organizando la Comunidad. Modelos de Desarrollo | 2 comentarios

Qué hacer cuando una situación parece desesperada

Iba a tirar este artículo a la basura. La razón es le pedí a alguien que lo leyera y me diese su opinión antes de publicarlo. Me dijo que sólo es un «puñado de vaguedades contradictorias evidentemente copiadas de Internet sin ninguna historia ni aporte personal de los que le gustan a la gente». Pero, a reglón seguido de decir eso, el crítico recibió una llamada de teléfono y se puso a pegarle gritos a su interlocutor. Creo que hablar de uno mismo es pedantería pues, parafraseando a Andy Warhol, todos tenemos nuestros quince minutos de heroísmo. De modo, que, sin hablar de mi mismo, voy a dejar el texto original cómo estaba, y no es copiado de Internet.

Todos nos enfrentamos en algún momento de la vida a una situación cuyo desenlace fatídico parece inevitable. No obstante lo cual, se sabe y está más que comprobado que los milagros existen. En este post enumero doce cosas que pueden hacer posible que nos suceda un milagro.

1. Mantén la calma. Sea lo que sea que te esté sucediendo, el primer requisito para salir airoso de la situación es mantener la serenidad necesaria. Si entras en pánico no podrás pensar con claridad y si no piensas no encontrarás la solución.

2. Deja de cavar hacia abajo. Para salir de un pozo al que te has caído hay que empezar dejando de cavar hacia abajo. Esto parece obvio, pero es muchísima la gente quien, por ejemplo, paga una deuda económica contrayendo otra aún peor. O siente una deuda emocional y entonces bebe pero el alcohol les priva de la capacidad para lograr el cambio que necesitan en su vida.

3. Apaga la verborrea mental. La imaginación no sirve para ver el mundo cómo es, sino cómo podría ser. Esta es una habilidad fantástica de los humanos, pero asimismo una terrible maldición cuando nuestra mente se llena de pensamientos obsesivos sobre futuros horripilantes. Infórmate bien y limítate a clarificar los hechos objetivamente verificables sin contarte historias especulativas a ti mismo. Luego puedes salir a correr en zapatillas de deporte o meditar o hacer cualquier otra actividad que te mantenga saludablemente ocupado en el tiempo de espera durante el que no puedes hacer nada.

4. No te precipites. Un elevado porcentaje de resultados catastróficos en situaciones difíciles son consecuencia de la precipitación. Sobre todo cuando la dinámica involucra a una parte contraria para quien el tiempo juega en su contra y no quiere que nos demos cuenta de ello. Todas las personas sentimos antes de pensar. Esto es debido a que la parte más primitiva del cerebro responde más rápidamente a los estímulos que el neocórtex. Aunque las emociones tienen una utilidad, en momentos complicados nos inducen con frecuencia a tomar decisiones incorrectas.

5. O todo lo contrario, ¡actúa inmediatamente!. A veces no es demasiado tarde ni está todo perdido. Deja de procastinar. Una acción audaz y rápida puede salvar el día. En muchas ocasiones la solución es más sencilla de lo que nos imaginamos. Sólo hay que intentarlo.

6. Pide ayuda. Los supervivientes judíos a la persecución nazi cuentan que la probabilidad de sobrevivir al holocausto es proporcional a la cantidad de gente que conoces quienes te esconderían en su casa si lo necesitas. El orgullo y la necesidad de aceptación social son muy malos compañeros para superar una crisis. Si no puedes conseguir una gran ayuda, empieza por solicitar una pequeña ayuda. Esto es por dos motivos: primero porque solucionar parte de un problema ya es un avance, y segundo porque las personas tienen tendencia a seguir ayudando en mayor medida cuando ya han ayudado previamente aunque sea un solo un poco.

7. Compórtate como si estuvieses ganando. Una de las cosas que distingue un equipo deportivo bueno de otro totalmente excepcional es la capacidad de sus jugadores para continuar un partido que van perdiendo por goleada jugando como si estuviesen empatados e intentando llevar la delantera. Cuando las cosas te estén saliendo mal finge y sigue comportándote cómo si te estuviesen saliendo bien hasta que efectivamente te salgan bien.

8. Sal corriendo y no mires atrás. Un cobarde sirve para dos guerras. Un héroe casi siempre es lo mismo que un bocadillo de carne picada.

9. Haz que crean que estás totalmente chiflado. Los negociadores profesionales se basan en la teoría de juegos de John Forbes Nash. Según esta teoría el juego termina cuando se alcanza el equilibrio que es la situación en la que ninguna de las partes tiene nada que ganar con un movimiento adicional. El problema es cuando el equilibrio es que la otra parte gana todo y tu lo pierdes todo. Es la táctica del prófugo que, viéndose rodeado, saca una granada y grita: “¡volaremos todos!”.

10. Quema tus naves. Como cuentan algunos historiadores que hizo Alejandro Magno en el siglo III antes de Cristo en la costa Fenicia o Hernán Cortés en 1519 para evitar cualquier fuga de los hombres que no secundaban su rebelión contra el gobernador de Cuba.

11. Continúa con disciplina. En una pared leí en cierta ocasión que el éxito es continuar donde otros abandonaron. A veces lo único que uno tiene que hacer es mantenerse en pie parando golpes con la cara como hacía Rocky Balboa. Los que simplemente siguen andando y andando irremediablemente llegan a un lugar en el que miran a su alrededor y se dan cuenta de que es el único que queda en pie.

12. Nunca pierdas la fe. La fe es una creencia que no está sustentada en pruebas. O más bien yo diría una seguridad que contradice todos los indicios aparentes. La fe existe por un motivo y es que se sabe que mueve montañas.

Por último, me gustaría añadir que cuando uno está eligiendo compañeros de viaje para cualquier empresa lo más importante en lo que hay que fijarse es en los valores de la otra persona, porque cuando la cosa se ponga fea, y siempre se pone muy fea en algún momento, lo único que quedará e importará de esa persona es su integridad y su grado de compromiso.

Compartir:
  • Twitter
  • Meneame
  • Facebook
  • Google Bookmarks
Publicado en Mitos, arquetipos y filosofía | Deja un comentario

Facebook podría convertirse en el mayor banco central del mundo

Se van acumulando los rumores de que Facebook está preparando el lanzamiento de su propia criptomoneda. El New York Times publicó un artículo en febrero diciendo que Facebook seguiría los pasos de Telegram, que tras su I.C.O. (Initial Coin Offering) de 1.200 millones de dólares consiguió una ronda de financiación de 850 millones de dólares y tiene en curso otras dos por otros 850 cada una.

En breve entraré en los pocos detalles conocidos de los planes de Telegram y Facebook. Pero lo fundamental es que si Facebook hace una I.C.O. exitosa entre sus 2.700 millones de usuarios (combinando Facebook, Instagram y Snapchat) podría convertirse en poco tiempo en el banco central más grande del mundo ya que Facebook dispondría de una ingente cantidad de criptomonedas respaldadas en todo tipo de divisas y eso es, en el fondo, lo que hacen los bancos centrales: emitir moneda respaldada en reservas de divisas.

Cada vez que aparece un invento útil se deben cumplir al menos cinco requisitos para que llegue al mercado de consumo masivo:

  1. Que funcione lo bastante bien
  2. Que sea lo suficientemente asequible
  3. Que no haya fricción en la adopción
  4. Que se produzca un “efecto llamada” desde los usuarios existentes a los nuevos
  5. Que sea legal

El freno a la expansión de las criptomonedas ha sido causado por su deficiente cumplimiento de estos requisitos. (1) Existen muchas tecnologías similares pero incompatibles entre ellas (algo así cómo lo que sucedió durante la guerra de los formatos en los reproductores de video en los 70). (2) Para los usuarios es peligroso tener criptomonedas debido a su altísima volatilidad. (3) Es demasiado difícil para el usuario medio conseguir una cartera de Bitcoin o cualquier otra crypto. (4) Las cuantiosas pérdidas de los inversores ingénuos en la burbuja y la altísima volatilidad han causado que las criptomonedas no sean un buen refugio cómo el oro (5) Cada vez hay más leyes que requieren la identificación de las partes intervinientes en una transacción con criptomonedas lo cual desvirtua el uso original para el que fueron creadas: la tenencia y transferencia anónima de riqueza.

Facebook podría sortear de un plumazo todos estos obstáculos dando paso a una nueva era en el comercio. No sólo podrían convertir en irrelevantes a los bancos para las transacciones de compra/venta de pequeña cuantía y a los servicios cómo Western Union para las remesas de dinero , sino que también podrían desintermediar a los emisores de tarjetas cómo VISA y MasterCard. Por poner sólo un ejemplo de la escala, según el Banco Mundial, los hindues residentes fuera de India enviaron en 2017 70.000 millones de dólares a su pais de origen.

Facebook podría crear un stablecoin, un tipo de criptomoneda que, a diferencia de Bitcoin, no cambia de valor rápidamente debido a que está respaldada por un fondo de divisas (tipicamente dólares americanos,  euros, francos suizos y otras) y, además, no existen más criptomonedas que divisas.

Según los rumores, Facebook se está tomando el proyecto muy en serio, con el ex-presidente de PayPal David Marcus en nómina a la cabeza en el más riguroso secreto.

Personalmente, opino que el impacto de que Facebook lance una criptomoneda difícilmente puede sobrevalorarse. No sólo por su grado de disrupción sino por sus consecuencias potenciales para Facebook. Ya de un tiempo a esta parte hay quienes andan haciendo lobby en el Congreso Estadounidense para que a Facebook se le apliquen leyes antimonopolio similares a las que se impusieron a AT&T (léase, por ejmplo, Zucked) . Además, existe una incompatibilidad fundamental entre el anonimato que proporciona valor fundamental a las criptomenedas y el espionaje sistemático a ultranza de Facebook.

La oportunidad en criptomonedas es tan grande que por supuesto habrá muchos competidores además de Facebook. Otras aplicaciones de chat tales cómo Kik, LINE, Kakao y Status bien tienen planes cripto bien han hecho ya ICOs por centenares de millones de dólares. En febrero de 2018 Forbes calificó la ICO de Telegram cómo la madre de todos los timos. Pero hay que tener en cuenta de que Telegram hizo la clásica ICO de moneda creada a partir de la nada, a diferencia de lo que sería el hipotético stablecoin de Facebook. Sobre la tecnología de Telegram, se ha llegado también a escribir que es 600 millones de toneladas de mierda por motivos demasiado técnicos para detallarlos aquí. Pero es asimismo dudoso que Facebook produzca una mierda cómo el Empire State Building, o, al menos, no es eso a lo que nos tiene acostumbrados.

No obstante todo lo anterior, veo dos grandes obstáculos para Facebook. El primero es que la nueva moneda «Facebook Libra» parece orientada en gran parte a países en vías de desarrollo. En estos países la gente que recibe remesas lo que necesita es dinero en efectivo para pagar gastos corrientes en metálico. Y para eso una cuenta en criptomonedas de Facebook es inútil. El segundo obstáculo es que la creación de una moneda parece más un movimiento de supervivencia que una expansión natural del modelo de negocio. Facebook tiene un serio problema de relevancia. Google es lo que los usuarios necesitan para encontrar cosas online. Amazon se ha convertido para algunos en una comodidad irrenunciable a la hora de pedir paquetes enviados a casa o a un punto de recogida. Pero ¿qué necesidad satisface Facebook? La red social se ha convertido en el último recurso contra el aburrimiento. Su base de usuarios está estancada o decrece (según la zona geográfica que se considere). Facebook necesita algo con lo que apalancarse en las aplicaciones de uso imprescindible para los usuarios.

 

 

Compartir:
  • Twitter
  • Meneame
  • Facebook
  • Google Bookmarks
Publicado en Criptomonedas | Deja un comentario

El boom de los asistentes de voz y sus implicaciones

 Hace unos días me encontré un vídeo de Xabi Uribe-Etxebarría acerca de los asistentes de voz y Sherpa. En realidad, discrepo con la tesis fundamental del vídeo afirmando que los asistentes de voz llegarán a ser cómo nuestra conciencia (luego contaré mis razones) pero el vídeo me impresionó igualmente y la evolución última de los asistentes no los hace menos útiles hoy, ni tampoco resta su capacidad expansión desde que vienen pre-instalados en los smartphones. Tanto Google cómo Amazon se enzarzaron en 2018 en agresivas campañas navideñas abaratando precios para colocar centenares de millones de dispositivos Echo y Google Home en los hogares.
Cómo en otros artículos anteriores, voy a empezar comentando lo menos técnico y más asequible para todos los públicos e iré profundizando paulatinamente en la tecnología para que cada cual pueda abandonar la lectura cuando prefiera.

Penetración de los asistentes de voz

Vayamos primero con las cifras. Un informe de Kantar and Sonar estima que actualmente 600 millones de personas usan un asistente de voz al menos una vez por semana. Estados Unidos, Alemania y España llevan la delantera en cifras de penetración.

Amazon declaró a finales de 2018 que había vendido en total más de 100 millones de dispositivos Echo, se estima que Googe lleva vendidos 52 millones de dispositivos Google Home y hay más de otros 100 millones de Baidu DuerOS en Oriente.

Las cuotas de mercado podría variar según vayan entrando en el mercado nuevos competidores, pero lo que parece claro es que el porcentaje de gente usando asistentes de voz sigue aumentando vertiginosamente.

Para qué se usan los asistentes de voz

Yo soy un escéptico tecnológico. Por consiguiente, todavía no he conseguido entusiasmarme con ningún uso de los asistentes de voz pues creo que son cómo las apps que informan sobre el tiempo, que la gente se ha acostumbrado a usar porque han perdido la capacidad de evaluar las condiciones meteorológicas mirando por la ventana. Sin embargo, las navidades pasadas tuve una epifanía: mi tío cogió su iPad y le preguntó de viva voz: “¿pueden los jilgueros vivir en cautividad?” Mi tío tiene acento andaluz ergo la consulta sonó más bien cómo: “¿pueden lo hilguero viví en cautividá?” Estaba esperando a que me pidiese ayuda pero, sorprendentemente para mi, encontró lo que buscaba sin dificultad. Me sorprendí porque, según una encuesta sobre asistentes de voz con 1.000 personas en Gran Bretaña, casi la mitad de los británicos reciben respuestas extrañas porque el asistente de voz no entiende su acento. Descubrir esto me hizo sentirme menos culpable de mis limitaciones para entender el inglés oriundo de ciertos condados.

La anécdota no es puntual. La mayoría de las interacciones con los asistentes de voz son para buscar información en Internet o hacer preguntas sobre productos o sobre cómo llegar a un sitio. Con la particularidad de que el primer resultado de la consulta es probablemente el único que el usuario tendrá en consideración.

Fuente: Kantar & Sonar

Aunque se intuye que hay una buena oportunidad para el comercio electrónico la tendencia hacia el aumento de compras mediante interfaces de voz aún no está del todo clara. Un informe de Accenture afirma que al 60% de los británicos que tienen un Echo le gustaría usarlo para comprar, pero sólo el 7% ha hecho alguna compra mediante el interfaz de voz. También existen evidencias de que los interfaces de voz promueven el up selling y las compras recurrentes, cosa que no es de extrañar, ya que cualquier interfaz que facilite el proceso de compra y lo haga más ubicuo tendrá sin duda el efecto de incrementar las ventas.

Por el momento, los colectivos que parecen mejor público objetivo para los asistentes de voz son cuatro: 1) adultos ocupados con tareas, 2) niños que aún no han aprendido a leer bien, 3) personas mayores con dificultades para ver bien las letras en un smartphone y dificultades para entender cómo se usan las aplicaciones y 4) personas con discapacidad visual.

El 25% de los usuarios se llevan el loro a la cama, lo cual adivino que es para que les despierte en la mañana. El 15% lo usan para mantener a sus hijos entretenidos.

Fuera de casa, el uso más común de los asistentes de voz que llevan los smartphones es en el automóvil.

El mayor obstáculo para la penetración es que la gente intenta evitar el uso los asistentes de voz en público.

Para qué no sirven los asistentes de voz

Algunos tienen la visión de los asistentes de voz cómo sistemas que eventualmente evolucionarán hacia convertirse en un eficiente ayudante para completar las necesarias tareas contextuales en nuestra vida diaria. Yo personalmente opino que esa creencia está basada en un entendimiento erróneo de lo que es la inteligencia artificial en realidad.

Voy a exponer lo que es en el fondo la I.A. con la mayor brevedad que me es posible.

Consideremos la siguiente tabla de valores:

x y
3 5
8 10
14 16
37 39

Hasta un niño preescolar conocedor sólo los rudimentos más básicos de la aritmética podría darse cuenta de que la tabla contiene los valores de una función f(x) tal que f(x)=x+2 Eso es en esencia lo que hace la inteligencia artificial, averigua cual es la función que convierte los valores de la columna de la izquierda en valores de la columna de la derecha. Lo que sucede es que los datos pueden ser infinitamente más complicados. Sólo por poner un ejemplo: supongamos que estamos intentando hallar el significado de una frase de cinco palabras sobre un vocabulario de veinte mil palabras. Entonces la cantidad de frases posibles es 3,2 × 10²¹ muchas de ellas sin significado, o con un significado que no se puede desambiguar.

La inteligencia artificial, actualmente, no comprende ni razona, ni entiende el significado real ni mucho menos es capaz de aconsejarnos sabiamente. Sólo identifica patrones y encuentra relaciones.

He escrito en un post anterior sobre los desafíos de la incertidumbre en el lenguaje natural. Sería estupendo si pudiésemos decir:

— “Alexa, si hay tráfico en la Autopista Tres envía un correo electrónico a los asistentes de mi próxima reunión avisándoles que llegaré quince minutos tarde”.

Muy bien pero ¿Cual es el umbral de intensidad del tráfico tiene que haber en la Autopista Tres (medido en cantidad de vehículos por hora que pasan por un punto) para que Alexa ejecute este mandato? ¿Y qué sucede si el tráfico aumenta súbitamente debido a un accidente cuando el conductor ya ha rebasado el lugar del accidente? Lo que la máquina debería entender es realmente cual es nuestra intención y reinterpretar lo anterior en algo así cómo:

— “Alexa, monitoriza constantemente mi posición GPS durante los próximos treinta minutos y si calculas que voy a llegar más de cinco minutos tarde a mi reunión de las nueve entonces envía un correo electrónico a los asistentes a la reunión [de las nueve] avisándoles de mi retraso estimado”.

Hay incluso quienes sugieren que los asistentes de voz deberían llamar a la policía automáticamente si detectan que se está produciendo un crimen.

Además, cómo explica María del Carmen Martínez Carrillo en sus artículos Knowledge and Conversation y Repair Sequences existen muchos problemas abiertos en las conversaciones hombre-máquina; cómo el que los humanos a menudo expresan sus deseos indirectamente con frases del estilo:

— “¿Tienes apuntes de la clase del viernes?
cuando realmente quieren decir
— “¿Puedes prestarme tus apuntes de la clase del viernes?”.

O también que en las conversaciones en lenguaje natural se producen muchos errores que los interlocutores reparan sobre la marcha:

— “¿Sabes dónde está esa cervecería en la cual venden cervezas a 50€?
— “¿Quieres decir cervezas a 50¢?

Es posible entrenar a la inteligencia artificial para que sea sensible al contexto y pueda seguir la secuencia de la conversación. Por ejemplo, con una pregunta:

— “¿Quién fue el undécimo presidente de Estados Unidos?
seguida de otra pregunta
— “¿Entre qué años gobernó ese señor?

y que el asistente entienda que “ese señor” se refiere a James Knox Polk. Hoy en día Google puede hacer esto, Siri todavía no.

Falta aún un largo camino por recorrer. Las utilidades existentes actualmente son en el fondo sólo sofisticados reconocedores de patrones y el modelo de desarrollo no es escalable para manejar conversaciones (en el apartado dedicado a la tecnología utilizada por los asistentes de voz explicaré por qué). Hay decenas de miles de aplicaciones a medida para Alexa (conocidas cómo Skills) pero más de la mitad de las carecen de evaluaciones de usuario, menos de diez tienen más de mil evaluaciones y diez de las quince primeras en el ranking sirven para reproducir música ambiente gracias a que alguien tuvo la fantástica idea de que además de aceptar comandos de voz los asistentes contasen con altavoces de calidad.

En los próximos años asistiremos a una mejora vertiginosa en los interfaces de lenguaje natural porque el número de patrones es grande pero no infinito y porque al proporcionar herramientas cómo el Skills de Alexa los proveedores podrán aprovecharse del crowsourcing para mejorar el entendimiento de la máquina y sus respuestas interactivas.

¿Nos espían constantemente los asistentes de voz?

Por ahora, los asistentes de voz no nos espían todo el tiempo pero lo harán. Actualmente, los asistentes escuchan permanentemente en busca de una frase de inicio cómo “OK Google” o “Hey Cortana” A partir de ese momento empiezan a enviar toda la conversación que sigue a un servicio de grabación y análisis en la nube en el cual es posible revisar y eliminar conversaciones grabadas. No obstante, tanto Amazon cómo Google han solicitado sendas patentes de algoritmos que identifican palabras clave e inician un análisis de lo que se está diciendo para detectar oportunidades comerciales. Conversaciones cómo “Cariño, recuerda que el mes que viene caduca el seguro del coche y hay que renovarlo” son oro puro para los departamentos comerciales de las aseguradoras.

Incluso ya han empezado a aparecer los equivalentes de los bloqueadores de anuncios y rastreadores web cómo Project Alias, un «parásito» Open Source DIY basado en Raspberri Pi que impide a Amazon Echo o Google Home escuchar cuando no están siendo utilizados.

Project Alias

Google Home con un parásito Alias impreso en 3D

En Estados Unidos hay al menos un caso conocido, en el cual la policía solicitó las grabaciones de un asistente de voz para investigar un crimen. Finalmente el asunto se resolvió porque el sospechoso accedió voluntariamente a permitir el acceso policial a las grabaciones. Pero eso no sienta ningún precedente legal en cuanto a si Amazon o Google deberían entregar la información de que disponen a las autoridades ante la sospecha de una vulneración de la ley. También hay otro caso, por cierto, en que la policía solicitó las lecturas de un medidor de agua para investigar si la escena de un crimen había sido lavada con anterioridad a informar sobre lo sucedido.

De un tiempo a esta parte, las empresas dominantes en software web y móvil han demostrado sistemáticamente su total falta de respeto por la privacidad de los usuarios. Los sucesivos escándalos en Facebook han enmascarado que Google y Amazon y todos los que pueden hacen el mismo uso y abuso de tanta información cómo puedan recabar sobre los usuarios.

¿Pueden los asistentes de voz ser perniciosos para los niños?

El efecto que los asistentes de voz pueden tener en el comportamiento y desarrollo infantil es aún desconocido. Las preocupaciones varían desde temer que el niño atribuya rasgos antropomórficos al dispositivo hasta que el niño piense que Alexa es un dios todopoderoso.

Algunos padres se quejaron de que los asistentes no requieren ser tratados con amabilidad y esto podría fomentar el uso de lenguaje abusivo. La respuesta de Amazon y Google fue crear “palabras mágicas” que proporcionan refuerzos positivos al usuario cuando dice “por favor” y otras expresiones de cortesía.

Otra cuestión abierta es que los padres querrán que los asistentes de voz den respuestas diferentes a los niños de las que les darían si fuesen adultos. Por ejemplo, supongamos que un niño de 4 años pregunta: «Alexa ¿quién es Papá Noel?«.

¿Pueden los asistentes de voz ser sexistas?

Creo que hoy en día es imposible tratar ningún tema sin que aparezca la cuestión de género. Los asistentes de voz están en la picota por fomentar presuntamente actitudes machistas. ¿La razón? Pues simplemente porque tienen voz de mujer. Durante las pruebas con usuarios, todas las empresas cómo Amazon, Apple, Google o Microsoft probaron voces femeninas, masculinas y neutras (técnicamente es posible sintetizar una voz en la que no se pueda identificar claramente el género). Los usuarios de prueba expresaron mayoritariamente su preferencia por las voces femeninas y cómo consecuencia las empresas le pusieron a los asistentes voz de mujer. La explicación es que se identifica un asistente de voz con una diligente secretaria o una abnegada esposa que organiza el día y se ocupa de las tareas contextuales. Sin embargo, IBM le puso voz masculina a su sistema experto de diagnóstico médico basado en Watson y le hizo hablar con frases cortas y asertivas. En este caso por la imagen de un médico es eminentemente una figura masculina que hable con frases cortas y asertivas.

Cuales son las tecnologías en las que se basan los asistentes de voz

La primera versión de Dragon NaturallySpeaking capaz de convertir un dictado continuo de voz a texto data de 1997. Siri ha estado entre nosotros desde el iPhone 4S lanzado en 2011 con tecnología proveniente de Nuance.

Para que los asistentes domésticos de voz pudieran convertirse en un artículo de consumo masivo se requería la convergencia de cuatro tecnologías:

• Micrófonos de campo lejano cómo los que llevan Google Home y Amazon Echo capaces de separar la voz del ruido de fondo. Incluyendo no sólo el hardware, que no es ninguna novedad, sino también nuevos algoritmos para discernir y seguir la voz por una habitación.
• Suficiente ancho de banda, el cual se ha expandido en los hogares gracias a la fibra óptica y LTE.
• Capacidad de procesamiento en la nube.
• Inteligencia artificial para el procesamiento de lenguaje natural (NLP).

También se necesitan, por supuesto, los servicios que utiliza el asistente, evidentemente las capacidades de búsqueda de Google Home no existirían si no estuviese el buscador de Google por detrás.

Conversión de voz a texto

Los primeros reconocedores de voz estaban basados en Modelos Ocultos de Márkov (HMM) y necesitaban horas de entrenamiento antes de poder reconocer bien la voz del usuario. A partir de 2009 empezaron a usarse las redes neuronales profundas (DNN) para el reconocimiento de voz. Entre lo más novedoso a fecha de este artículo en redes neuronales está la línea de investigación en Deep Jointly-Informed Neural Networks (DJINN).

Reconocimiento de emociones en la voz

Otra característica técnica que pueden incorporar los asistentes de voz son los Hybrid Emotion Inference Models (HEIM). Se trata de un modelo de machine learning que combina asignación latente de Dirichlet (LDA) para detectar temas en un texto y memoria bi-direccional y multi-dimensional de largo a corto plazo (LSTM) para identificar las emociones a través de las características acústicas de la voz. Es decir, el HEIM detecta de qué estamos hablando y cual es nuestro estado emocional sobre el asunto.

Aplicaciones para crear chatbots

Existen decenas de herramientas para crear chatbots. Por citar sólo las más conocidas Alexa Skills Kit, Amazon Lex, DialogFlow, Microsft Bot Framework, Watson Assistant.

Por cuestión de espacio, aquí voy a recorrer sólo Alexa Skills Kit.

La diferencia principal entre Alexa Skills Kit y Amazon Lex es que Skills está específicamente ligado a Amazon Echo y Alexa mientras que Lex soporta tanto voz cómo texto y permite ser desplegado en smartphones y aplicaciones de mensajería.

Un custom skill para Alexa está compuesto de cuatro partes:

  1. Invocation (invocación)
  2. Utterance (declaración)
  3. Intents (intención)
  4. Slots (entidades)

La invocación simplemente la palabra clave “Alexa” con la que se inicia el diálogo.

La declaración es la frase enunciada por el usuario, por ejemplo “cuéntame cual es el tiempo previsto para el veintiséis de mayo en Pernambuco”.

La intención es la descripción de acciones que la máquina debe emprender en respuesta a la declaración, cómo empezar a hablar de la temperatura, humedad, etc.

Las entidades representan información específica en la declaración relevante para elegir la intención correcta, en este caso se indica que de todos los días y lugares posibles se requiere sólo la predicción para el veintiséis de mayo en un estado brasileño.

No es necesario especificar todas las variantes de la declaración, Alexa se encarga de ello, pero aún así es fácil intuir que este mapeo de declaraciones a intenciones no es práctico para definir flujos en diálogos largos y complejos cómo puede apreciarse en el siguiente ejemplo de diálogo para pedir un servicio de Uber.

Uber Ordering Dialog Flow

Fuente PolyAI

El modelo es demasiado simple, y Amazon lo ha intentado hacer aún más fácil con la introducción de los Alexa Blueprints que son plantillas para crear cosas como un juego de preguntas y respuestas o un cuestionario.

Procesamiento de Lenguaje Natural (NLP)

Existen innumerables start-ups que están intentado ir más allá del reconocimiento de patrones y palabras clave para dar autentico significado a las frases del usuario. Además de las empresas cómo MeaningCloud que llevan décadas con esa misión.

El proceso (hasta dónde yo sé) consiste básicamente en lo siguiente:

  • Preproceso.
    1. Identificar el idioma.
    2. Separar las palabras. Cada idioma tiene necesidades específicas. Por ejemplo, en alemán hay que descomponer las palabras cómo «freitagmorgen» que significa viernes por la mañana. También se aplican otras técnicas que no detallaré aquí tales cómo la lematización y el stemming para reducir el número de palabras.
    3. Separar las frases.
  • Macro entendimiento.
    1. Categorizar el contenido. Por función, intención, propósito, área temática, sentimiento o cualquier otra categoría que se considere relevante.
    2. Agrupar el contenido. Para identificar los temas principales del discurso y/o descubrir nuevos temas y similaridades entre textos.
    3. Evaluar el sentimiento general
  • Micro entendimiento.
    1. Extraer las entidades. Nombres de personas y empresas, acrónimos, cantidades numéricas, palabras clave, etc.
    2. Crear listas. Por ejemplo cuando se citan varias ciudades.
    3. Extraer hechos. Que se puedan almacenar en una base de datos de forma estructurada.
    4. Establecer relaciones entre los hechos.
    5. Imputar sentimientos a las entidades.
    6. Atribuir frases a personas. Quién dijo qué.
    7. Resolver referencias. ¿A qué persona mencionada previamente se refiere el pronombre «ella»?

Para el micro entendimiento existen básicamente tres estrategias:

  1. De arriba a abajo (top-dowm). Identificar la estructura de la frase: sujeto, verbo, objeto, predicado, adjetivos, adverbios.
  2. De abajo a arriba (bottom-up). Crear un gran número de patrones ad hoc y atribuir un significado a cada uno.
  3. Estadística. Similar a de abajo a arriba pero casa los patrones usando una base de datos generada mediante juegos de entrenamiento

Cada estrategia tiene sus ventajas y desventajas.

La estrategia de arriba a abajo sirve para procesar patrones nunca vistos anteriormente pero para funcionar medianamente bien todavía requiere una considerable cantidad de identificación de identificación de patrones tras el barrido inicial de arriba a abajo.
La estrategia de abajo a arriba requiere un mantenimiento constante de actualización de patrones conocidos.
La estrategia estadística requiere de un conjunto de entrenamiento bastante grande.

Herramientas populares

Frameworks para NLP

  • Apache Open NLP. Contiene muchos componentes y es bastante potente y complejo. Principalmente de estrategia de arriba a abajo.
  • Apache UIMA. Tiende hacia un enfoquede abajo a arriba y estadístico. No es fácil de implementar y requiere mucha programación.
  • GATE. Estrategia de abajo a arriba configurable, más sencillo que UIMA, aunque todavía requiere que sean programadores quienes definan los patrones.

SaaS para NLP

Compartir:

  • Twitter
  • Meneame
  • Facebook
  • Google Bookmarks
Publicado en Inteligencia Artificial, Usos sociales de la tecnología | 1 comentario

Tipos de Incertidumbre

Hace poco encontré un excelente libro de matemáticas escrito en 2010 y titulado An Introduction to the Mathematics of Uncertainity escrito por Mark J. Wierman. Nunca he publicado un resumen de un libro en La Pastilla Roja, pero creo que este merece una excepción. Sólo voy a comentar la introducción, pero en total hay 339 páginas para quien se atreva con ellas.

La gestión de la incertidumbre es crucial en computación porque prácticamente cualquier sistema de inteligencia artificial debe tenerla en cuenta de una forma u otra.

Para empezar, consideremos este ejemplo procedente de Representing Uncertain Knowledge por Paul Krause y Dominic Clark. En el cual se enuncian catorce posologías del medicamento Piperol estudiando el grado de incertidumbre de cada una. Y que ilustran distintos tipos de incertidumbre: imprecisión, vaguedad, márgen de confianza, ambigüedad, inconsistencia, generalidad, anomalía, incongruencia, ignorancia, negación, irrelevancia.

Experto Tratamiento prescrito Comentario
A 100mg cada 12 horas Hay poca incertidumbre en esta frase. Se trata de una prescripción precisa. La única duda podría ser a qué hora debería el paciente tomar su primera dosis. Pero esa es una incertidumbre de la ejecución, no de la definición.
B 80-100mg dos veces al día Esta es imprecisa porque 80-100mg es un intervalo. ¿Cómo decidir cual es el mejor valor dentro del intervalo? Este tipo de instrucciones son comunes cuando la substancia está disponible en diferentes dosis, entonces depende del paciente tomar suficiente cantidad, pero no demasiada.
C Alrededor de 120mg 2-3 veces al día Aquí la cantidad es más o menos precisa. Pero 2-3 veces no es un intervalo. Este tipo de prescripción es frecuente para los analgésicos dado que cada paciente se siente de forma diferente respecto al dolor.
D Probablemente 200mg dos veces al día Esta es una prescripción basada en la variabilidad de la dosis en función de la dolencia. Casi siempre, el Piperol se receta para el Síndrome de Beamer en cuyo caso la dosis es de unos 500mg/día. Pero puede recetarse también para otras dolencias en cuyo caso la dosis varía.
E ¿30mg? u ¿80mg? dos veces al día (el primmer dígito no se lee bien) En este caso es difícil determinar si el primer dígito es un 3 o un 8 debido a un problema de impresión. El resultado es una ambigüedad.
F 200mg cuatro veces al día o 100mg una vez al día Aquí las alternativas son inconsistentes. El paciente puede determinar con bastante exactitud qué hacer pero las instrucciones parecen contradictorias.
G 150mg Aquí la información es incompleta. La prescripción debería decirno no sólo cuánto tomar sino también cuándo y cómo.
H Al menos 100mg dos veces al día Esta información es muy imprecisa. 100mg parece el mínimo, pero ¿cual es el máximo? Si las píldoras disponibles son de 80mg ¿cuántas tomar y cada cuánto tiempo?
I La dosis usual es 100mg dos veces al día La pregunta inmediata es ¿sufre el paciente la dolencia habitual?. La información es demasiado genérica.
J 1g dos veces al día ¿Es esto un error tipográfico? La dosis es desproporcionadamente alta comparada con las anteriores. La prescripción es precisa y no habría motivo para dudar de ella excepto porque es cuantitativamente muy diferente de todas las anteriores.
K Búscalo en Google El experto evita la cuestión. Esto es incongruencia.
L Nunca he oído hablar de ese medicamento En esta ocasión resulta que el experto consultado no es un experto después de todo.
M No tomes esa droga Es equivalente a recomendar que la dosis óptima es cero en cualquier caso. Aunque no se justifican las razones. Podría ser que el medicamento tenga potencialmente más efectos adversos que beneficios. Sin embargo, el experto no justifica debidamente su recomendación.
N 13 Rue del Percebe El experto no ha entendido nada de la pregunta, y, por consiguiente, la respuesta no guarda ninguna relación.

Tipología de Morgan y Henrion

La tipología de M. Granger Morgan y Max Henrion se creó principalmente para gestionar el riesgo y evaluar políticas. Combina aspectos que se tratan mejor de forma probabilística (error aleatorio, coeficiente de variación) con aspectos que se gestionan mejor mediante teoria de conjuntos borrosos (imprecisión lingüística). He aquí una breve enumeración de las incertidumbres en la tipología de Morgan y Henrion:

  • El error aleatorio y el coeficiente de variación se dan cuando se mide cualquier cosa tal cómo la velocidad de un automóvil.
  • El error sistemático ocurre porque los dispositivos de medición no son perfectos o porque no se usan correctamente.
  • El juicio subjetivo ocurre cuando no se interpretan correctamente los resultados.
  • La imprecisión lingüística se da al proporcionar una descripción que no es cuantificable de forma precisa, por ejemplo “un coche rápido”.
  • La variabilidad es aquello por lo que dos automóviles fabricados en serie no se comportarán de forma idéntica en la carretera.
  • La impredictbilidad es lo que hace que un automóvil no sea capaz de alcanzar la velocidad máxima que se supone que debería.
  • La incertidumbre de los expertos es facilmente verificable en las valoraciones dispares que puede recibir el mismo modelo de automóvil.
  • La aproximación se crea al redondear la velocidad al número entero de kilómetros por hora más próximo.
  • La incertidumbre del modelo ocurre cuando se modeliza el tiempo de vida útil de un automovil basándose en los resultados tests previos.
  • Tipología de Smithson

    Otra tipología procedente de las ciencias del comportamiento es la elaborada por Michael Smithson en Ignorance and Uncertainty: Emerging Paradigms. A la cual, según M. J. Wierman habría que añadirle una rama más para la estupidez.

    Tipología de Klir

    Es una tipología creada por George J. Klir y Mark J Wierman orientada a medir la incertidumbre en sistemas matemáticos y computacionales. En su libro Uncertainty-Based Information distinguen dos grandes clases de incertidumbre: la vaguedad y la ambigüedad. La vaguedad surge como efecto de los límites imprecisos de los conjuntos borrosos debido a la falta de distinción clara entre los elementos que pertenecen al conjunto y los que no. La ambigüedad refleja la multipicidad de elementos distintos de un conjunto que pueden cumplir con una definición.

    Tipología cibernética de Potocan, Mulej y Kajzer

    Potocan, Mulej y Kajzer aplican principios de cibernética y teoría de sistemas a la gestión de negocios. En lugar de una clasificación jerárquica cómo las anteriores, enumeran ocho aspectos de incertidumbre que un sistema puede contener o no. Introducen también otras consideraciones cómo la diferencia entre sistemas abiertos versus cerrados, o naturales versus artificiales. Algunas de sus ideas pueden encontrarse aquí y aquí.

    Compartir:

    • Twitter
    • Meneame
    • Facebook
    • Google Bookmarks
Publicado en Minería de Datos | Deja un comentario