Conecta con Minuto5

Nada es Gratis

¿Es el póker un juego de azar?

Publicada

el

Nota de los editores: Esta entrada complementa otra de titulo similar escrita por Pedro Rey Biel. Ambas utilizan el mismo trabajo para caracterizar qué tipo de juego es el póker pero tratan implicaciones diferentes de la respuesta a esa pregunta. 

Como padre de un preadolescente aficionado a los videojuegos, escuché con mucho interés un reciente episodio de Planet Money, el muy recomendable podcast sobre economía que Gerard ya nos recomendó hace un tiempo. En él se trataba un debate, que yo personalmente desconocía, sobre las cajas de recompensa en los videojuegos. Productos virtuales que los jugadores pueden comprar utilizando dinero real y que contienen mejoras, objetos o “skins” (cambios de apariencia) para sus avatares. Típicamente, estas cajas ofrecen recompensas aleatorias. Eso las incluye en la categoría de lo que en la industria se denominan “gachas”, en referencia a las máquinas de origen japones que escupen una bolita con un juguete dentro a cambio de una moneda. Además de ser la base del pay-for-win, el modelo de monetización de muchos videojuegos, el componente aleatorio de las cajas de recompensa también las acerca a los juegos de azar. La pregunta es cuánto. ¿Es ético (y legal) que estas cajas aparezcan en videojuegos a los que pueden acceder menores? (recuerden aquel muchacho inglés de 12 años que se gastó 800 euros de sus padres en el célebre Fortnite). En Bélgica, por ejemplo, las cajas de recompensas ya se han restringido a los videojuegos calificados para mayores de 18 años y se han cerrado juegos online que no cumplían con la normativa.

Pero además de consideraciones legales, discernir si un producto lúdico constituye o no un juego de azar tiene implicaciones impositivas. Existe todo un conjunto de criterios éticos que nos indican que el talento debe ser gravado a tasas diferentes que la pura suerte (para una introducción, véase este artículo de Marc Fleurbaey y François Maniquet en el Journal of Economic Literature). Por eso, las instituciones fiscales están interesadas en diferenciar entre las ganancias obtenidas por suerte, como las de la lotería, de las obtenidas en un juego en el que prime la habilidad, como por ejemplo en la boyante industria de los eSports. La línea entre unas y otras es difusa, como ilustra el debate sobre las cajas de recompensa.  Por tanto, sería muy útil manejar un criterio practico y objetivo para separar juegos de azar y de habilidad.

Eso es precisamente lo que intenta un reciente e interesante trabajo de Peter Duersch, Marco Lambrecht y Joerg Oechssler titulado ‘Measuring skill and chance in game’. El punto de partida del artículo es sencillo e ingenioso: Si un juego está basado fundamentalmente en la suerte, los “ratings” de los jugadores estarán mucho más comprimidos que si se tratara de un juego basado en la habilidad. En un juego tan tonto como lanzar una moneda al aire, todos tenemos la misma probabilidad de ganar y por tanto ningún jugador estará valorado por encima del resto durante mucho tiempo. Es cuestión de un puñado de partidas que su rating regrese a la media y sea como el de los demás. En cambio, en un juego de habilidad, los mejores jugadores no tardarán demasiado en escalar puestos en la clasificación y permanecerán allí. Por tanto, es posible medir el papel de la habilidad de un juego examinando la dispersión de los ratings de sus participantes (suponiendo que jueguen suficientemente a menudo entre ellos).

Utilizando datos de doce juegos diferentes, los autores calibran un modelo basado en la curva Elo que se utiliza en ajedrez, Scrabble, Go, ping pong y muchos otros juegos y deportes. Después estiman la desviación típica en la distribución de ratings. El gráfico unas líneas más arriba compara la distribución resultante para el ajedrez, el póker y una variante del ajedrez en la que la mitad de los resultados han sido determinados aleatoriamente y no por el rating relativo de los jugadores. Como era de esperar, el póker muestra una dispersión menor. Las estimaciones corroboran que un jugador de póker tiene un 53% de probabilidades de ganar a un adversario con un rating una desviación típica inferior. En el ajedrez, en cambio, la probabilidad es del 73%

El siguiente paso consiste en construir un umbral de dispersión a partir del cual un juego puede pasar a considerarse como basado en la habilidad. ¿Cómo? Los autores optan por una solución sensata. Toman al ajedrez como el patrón de referencia ya que se le considera como el caso paradigmático de un juego basado únicamente en la habilidad (como ya comentaba mi coautora Maria Cubel en su entrada sobre ajedrez y género). Por tanto, el ajedrez en el que un 50% de los resultados se basan en la suerte representaría el umbral que separa los juegos de azar de los de habilidad. Según ese criterio, el Backgammon, el Rummy y si, el póker, son juegos de azar. El tenis, el Tetris y el Go entrarían en la categoría de juegos de habilidad.

La elección de este criterio no está exenta de problemas. Por ejemplo, las estimaciones de los autores muestran que el Go está aun menos basado en la suerte que el ajedrez. Por tanto, parecería que el Go con 50% de azar y no el ajedrez debería ser el estándar (lo que dejaría al Tetris fuera de lo juegos basados en habilidad). Otra alternativa seria construir un juego artificial solo basado en la pericia de los participantes. Por último, otra limitación del estudio es que se centra únicamente en juegos (o variantes) de dos jugadores. Todas estas cuestiones constituyen interesantes puntos de partida para futuras investigaciones. Pero está claro que acercamientos creativos y novedosos como el de este trabajo son necesarios para responder a cuestiones tan concretas y relevantes como la de determinar si un juego es o no de azar.

Santiago Sánchez-Pagés

Santiago Sánchez-Pagés

Santiago Sanchez-Pages es profesor de economía en el King’s College London. Doctor por la Universitat Autónoma de Barcelona, sus áreas de investigación son muy variadas: desde la economía política y la economía del conflicto a la economía experimental y la economía de género.

Let’s block ads! (Why?)

Publicado originalmente en: Ir a la fuente
Autor: Santiago Sánchez-Pagés

Comentarios

comentarios

Seguir Leyendo
Publicidad
Loading...

Nada es Gratis

Tecnologías sanitarias y disposición a pagar por año de vida. (I de II) Contra escrúpulos privados, virtudes públicas

Publicada

el

de Juan Oliva y Jaume Puig-Junoy

Atrapados en la regla del rescate

Imagen de Arek Socha. Pixabay

La solvencia y la sostenibilidad del Sistema Nacional de Salud (SNS) depende de factores demográficos (esperanza de vida, morbilidad, discapacidad y proximidad a la muerte) y muy especialmente de factores no demográficos, entre los que tiene un rol muy destacado la gestión de la innovación biomédica, además de la inflación diferencial y de la organización institucional.

En un escenario presupuestario en el que el gasto público sanitario consolidado en 2017 no había recuperado en términos nominales ni tan sólo el nivel de 2010, no resulta exagerado ni recurso privativo de economistas agoreros señalar el elevado coste de oportunidad de una gestión poco eficiente de la innovación. Por desgracia, sigue siendo menos visible la atención efectiva que podría hacerse en los centros de salud que la inclusión de nuevas terapias glamorosas de elevado coste que no siempre van acompañadas de resultados clínicos importantes. A día de hoy existen cientos de nuevos medicamentos (biológicos, terapias génicas, etc.) en el pipeline de la industria y algunos anuncian precios de 2-4 millones de € por año de tratamiento.

La incorporación de la innovación terapéutica debe garantizar un triple equilibrio: el acceso de los pacientes a soluciones innovadoras desde el punto de vista de su eficacia y seguridad incremental, la sostenibilidad económica del SNS y una adecuada compensación al esfuerzo innovador. La existencia de, al menos, tres tipos de incertidumbres asociadas a la innovación deberían condicionar decisiones eficientes sobre financiación y precio de innovaciones: las incertidumbres en efectividad (¿qué resultados obtendrá?), en eficiencia (¿compensan los resultados la inversión?), y las incertidumbres financieras (¿qué impacto presupuestario tendrá?).

Estamos asistiendo a una carrera de mayores precios casi con independencia de su aportación en términos de años de vida ajustados por calidad (AVAC) ganados. Salvo contados casos, la relación entre precios y aportación terapéutica incremental no parece ser el criterio que guía estos elevados precios. Parece, antes bien, que en condiciones de monopolio legal se imponen precios que aprovechan el imperativo moral de la regla del rescate (rescatar vidas humanas identificables, sea cual sea su coste) como guía para priorizar el gasto sanitario público, haciendo caso omiso de su coste de oportunidad (poco visible para la sociedad). Además, con esta forma de proceder se proporcionan incentivos indeseables a la inversión en I+D. No es extraño que se señale que el principal problema actual para el acceso a las terapias innovadoras son los elevadísimos precios marcados por la industria farmacéutica en una estrategia de «máximo precio tolerable y durante el mayor tiempo posible», como se ponía de relieve el mes pasado en el Finantial Times.

Necesidad de determinar sin remilgos la disposición a pagar por resultados en salud

Un informe de 2018 del Expert Panel on Effective Ways of Investing in Health, ya mostraba muy certeramente dos preocupaciones básicas sobre la inversión en salud: ¿cómo manejar la incertidumbre sobre el valor de los nuevos medicamentos?, y ¿cómo establecer su precio de forma dinámica? Las recomendaciones del panel se centraban en propuestas de políticas que no deben pasar desapercibidas: (a) revisión de la política de competencia para reducir los elevados precios solicitados por la industria; (b) evaluar nuevos tratamientos con métodos del campo de la evaluación de tecnologías sanitarias adecuados y transparentes; y (c) reforzar el poder de negociación de los compradores utilizando procesos de negociación conjunta. Asimismo, en una línea similar, también en 2018, en el informe de la OECD sobre Pharmaceutical Innovation and Access to Medicines, se proponía la adopción de políticas para fomentar la eficiencia del gasto farmacéutico y para determinar la disposición a pagar por el valor de las innovaciones.

Las políticas de precio basado en el valor se fundamentan en un concepto sencillo: basar el precio de la tecnología en la evidencia sobre su beneficio clínico, es decir, recompensar la innovación en función de la magnitud de sus resultados. Sigue siendo la única vía para hacer frente al elevadísimo y poco visible coste de oportunidad de la aplicación de la ley del rescate a cualquier coste, pero su métrica y aplicación es compleja y controvertida.

Un número creciente de países han tratado de incorporar el criterio de eficiencia de manera explícita en el proceso de toma de decisiones. Muchos de ellos han optado por emplear la caja de herramientas que proporciona la evaluación económica (coste-efectividad, coste-utilidad y coste-beneficio), especialmente en el campo de los medicamentos y de otras tecnologías sanitarias. Suecia, Países Bajos, Francia, Bélgica, Reino Unido, Canadá, Australia, Nueva Zelanda, sin agotar la lista, son buenos ejemplos. Ello conduce a considerar, de forma explícita o implícita, valores de referencia que ayuden a estimar la disposición a pagar de la población o el coste de oportunidad para el sistema de salud de financiar innovaciones que llegan al sistema sanitario. En otras palabras, referencias que ayuden en la práctica a responder la pregunta “¿Vale lo que cuesta?”.

Virtudes públicas: determinar el umbral de aceptabilidad

Intuitivamente, la idea del umbral de aceptabilidad es sencilla. Operativamente es tremendamente complicada. Nos traslada a la cuestión de cuánto está dispuesto el financiador a pagar a cambio de una ganancia adicional determinada en salud. Es decir, una vez una evaluación económica de una opción X nos indica que habría que invertir 20.000, 30.000, 80.000 euros adicionales por cada AVAC extra que ganaríamos en comparación con la opción Z, ¿es razonable afrontar dicha inversión de recursos? Asumiendo que sea una decisión que suponga la financiación pública de la opción, ¿podemos permitírnoslo teniendo en cuenta la renta del país, los tributos recaudados, los potenciales beneficios a los que debemos renunciar del resto de destinos posibles para los fondos públicos implicados?

El umbral es un valor de referencia para tratar de responder a estas cuestiones, siquiera de manera parcial y restringida al ámbito sanitario. Hay dos familias de métodos comúnmente empleadas para establecer los valores del umbral. La primera pasa por revelar la disponibilidad a pagar de la población por una mejora de la salud utilizando principalmente métodos de valoración contingente (perspectiva de la demanda). La segunda busca estimar el coste de oportunidad de incorporar una nueva prestación o tecnología analizando la productividad del sistema sanitario (qué cuesta producir un AVAC) (perspectiva de la oferta). El esfuerzo científico desplegado en los últimos años para tratar de revelar o estimar el valor de un AVAC en distintos países y sociedades ha sido, y continúa siendo, impresionante, de lo cual da fe la abundante literatura existente sobre el tema.

Con todo, solo en el caso de Inglaterra y Gales se han explicitado los valores de umbral utilizados oficialmente, aun admitiendo que la ratio-coste efectividad no sea el criterio único a tener en cuenta en la toma de decisiones. Ello debido a que dichos valores han podido ser revelados dada la transparencia con la que opera su buque insignia en el campo de la evaluación de tecnologías sanitarias: el National Institute of Clinical Excellence (NICE). El análisis externo de sus primeras 50 decisiones llevó a publicar una estimación del valor implícito de su umbral de entre 35.000 a 40.000 libras esterlinas por AVAC. El NICE tuvo que dar respuesta pública, señalando que una tecnología cuya ratio coste efectividad incremental (RCEI) fuera de hasta 20.000 libras por AVAC tenía altas probabilidades de recibir una recomendación favorable y si su RCEI excedía las 30.000 libras por AVAC debería haber buenas razones adicionales para ser empleado en el ámbito de su National Health Service. Posteriormente, estos valores fueron adaptados y se permitieron consideraciones especiales debidamente regladas en el caso de terapias para situaciones “al final de la vida” (end of life treatments). En otros países, los valores no han sido explicitados pero se estima que podrían moverse en rangos de entre 30.000 €-50.000 € por AVAC (Australia), 20.000 € – 90.000 € (Canadá), 30.000 € (Corea del Sur) o umbrales máximos de 80.000 € (Bélgica y Países Bajos).

El motivo por el cual las agencias e instituciones de otros países no han revelado el valor de los umbrales que manejan es que hay un elevado riesgo de endogeneización (anclaje) de los precios de las tecnologías al valor del umbral. Sin embargo, optar por un umbral implícito no impide la aplicación de criterios de eficiencia ni el uso de la evaluación económica en dichos procesos, dado que, obviamente, dicho valor acaba siendo estimado en los procesos de negociación de precios y financiación por parte de los productores de medicamentos y tecnologías sanitarias.

Asimismo, conviene señalar que el uso práctico de estos umbrales supone que una tecnología cuya RCEI se encuentre por debajo del valor del umbral tiene una alta probabilidad de recibir la financiación pública solicitada, pero no la certeza. De la misma manera, una tecnología cuya RCEI se encuentre por encima tienen una alta probabilidad de no recibirla, salvo que los argumentos de distinta naturaleza y más allá de la eficiencia tengan un peso específico importante. En este sentido, conviene señalar que la evaluación económica es un mero elemento técnico que puede ser de utilidad los procesos de toma de decisiones mencionados, pero en absoluto un instrumento de toma automática de decisiones. Tanto en el caso del NICE como en el otros países, se acepta que el valor de una innovación depende de otras dimensiones de valor con una métrica reglada y establecida de forma general ex-ante, sin que ello sea un obstáculo para el uso de umbrales flexibles “ajustados” de diversas formas a estas otras dimensiones de valor socialmente aceptadas (por ejemplo, según gravedad de la enfermedad o impacto presupuestario).

Por último, conviene señalar que el umbral aporta un valor de referencia máximo al cual se podría llegar. No obstante, si todas las tecnologías fijaran su precio “pegándose” a este valor, el excedente total sería apropiado exclusivamente por la entidad que comercializa el bien o servicio. En realidad, lo esperable es que este excedente sea repartido entre el financiador y el productor, en función del poder de negociación de cada una de las partes.

Expuesto en este post el concepto de umbral de aceptabilidad y su uso en distintos países, en el siguiente post revisaremos los valores de referencia debatidos para España y su encaje dentro del proceso de financiación pública y establecimiento de precios de tecnologías sanitarias.

Let’s block ads! (Why?)

Publicado originalmente en: Ir a la fuente
Autor: admin

Comentarios

comentarios

Seguir Leyendo

Nada es Gratis

Autonomía local y desigualdad

Publicada

el

Por Zelda Brutti

¿Es buena la autonomía local en la gestión de los servicios públicos – como educación, saneamiento, transporte, salud? Este es un debate antiguo en economía, fundado en modelos teóricos clásicos como los de Musgrave, Oates y Tiebout y enriquecido de una variedad de estudios empíricos que aspiran a aislar los efectos de una mayor (o menor) autonomía a nivel local sobre la calidad y eficiencia del servicio ofrecido. En este Blog ya se habló sobre algunos posibles resultados de los procesos de descentralización aquí. Asimismo, el análisis de cómo las consecuencias de los procesos de descentralización pueden variar entre diferentes administraciones locales, dentro de una misma nación, es un área de investigación particularmente importante para las personas interesadas en la equidad de los resultados y en la distribución de los beneficios.

Desde un punto de vista teórico, es lógico esperar que algunas entidades locales puedan utilizar la propia autonomía de manera más eficiente que otras. Regiones que se caracterizan por mayor riqueza, desarrollo, capital humano y social probablemente manejarán mejor la gestión de los servicios públicos. Sin embargo, en el mundo real es muy difícil encontrar casos de reformas de descentralización administrativa que permitan demostrar estas suposiciones de manera concluyente. En muchos casos, se otorga mayor autonomía solamente a una selección de entidades locales `aventajadas’. En otros casos, las reformas son muy graduales en el tiempo, y se mezclan con otros cambios institucionales, políticos, económicos o fiscales importantes. En todas estas situaciones, es prácticamente imposible obtener buenas estimaciones de los efectos del aumento de la autonomía per se. Por estas razones, en este trabajo me centro en la reforma de descentralización administrativa que fue introducida en Colombia en 2001 ya que, como explico a continuación, me parece que reúne las condiciones necesarias para poder identificar el efecto causal de la descentralización.

Con el objetivo de mejorar sus resultados y su eficiencia, las responsabilidades del servicio de educación pública fueron traspasadas del nivel regional al nivel municipal, junto con los recursos necesarios para su financiación, procedentes del gobierno central. Las responsabilidades más importantes que pasaron de nivel fueron la contratación, la formación y la distribución de docentes en el territorio; la construcción y mantenimiento de la infraestructura escolar; la organización del transporte escolar, así como de cualquier otro programa de apoyo a las escuelas. Los años 2002 y 2003 fueron “periodo de transición”, durante el cual las administraciones regionales y municipales cooperaron en la prestación del servicio educativo y finalizaron el traspaso de competencias.

Sin embargo, esta reforma de descentralización administrativa se aplicó sólo a aquellos municipios que superaban el tamaño de 100 mil habitantes. Esta regla de decisión, estrictamente ejecutada y bastante arbitraria, facilita mucho la identificación de los efectos de la autonomía local sobre la calidad del servicio educativo ofrecido. Más interesante aún, los municipios afectados se encontraban en niveles muy distintos de la distribución de desarrollo económico – expresado a través de un índice elaborado periódicamente por el gobierno central que mide la calidad de vida y la riqueza, con escala de 0 a 100. Por lo tanto, este contexto permite estudiar la relación entre los resultados educativos obtenidos de la mayor autonomía local y el nivel de desarrollo económico que caracterizaba los municipios en el momento del traspaso de competencias.

La variable que utilizo para medir los resultados educativos es la nota promedio obtenida por los estudiantes de los colegios públicos en cada municipio en un examen estandarizado (Saber11), elaborado y evaluado por una agencia educativa del gobierno central (ICFES). Este examen tiene una tradición muy larga en Colombia y es considerado el indicador más fiable de la calidad educativa en cada escuela o región.

El siguiente gráfico muestra los principales resultados de la estimación de un modelo empírico con efectos fijos municipales y temporales, que mide cómo la autonomía en el sistema de educación afectó los resultados educativos a nivel municipal, en función del nivel de desarrollo económico local (medido en el año 2001; acrónimo MDI). En promedio, la autonomía local mejoró la calidad educativa en 0.44 desviaciones estándar durante los 10 años posteriores a la reforma. Sin embargo, este resultado promedio se distribuyó de manera muy desigual en el territorio: aquellos municipios caracterizados por un bajo desarrollo económico tuvieron un impacto cada vez más negativo a lo largo del tiempo, mientras que para aquellos municipios más desarrollados los beneficios crecieron a lo largo de los años.

Nota: El gráfico muestra los efectos marginales de la autonomía municipal sobre las notas promedio en los colegios públicos (eje vertical), en distintos niveles de desarrollo municipal (eje longitudinal) y en distintos periodos de tiempo (véanse los indicadores de formas distintas). Las líneas finas indican intervalos de confianza de 95%.

Los municipios afectados por la reforma estaban concentrados en índices de desarrollo (MDI) entre 20 y 80. El gráfico muestra cómo para aquellos municipios caracterizados por niveles de desarrollo por debajo de un 40, el efecto de una mayor autonomía local es negativo y estadísticamente significativo. Esto implica que la población de estos municipios gozaba de mejor calidad educativa bajo la gestión regional. La conclusión opuesta aplica a los municipios con niveles de desarrollo de más de 50. Además, en el gráfico se puede ver como las diferencias en los efectos de la reforma sobre los resultados educativos entre municipios aventajados y desaventajados aumentan a lo largo del tiempo, a medida que el efecto de la reforma se refuerza y las nuevas políticas locales se implementan de manera generalizada. El artículo completo muestra cómo el efecto “distanciador” empieza solo después de la descentralización del servicio – es decir, mientras las competencias de educación recaían en el gobierno regional (y no en el municipal), los municipios más desarrollados y menos desarrollados eran muy parecidos en términos de calidad educativa.

En el artículo muestro también evidencia de que la divergencia de resultados no se puede explicar por cambios en el número o las características de los estudiantes que van a los colegios públicos. Las diferencias en aptitudes administrativas y capital humano de los funcionarios locales parecen ser el elemento más importante a la hora de explicar las diferencias entre los municipios más y menos desarrollados.

¿Qué hemos aprendido de la experiencia colombiana? Primero, que las previsiones de heterogeneidad en los resultados de la descentralización postulados en los modelos teóricos, efectivamente parecen cumplirse en el mundo real. Segundo, que es aconsejable una buena dosis de planificación en los procesos de descentralización – asegurándose de que todas las entidades municipales estén preparadas para asumir sus nuevas responsabilidades y evitar, así, la generación de  desigualdades entre la población del país.

Let’s block ads! (Why?)

Publicado originalmente en: Ir a la fuente
Autor: admin

Comentarios

comentarios

Seguir Leyendo

Nada es Gratis

Digital-itis

Publicada

el

Roberto Serrano

(Nota de los editores: Esta entrada es una versión traducida y resumida de una conferencia impartida por el autor en la Fundación Ramón Areces disponible aquí)

Todas las revoluciones tecnológicas han acabado representando un cambio positivo para las sociedades, pero solo después de que se encontrara la manera de resolver algunos de los problemas que traen consigo. La invención de la imprenta en el siglo XV, que popularizó libros y cultura, provocó una reasignación de poder, lejos de las élites aristocráticas y religiosas, y en favor de las clases medias. A la revolución industrial, que permitió una  significativa expansión de la frontera de posibilidades de producción, se opusieron los luditas y su destrucción de maquinaria. Pero con el paso del tiempo acabó desembocando en el nacimiento de los sindicatos, que se convirtieron en un canal útil para mejorar las condiciones de empleo, con una mejor legislación de protección a los trabajadores de los abusos de las prácticas capitalistas libres y salvajes.

En nuestros días la revolución digital ha provocado una nueva ola de optimismo tecnológico, sostenido por todo lo que la tecnología hace por nosotros en la vida cotidiana: cosas inimaginables hace solo veinte años como, por ejemplo, tomar fotos o videos de cualquier cosa, estar en comunicación constante o mejorar nuestras habilidades de navegación mediante el uso del GPS, son parte diaria de nuestras actividades. Internet es una fuente infinita de información. Tenemos documentación cuantitativa ingente en respuesta a casi todas las preguntas, y las redes sociales facilitan la comunicación y la transmisión de mensajes de forma gratuita y sin restricciones. Con todo ello, podemos producir mucho más y hacerlo mejor.

Los riesgos del lado oscuro de la digitalización

En principio, todo esto es positivo, pero también tiene un lado oscuro, que produce una serie de patologías. Mi intención con esta entrada es la de un neoludita civilizado: no abogaré por la destrucción de las nuevas tecnologías, pero para sacar el máximo provecho de ellas, creo que es productivo señalar los riesgos de su mal uso. Por ejemplo, estos son los más evidentes:

– Las prácticas básicas de protección al consumidor se han relajado o abandonado, conduciendo a situaciones peligrosas.

– La difusión inmediata del conocimiento, facilitada por Internet, ha creado una situación de “vergüenza de la opulencia”. Esto es, paradójicamente, en un mundo donde casi todo es información disponible, puede que recibamos menos información relevante que antes: no se dispone de tiempo suficiente para leer todas las fuentes de información disponibles y es posible que el efecto final sea que se lea mucho menos.

– La negación de la realidad que no haya sido registrada por un dispositivo digital.

– La atención permanente a dispositivos digitales que causa un deterioro de las relaciones humanas básicas, con consecuencias muy negativas para la cohesión social, y que reduce la capacidad de atención, hasta el punto de perjudicar nuestros procesos cognitivos y deliberativos.

– El deterioro de la salud física por el «sedentarismo» causado por el uso excesivo de dispositivos digitales.

– La disminución en los niveles de seguridad del tráfico por el exceso de confianza y atención excesiva al GPS.

– La violación de la privacidad, manipulación de identidad y abuso de poblaciones desprotegidas, especialmente niños pequeños y adolescentes.

Algunas de las enfermedades digitales

A falta de un término mejor, podemos referirnos a los diferentes problemas creados por la era digital como digital-itis. Algunas manifestaciones de digital-itis son enfermedades específicas, como las que describo a continuación.

Top5-itis: Se trata de limitar la evaluación de resultados a un conjunto muy reducido de indicadores. Por ejemplo, en el mundo académico, para evaluar la producción científica de un investigador o una institución, se utilizan rankings de revistas académicas. En Economía, una práctica muy extendida es el recuento de publicaciones en las revistas «top5», en muchas ocasiones descartando cualesquiera  otros criterios. Esto ha producido incentivos perversos que favorecen la endogamia y el favoritismo, sofocan la innovación de ideas y concentran la atención solo en la investigación económica que tenga el sello de aprobación Top5. El año pasado publiqué una pieza satírica sobre esta enfermedad, y James Heckman y sus coautores han hecho interesante trabajo empírico al respecto que sugiere que esta evaluación superficial sin duda conducirá a una disminución de los estándares de la profesión.

VAR-itis: En el mundo del deporte ​​(el fútbol en particular) siempre han ocurrido multitud de decisiones arbitrales infames a lo largo de los años. Muchas de ellas involucraban violaciones claras de las reglas del deporte, y fueron documentadas en repeticiones de TV. El arbitraje asistido por video (VAR) ha venido recientemente a rescatarnos de este problema. El VAR se basa en una poderosa tecnología que utiliza múltiples cámaras para capturar todos los ángulos posibles de una determinada jugada. En principio, es una herramienta muy útil, pero el problema es de nuevo que asistimos a una “vergüenza de la opulencia” en la cantidad de datos para cada jugada. Cuando hay tantas versiones de una jugada, que difieren solo en fracciones de segundos, es necesario realizar un buen análisis estadístico. De hecho, en cualquier muestra de datos, hay algunos valores atípicos que van a contradecir el mensaje general que debe extraerse de ellos. Es por eso que la noción de intervalos de confianza y significatividad estadística deben adoptarse, por ejemplo, para descartar que, en un fuera de juego, varios milímetros decidan validar o no una jugada como legal. Esto estaría en consonancia con el espíritu original del deporte, por el cual solo las violaciones claras de la regla de fuera de juego deben contar para invalidar una jugada, y ayudaría a acelerar las llamadas realizadas por el VAR, cuyas intervenciones están creando muchas tensiones entre los profesionales y aficionados al deporte.

Scooter-itis: Es importante desarrollar medios de transporte que sean económicos y ecológicamente sostenibles. En este contexto, en muchas ciudades ha tenido lugar una auténtica explosión de nuevos vehículos ecológicos, en su mayoría scooters y bicis eléctricas, que se alquilan por hora y se dejan en cualquier lugar, en el destino del usuario. Utilizando tecnología GPS, las empresas propietarias de éstos vehículos eventualmente vienen a recogerlos. El problema que crean es una externalidad negativa básica. De hecho, las aceras son un bien público y no se pueden convertir en un bien privado propiedad de estas empresas o sus usuarios. Por ejemplo, la scooter-itis causa un problema grave a las personas con discapacidad, como yo, ya que pueden surgir obstáculos al azar en cualquier lugar de cualquier acera. En un incidente el verano pasado me caí en la calle, tras tropezar con uno de estos vehículos cuando caminaba demasiado rápido para detener el golpe. Adecuar la regulación sería deseable para restablecer la naturaleza de bien público de las aceras de nuestras ciudades.

Popul-itis: Este es el más importante de todos, al estar poniendo en peligro nuestras democracias. Argumentos y discusiones superficiales, datos manipulados, noticias falsas, tonos excesivamente enojados en los medios de comunicación, se han convertido en habituales y están haciendo que mucha gente desconfíe de las instituciones y voten a políticos que hacen campaña con un mensaje que vende bien, típicamente a una parte desinformada del electorado, pero que no pasaría un mínimo escrutinio racional. Este discurso público ha conducido a una peor calidad de los políticos elegidos en todos los ámbitos en muchos países.

 El tratamiento

¿Qué hacer con estas imperfecciones? Se me ocurren dos tipos de políticas. Primero, por el lado de la oferta, se necesita una serie de nuevas regulaciones, que incluyen acciones para contrarrestar el poder de monopolio en Internet, introducir controles de calidad en la difusión de información y tomar medidas enérgicas contra los sitios web que producen noticias falsas y desinformación. Por el lado de la demanda, la variable clave es la educación, la necesidad de elevar el análisis crítico y la evaluación de cualquier tipo de material que uno recibe.

Para terminar, siempre debemos recordar que la tecnología debe estar al servicio de los humanos, y no al revés. Si vamos a conservar nuestra etiqueta de “especie racional”, no debemos dejar de usar nuestras capacidades intelectuales y cognitivas. Las nuevas herramientas generadas por la revolución digital tienen un claro potencial para mejorar esas capacidades, pero tengamos en cuenta sus deficiencias y mantengámonos alejados de su mal uso.

Let’s block ads! (Why?)

Publicado originalmente en: Ir a la fuente
Autor: admin

Comentarios

comentarios

Seguir Leyendo
Publicidad
Publicidad
...

Facebook

Destacado