Archivo por meses: diciembre 2018

¿Puede tener la inteligencia artificial una actitud discriminatoria?

[Visto: 74 veces]

Antes de responder esta pregunta, revisaremos el concepto de inteligencia artificial.

Como vimos en un post anterior, la Inteligencia artificial es el estudio de los agentes computacionales que actúan de manera inteligente.

De acá se desprenden las siguientes sub-definiciones:

  • Sistemas que piensan como el hombre
  • Sistemas que piensan racionalmente
  • Sistemas que actúan como el hombre
  • Sistemas que actúan racionalmente

Por tanto, en el caso de la pregunta, nos estamos refiriendo a sistemas que piensan y actúan como el hombre; entonces, ¿Puede tener la inteligencia artificial una actitud discriminatoria?

Omar Flórez, PhD en Computer Science por la Universidad de Utah e ingeniero de sistemas por la UNSA, comenta: “Yo puedo resolver un problema con algoritmos de distintas maneras y cada una de ellas, de alguna forma, incorpora mi propia visión del mundo”.

Por tanto, la respuesta es sí. Cualquier desarrollador va introducir su visión, sus creencias y prejuicios.

A continuación, la entrevista a Omar Flórez sobre Inteligencia Artificial publicado por la BBC:

Omar Flórez, es uno de los pocos latinoamericanos que estudia los aspectos éticos del machine learning, o aprendizaje automático, un proceso que define como “la capacidad de predecir el futuro con datos del pasado utilizando computadoras”.

Flórez está trabajando en un algoritmo que permita a las computadoras reconocer rostros, pero sin poder descifrar el sexo o el origen étnico de la persona. Su sueño es que, cuando ese futuro llegue, las empresas incluyan su algoritmo en sus sistemas informáticos para evitar tomar decisiones racistas o machistas sin ni siquiera saberlo.

Omar Flórez se prepara para un futuro cercano en el que las calles estarán llenas de cámaras de vigilancia capaces de reconocer nuestros rostros y recabar información sobre nosotros a medida que caminemos por la ciudad.

Explica que lo harán sin nuestro permiso, ya que son espacios públicos y la mayoría no solemos taparnos la cara al salir de casa.

“Nuestro rostro se convertirá en nuestra contraseña y, cuando entremos a una tienda, esta nos reconocerá e investigará datos como si somos clientes nuevos o asiduos, o en qué lugares hemos estado antes de cruzar la puerta. De toda la información que recabe, dependerá el trato que nos dé esa empresa.”

Flórez quiere evitar que aspectos como nuestro género o color de piel formen parte de los criterios que esas compañías evalúen a la hora de decidir si merecemos un descuento u otra atención especial. Algo que puede suceder sin que las mismas firmas se den cuenta.

“La inteligencia artificial no es perfecta: incluso si no es programado para hacerlo, el software puede aprender por su cuenta a discriminar.”

Siempre decimos que no podemos ser objetivos justamente porque somos humanos. Se ha intentado confiar en las máquinas para que ellas lo sean, pero parece que tampoco pueden…

Porque son programadas por un ser humano. De hecho, nos hemos dado cuenta hace poco que el algoritmo mismo es una opinión. Yo puedo resolver un problema con algoritmos de distintas maneras y cada una de ellas, de alguna forma, incorpora mi propia visión del mundo. De hecho, elegir cuál es la forma correcta de juzgar un algoritmo ya es una observación, una opinión sobre el algoritmo mismo.

Digamos que yo quiero predecir la probabilidad de que alguien vaya a cometer un crimen. Para eso recolecto fotos de las personas que han cometido crímenes, dónde viven, de qué raza son, su edad, etc. Después, utilizo esa información para maximizar la exactitud del algoritmo y que pueda predecir quién puede delinquir después o incluso dónde puede suceder el siguiente crimen. Esta predicción puede resultar en que la policía se enfoque más en zonas donde de repente hay más afrodescendientes porque hay una mayor cantidad de delitos en esa área o que empiece a detener latinos porque es muy probable que no tengan documentos en regla.

Entonces, para alguien que sí tenga residencia legal o sea afrodescendiente y viva en esa zona pero no cometa crímenes, será el doble de difícil desprenderse de ese estigma del algoritmo. Porque para el algoritmo tú eres parte de una familia o una distribución, así que es mucho más difícil para ti, estadísticamente, salir de esa familia o distribución. De alguna forma, estás influenciado negativamente por la realidad que te rodea. Básicamente, hasta ahora, hemos estado codificando los estereotipos que nosotros tenemos como seres humanos.

Ese elemento subjetivo está en los criterios que elegiste a la hora de programar el algoritmo.

Exactamente. Existe una cadena de procesos para hacer un algoritmo de aprendizaje automático: recolectar datos, elegir qué características son importantes, escoger el algoritmo mismo…Luego hacer una prueba para ver cómo funciona y reducir los errores y finalmente, lo sacamos al público para que lo use. Nos hemos dado cuenta de que los prejuicios están en cada uno de esos procesos.

Una investigación de ProPública destapó en 2016 que el sistema judicial de varios estados de Estados Unidos utilizaba software para determinar qué procesados tenían más probabilidades de volver a delinquir. ProPública descubrió que los algoritmos favorecían a las personas blancas y penalizaban a las negras, pese a que el formulario con el que se recababa los datos no incluía preguntas sobre el tono de piel… De cierta forma, la máquina lo adivinó y lo utilizó como un criterio para valorar pese a que no haya sido diseñada para hacerlo, ¿no?

Lo que sucede es que hay datos que ya codifican la raza y tú ni te das cuenta. Por ejemplo, en Estados Unidos tenemos el código postal. Existen zonas donde solamente o mayormente vive gente afroamericana. Por ejemplo, en el sur de California, mayormente vive gente latina. Entonces, si tú usas el código postal como característica para alimentar un algoritmo de aprendizaje automático, también estás codificando el grupo étnico sin darte cuenta.

¿Hay alguna forma de evitar esto?

Al parecer, al final del día la responsabilidad recae en el ser humano que programa el algoritmo y en cuán ético pueda ser. O sea, si yo sé que mi algoritmo va a funcionar con un 10% más de error y dejo de utilizar algo que pueda ser sensible para caracterizar al individuo, entonces simplemente lo saco y me hago responsable de las consecuencias, tal vez, económicas que pueda tener mi empresa. Así que, ciertamente hay una barrera ética entre decidir qué va y qué no va en el algoritmo y muchas veces recae en el programador.

Se supone que justamente los algoritmos son para procesar grandes volúmenes de información y ahorrar tiempo. ¿No hay una forma de que sean infalibles?

Infalibles no. Porque siempre son una aproximación de la realidad o sea, está bien tener cierto grado de error. Sin embargo, existen actualmente trabajos de investigación muy interesantes en los que tú explícitamente penalizas la presencia de datos sensibles. Así, el ser humano básicamente elige qué dato puede ser sensible o no y el algoritmo deja de utilizarlo o lo hace de una manera que no muestre correlación. Sin embargo, honestamente, para la computadora todo son números: o es un 0 o un 1 o un valor en el medio, no tiene sentido común. A pesar de que hay muchos trabajos interesantes que permiten tratar de evitar los prejuicios, hay una parte ética que siempre recae en el ser humano.

¿Existe algún área en la que tú como experto creas que no deba dejarse en manos de la inteligencia artificial?

Creo que en este momento deberíamos estar preparados para usar la computadora para asistir en vez de automatizar. La computadora debería decirte: estos son a quienes deberías procesar primero en un sistema judicial. Sin embargo, también debería ser capaz de decirte por qué. A esto se le llama interpretación o transparencia y las máquinas deberían ser capaces de informar cuál es el razonamiento que las llevó a tomar tal decisión.

Las computadoras tienen que decidir de acuerdo con patrones, ¿pero no son los estereotipos patrones? ¿No resultan útiles para que el sistema pueda detectar patrones?

Si tú, por ejemplo, quieres minimizar el error, es una buena idea numéricamente utilizar prejuicios porque te da un algoritmo más exacto. Sin embargo, el desarrollador tiene que darse cuenta de que hay un componente ético al hacer esto. Existen en este momento regulaciones que te prohíben usar ciertas características para cosas como el análisis de crédito o incluso en el uso de videos de seguridad, pero son muy incipientes. De repente, lo que necesitamos es eso. Saber que la realidad es injusta y que está llena de prejuicios.

Lo interesante es que, a pesar de eso, algunos algoritmos permiten tratar de minimizar este nivel de prejuicio. O sea, yo puedo utilizar el tono de piel, pero sin que sea más importante o que tenga la misma relevancia para todos los grupos étnicos. Así que, respondiendo a tu pregunta, sí, uno puede pensar que, en realidad, usando esto va a tener resultados más exactos y muchas veces ese es el caso. Ahí está, de nuevo, ese componente ético: yo quiero sacrificar cierto nivel de exactitud a favor de no dar una experiencia mala al usuario ni usar ningún tipo de prejuicios.

Especialistas de Amazon se dieron cuenta de que una herramienta informática que habían diseñado para selección de personal discriminaba los currículos que incluían la palabra “mujer” y favorecían términos que eran más empleados por los hombres. Es una cosa bastante sorprendente, porque para evitar el sesgo uno tendría que estar adivinando qué términos suelen usar más los hombres que las mujeres en los currículos.

Incluso para el ser humano es difícil darse cuenta.

Pero a la vez, ahora intentamos no hacer diferencias entre géneros y decir que las palabras o la ropa no son masculinas ni femeninas, sino que todos las podemos usar. El aprendizaje automático parece ir en el sentido contrario, ya que tienes que admitir las diferencias entre hombres y mujeres y estudiarlas.

Los algoritmos solo recogen lo que pasa en la realidad y la realidad es que sí, los hombres utilizan unas palabras que las mujeres, tal vez, no. Y la realidad es que la gente a veces conecta mejor con esas palabras porque también son hombres los que evalúan. Entonces, decir lo contrario tal vez es ir en contra de los datos. Ese problema se evita recolectando la misma cantidad de currículos de hombres y de mujeres. Ahí el algoritmo le asignará el mismo peso a ambos o a las palabras que utilicen ambos géneros. Si solo eliges los 100 currículos que tienes sobre la mesa, tal vez solo dos de ellos sean de mujeres y 98, de hombres. Entonces creas un prejuicio porque estás modelando solamente lo que pasa en el universo de los hombres para este trabajo.

Entonces, no es una ciencia para quienes se preocupan por ser políticamente correctos porque más bien tienes que ahondar en las diferencias…

Has tocado un gran punto, que es la empatía. El estereotipo que uno tiene del ingeniero es el de alguien muy analítico y puede que hasta poco social. Sucede que estamos empezando a necesitar cosas en los ingenieros que pensábamos que no eran tan relevantes o que nos parecía bien que fuera así: la empatía, la ética… Necesitamos desarrollar esos temas porque tomamos tantas decisiones durante el proceso de implementar un algoritmo y muchas veces hay un componente ético. Si ni siquiera eres consciente de eso, no te vas a dar cuenta.

¿Se notan las diferencias entre un algoritmo diseñado por una persona y uno diseñado por 20?

En teoría, deberían reducirse los prejuicios en un algoritmo hecho por más gente. El problema es que muchas veces, ese grupo está compuesto por gente muy parecida entre sí. Quizá todos son hombres o todos sean asiáticos. Tal vez, sea bueno tener a mujeres para que se den cuenta de cosas de las que no se da cuenta el grupo en general. Es por eso que la diversidad es tan importante hoy en día.

¿Se puede decir que un algoritmo refleja los prejuicios de su autor?

Sí.

¿Y qué hay algoritmos con prejuicios justamente por la poca diversidad que hay entre los que hacen algoritmos?

No solamente por eso, pero es una parte importante. Yo diría que también se debe en parte a los datos mismos, que reflejan la realidad. En los últimos 50 años nos hemos esforzado por crear algoritmos que reflejen la realidad. Ahora nos hemos dado cuenta de que muchas veces reflejar la realidad también refuerza los estereotipos en la gente.

¿Crees que en el sector hay suficiente consciencia de que los algoritmos pueden tener prejuicios o que es una cosa a la que no se le da mucha importancia?

A nivel práctico, no se le da la importancia que debería. A nivel de investigación, muchas empresas están empezando a investigar este tema seriamente creando grupos llamados FAT: Fairness, Accountability and Transparency (Justicia, Responsabilidad y Transparencia).

 

Fuente:

https://www.bbc.com/mundo/noticias-america-latina-45980171

 

Un alcance sobre lo que es Inteligencia Artificial

[Visto: 134 veces]

Según el paper “The future of employment: how susceptible are jobs to computerisation”, de la Universidad de Oxford de 2013, el desempleo tecnológico, aquel que es causado por la tecnología, ocasionaría una pérdida del 47% de los puestos de trabajo en los próximos 15 o 20 años, debido a los avances de las tecnologías de la INTELIGENCIA ARTIFICIAL, cuyos esfuerzos están dedicados al desarrollo de algoritmos que permiten automatizar tareas COGNITIVAS, y de la tecnología de la Robótica Móvil en la automatización de tareas MANUALES.

Es posible que, debido a la influencia de los filmes de Hollywood, de robots conquistando el mundo, o de nuestra tendencia natural al antropomorfismo, en este caso, de dar forma humana a las máquinas, estemos tentados a pensar que la Inteligencia Artificial solo trata de los esfuerzos de la ciencia e ingeniería por crear robots a nuestra imagen y semejanza. Serían estos “Terminators” los que nos esperarían en las puertas de nuestras oficinas o fábricas con las cartas de despido en mano, y quizás un cheque de supervivencia para los próximos meses. Sin embargo, la Inteligencia Artificial no trata solo de proveer “inteligencia” a los robots, sino es un concepto más amplio.

La Inteligencia Artificial (AI) es el estudio de los agentes computacionales que actúan inteligentemente. Ahora, procedamos a revisar esta definición.

Un agente es cualquier objeto que interactúa con el ambiente, y hace algo inteligente. Para que un objeto actúe con el medio ambiente, necesita sensores y actuadores. Hagamos un símil cuando manejamos, a través de nuestra visión y audición (los ojos y oídos son nuestros sensores), podemos saber en base a los estímulos externos si debemos, por ejemplo, acelerar o frenar, y luego nuestras piernas y brazos (actuadores) realizarán las acciones del caso sobre el acelerador o el freno del carro respectivamente. De por medio, nuestro cerebro ha actuado de manera inteligente.

Y cuando un agente actúa de manera inteligente:

  • Cuando lo que hace es apropiado en base a las circunstancias y metas que lo rodean, tomando en cuenta las consecuencias de sus acciones a corto y largo plazo
  • Cuando es flexible a los cambios ambientales y a los cambios de las metas
  • Cuando aprende de su experiencia
  • Cuando hace selecciones apropiadas con relación a sus límites computacionales y de percepción

Un agente computacional es un agente cuyas decisiones acerca de sus acciones pueden ser explicadas en términos de la computación (harware y software). Todos los agentes son limitados, ningún agente es omnisciente u omnipotente. Los agentes pueden solo observar y hacer algo sobre dominios muy especializados, en donde “su mundo” es muy limitado.

Por tanto, el objetivo de la AI es el diseño y construcción de artefactos inteligentes.

El concepto de Inteligencia Artificial se extiende a cuatro dimensiones como se ve en el siguiente gráfico:

Las definiciones de la parte superior están relacionadas a los procesos de pensamiento, mientras las definiciones de la parte inferior están relacionadas al comportamiento. Las del lado izquierdo miden el éxito en términos de fidelidad a la performance humana; mientras las del lado derecho miden el éxito en relación con una medida de performance ideal llamada RACIONALIDAD. Un sistema es racional si hace “lo correcto” dado un objetivo determinado.

Por tanto, en base a esto, tenemos los siguientes sistemas:

  • Sistemas que piensan como el hombre
  • Sistemas que piensan racionalmente
  • Sistemas que actúan como el hombre
  • Sistemas que actúan racionalmente

En cuanto al enfoque. Tendremos un enfoque centrado en lo humano que debe ser parte de las ciencias empíricas que incluyen las observaciones e hipótesis acerca del comportamiento humano; y, un enfoque racionalista que incluye las matemáticas e ingeniería.

El profesor Rodrigo Gonçalves, de la FACAMP de Campinas, Brasil, nos ofrece varios ejemplos muy apropiados para ilustrar el concepto:

A continuación, un listado de los  casos sobre lo que nos comentó el profesor Gonçalves.

SISTEMAS QUE ACTUAN RACIONALMENTE

El vehículo autónomo de Google; y los aviones que pueden despegar prácticamente solos, y que necesitan poca intervención del piloto.

Los robots de las fábricas y centros de distribución que hacen la logística de almacenamiento de productos (como en Amazon). Estos computadores tienen autonomía, percepción del ambiente, persistencia, adaptación a los cambios, y comunicación, que son atributos de la inteligencia artificial.

SISTEMAS QUE ACTUAN COMO EL HOMBRE

Siri, el asistente personal de Apple, que está cambiando totalmente la forma como interactuamos con un computador.

El robot Asimo de Honda es un asistente personal para diversas funciones. Reconoce comandos de voz simples, detecta rostros de las personas, y, anda o corre percibiendo el ambiente de los objetos alrededor. Asimo tiene sensores que detectan movimientos, habla, y tiene sofisticados mecanismos que permiten su locomoción. En cuanto a la interacción con personas, tiene sus límites con relación a la capacidad de comprender preguntas y responderlas. Es muy avanzado. Actúa como humano, pero tiene sus limitaciones.

SISTEMAS QUE PIENSAN RACIONALMENTE

Nitryx, desarrollado por el profesor Gonçalves, es un sistema usado para monitorear una flota de 1,500 a 2,000 camiones en tiempo real. Un camión de una transportadora sale y llega a un embarcador, carga, para a lo largo del camino para abastecerse, llega a su destino y descarga, sale vacío, y retorna a la transportadora para hacer el ciclo de nuevo. Sin embargo, muchas cosas pueden suceder. Se puede desviar de la ruta, demorar más de lo que necesita para cargar o descargar, ser robado, etc. El sistema detecta todos los problemas que pueden surgir y calcula el futuro impacto. Un atraso en un cargamento puede generar un efecto dominó que resultaría que la entrada a Sao Paulo solo pudiese ser hecha al día siguiente. Como el computador está enfocado en ese comportamiento inteligente sin preocuparse por necesidades fisiológicas o ser distraído, es capaz de monitorear decenas de miles de vehículos simultáneamente. Nosotros, los humanos, extraemos un conocimiento especializado y lo delegamos para que la máquina lo haga de forma repetitiva y extremadamente rápida, pero es claro que el sistema es limitado solo al conocimiento que le delegamos a él. Así al detectar algún problema, le pasa información a una persona para resolverlo.

Los sistemas de análisis de crédito: Cuando se hace una compra diferente de la que se hace normalmente, inmediatamente un banco llama por celular al cliente para confirmar la compra. El banco está viendo que se está realizando una compra fuera del patrón de consumo, porque tiene un computador con un software de monitoreo que deduce el perfil de consumo a partir del histórico de las compras.

SISTEMAS QUE PIENSAN COMO EL HOMBRE

Hay varias técnicas de Inteligencia Artificial que buscan reproducir el funcionamiento del cerebro humano considerando el funcionamiento neuroquímico hasta las funciones psicológicas más complejas. Ya somos capaces de hacer sistemas que aprenden a reconocer imágenes; pero fenómenos más complejos como la conciencia y las emociones aún están distantes de lo deseable.

Un ejemplo de este sistema son los radares de tránsito. Algunos de ellos utilizan redes neuronales artificiales, que no son más que neuronas artificiales que aprenden a reconocer el número de las placas de los carros.

Estoy de acuerdo con el profesor Gonçalves, cuando dice: “A pesar de lo todo lo que hemos visto en algunos filmes, los computadores no nos van a sustituir. El computador es solo una herramienta de amplificación de la inteligencia humana.” Sin embargo, en mi opinión, por el exponencial desarrollo tecnológico al que asistimos, creo que sí habrá un considerable desempleo tecnológico en los próximos años, con sus consecuencias sociales, económicas y políticas.

 

Fuentes:

  • Artificial Intelligence: A Modern Approach – Stuart Russell
  • Artificial Intelligence: Foundations of Computational Agents – David L. Poole
  • The future of employment: how susceptible are jobs to computerisation:

https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf

 

Claves para entender el problema entre Estados Unidos y Huawei

[Visto: 133 veces]

Les ofrezco un resumen del artículo de RPP publicado ayer, y otros comentarios relacionados.

Estamos terminando uno de los años más conflictivos que hemos vivido en tema de telecomunicaciones a nivel internacional. Desde principios del 2018, el gobierno de Estados Unidos ha empezado un bloqueo empresarial contra Huawei, la compañía china que se ha vuelto clave en el sector de las telecomunicaciones a nivel global.

Es un caso que tiene varias aristas, pues no solamente es un asunto comercial, sino de acusaciones de espionaje de parte de Estados Unidos hacia China.

La importancia de Huawei en las telecomunicaciones del mundo

Desde su fundación en 1987, Huawei ha destacado por su alto nivel de inversión en el desarrollo de las telecomunicaciones a nivel mundial. Un gran porcentaje de productos asociados a la industria “telco”, tanto en infraestructura como implementación, provienen de esta compañía china cuyo ideograma significa “acto magnífico”, pero también puede ser interpretado como “Orgullo de China”.

Con 178 mil empleados a nivel mundial, y 16 laboratorios de investigación repartidos en el planeta, está detrás de Samsung como una de las marcas que más smartphones vende. Además, es una de las empresas que más ha innovado en la expansión de la nueva red 5G, y ofrece tecnología de redes a más de 100 países en el globo.

Sin embargo, su historia está plagada de conflictos corporativos. Durante 2003, Cisco interpuso una demanda por una supuesta copia de software e infracción de patentes, y Huawei tuvo que retirarse del mercado estadounidense. En esta década, Huawei fue investigada por la Unión Europea y Canadá, y acusada de espiar determinadas comunicaciones y los sistemas internos de los gobiernos.

A pesar de estas acusaciones, Huawei ha logrado alianzas estratégicas con socios regionales en telecomunicaciones. La tasa de participación de Huawei en las redes actuales es muy alta, y eso genera no solo celos empresariales, sino también preocupaciones por su estrecho vínculo al gobierno de China.

El conflicto EE. UU. – Huawei

Durante el Keynote de Huawei en el CES 2018, el CEO de Huawei se mostró particularmente incómodo con la decisión tomada por AT&T de no ofrecer el Mate 10 Pro en suelo estadounidense. Durante años, Huawei persiguió el “sueño americano” de ofrecer su catálogo, pero la operadora habría optado por suspender el acuerdo debido a presiones de la administración Trump.

En 2007, por citar alguna, Huawei fue impedida de firmar con 3Com un emprendimiento llamado H3C que buscaba competir en el mercado de telecomunicaciones estadounidense con productos para conexión a internet. Este acuerdo terminó en la compra del 48% de participación de Huawei por 916 millones de dólares.

El espionaje chino

Lo que aduce el gobierno estadounidense es un largo proceso de espionaje desde China, aprovechando la enorme presencia de Huawei en redes de telecomunicaciones. Los miedos del presidente Trump han sido reforzados por la investigación de New York Times sobre el doble “chuponeo” al iPhone personal del empresario desde China y Rusia. De acuerdo con el reporte, los chinos pretenden usar toda la información posible para ejercer presiones en los acuerdos comerciales.

El tema del espionaje chino también vino empujado por una investigación publicada por Bloomberg, respecto a la presencia de un microchip espía que el Ejército de Liberación China habría implantado en millones de placas madre usadas en servidores de diferentes instituciones estadounidenses, que abarcan desde entidades financieras hasta agencias de inteligencia militar y seguridad nacional.

Varios países reaccionan al conflicto entre EE. UU. y Huawei

Tras las sospechas de espionaje desde China, varios gobiernos comenzaron a tomar decisiones respecto a sus relaciones con Huawei. Los hechos se reportan en esta línea:

  • En noviembre, Nueva Zelanda le impidió a Huawei suministrar una red móvil local con equipos 5G.
  • Los Estados Unidos y Australia ya habían cerrado la puerta a la participación de Huawei en sus redes móviles de próxima generación.
  • Canadá está llevando a cabo una revisión de seguridad de los productos de Huawei.
  • El proveedor de servicios del Reino Unido, BT, está sacando a Huawei del núcleo de su red 5G.
  • El 7 de diciembre, el comisario de tecnología de la Unión Europea, Andrus Ansip, dijo que los países “deben preocuparse” por los fabricantes chinos.
  • Hace dos días, el portal Reuters publicó que Japón también excluiría a Huawei. Actualmente, Huawei provee equipos a las operadoras NTT Docomo y KDDI Corp.

Les recuerdo, además, que Huawei no participa de las pruebas pilotos de 5G en Estados Unidos, en cambio, si la corena Samsung; además de Nokia, Intel, Qualcomm y Ericsson.

Verizon impulsa el desarrollo de 5G

La “princesa de Huawei” y SkyCom

Meng Wanzhou, la directora financiera de Huawei, llamada la “princesa de Huawei” e hija del fundador de la compañía, ha sido arrestada en Canadá el 1 de diciembre y acusada de fraude por los fiscales canadienses.

De acuerdo con las autoridades, Wanzhou (cuyo nombre occidental es Sabrina Meng) es acusada de conspirar para estafar a múltiples entidades financieras, bajo la modalidad de empresa fantasma. Meng era parte de la mesa directiva de SkyCom, una compañía con base en Hong Kong que entre el 2008 y 2009 mantuvo relaciones comerciales con empresas iraníes.

La investigación de Reuters incluyó el revisado de registros corporativos, y encontró numerosos vínculos financieros entre Meng, Huawei y SkyCom. Por ejemplo, en 2007 una empresa de administración, controlada por la compañía matriz de Huawei, poseía todas las acciones de SkyCom. En esa época, Meng era la secretaria de esa compañía. Los fiscales enfatizaron en la audiencia que “SkyCom es Huawei”. Meng afronta una condena de hasta 30 años en prisión, y hay un alto riesgo de fuga si se accede a la libertad bajo fianza.

Comentarios de El financiero Bloomberg de México: “El tema de Irán es un pretexto, es una economía muy pequeña. Huawei facturó US$ 92 mil millones en el 2017; y la lucha es por la hegemonía mundial entre Estados Unidos y China”.

Fuente:

https://rpp.pe/tecnologia/mas-tecnologia/las-claves-para-entender-el-problema-entre-huawei-estados-unidos-y-la-privacidad-en-el-mundo-noticia-1168221

https://in.reuters.com/article/us-japan-china-huawei/japan-to-ban-huawei-zte-from-government-contracts-yomiuri-idINKBN1O600X

 

Escala el conflicto entre Estados Unidos y la empresa china Huawei

[Visto: 119 veces]

A finales del 2000, se hizo pública la noticia del arresto de un alto ejecutivo y varios ingenieros de procedencia china, del staff de Bell Labs, que por años habían hecho espionaje industrial, sustrayendo valiosa información sobre la fabricación de las redes de telecomunicaciones del entonces Lucent Technologies.

Desde aquellos años, EE. UU. conocía de la actividad de espionaje que venían realizando las empresas tecnológicas chinas, y del ahorro que debió haber significado en términos de investigación y desarrollo (R&D). Actualmente, el asunto ha cambiado mucho, Huawei cuenta en su portafolio con una gama de productos que incluso le llevan la delantera a sus pares de procedencia estadounidense o europea, en términos de funcionalidades y con precios altamente competitivos; y a esto suma el cuidado extremo de cada uno de sus clientes, donde no tiene ningún reparo en todo tipo de gastos, como ya he comentado en otra oportunidad.

Luego de la muerte de Mao Tse Tung, y de intensas luchas internas, a partir de 1979, Dean Xiaoping, como lider absoluto de China, aceleró las reformas económicas de liberalización de la economía china, teniendo como uno de sus cuatro pilares el desarrollo de la ciencia y la tecnología. Destruido el empresariado por la revolución comunista de Mao, fueron los jerarcas del Partido Comunista Chino (PCCh) y los militares de más alto rango los que tomaron las riendas de las grandes empresas chinas que hoy conocemos; por tanto, no es sorpresa que estas compañías tengan apoyo del gobierno chino.

La cuestión es que hasta ahora EE. UU. no había tomado este tipo de acciones contra una empresa tecnológica china, como arrestar en Canadá a la directora financiera de Huawei, Meng Wanzhou, e hija del fundador de Huawei, que también era ampliamente conocido por su cercanía a los círculos de la élite gobernante china.

Den Xiaoping decía: “No importa el color del gato, solo que cace ratones”. Luego de muchos años que Estados Unidos dejó que el gato se convirtiera en un inmenso tigre, ahora quiere domarlo, ¿Podrá hacerlo? Considero que es muy tarde. Tal vez pueda convencer a parte de sus aliados, posiblemente con cuotas de financiamiento para hacer un reemplazo masivo de equipos chinos; sin embargo, el resto de las compañías del mundo, hace muchos años, apostaron por las redes y equipos de procedencia china, y sería altamente costoso en términos económicos.

Sin duda, el arresto de la hija del fundador de Huawei, lleva el conflicto a un nivel mucho mayor de incertidumbre de la guerra comercial desatada por Estados Unidos contra China.

A continuación, les recomiendo revisen la noticia publicada por la BBC.

Sigue leyendo