Archivo de la etiqueta: inteligencia artificial

¿Puede tener la inteligencia artificial una actitud discriminatoria?

[Visto: 211 veces]

Antes de responder esta pregunta, revisaremos el concepto de inteligencia artificial.

Como vimos en un post anterior, la Inteligencia artificial es el estudio de los agentes computacionales que actúan de manera inteligente.

De acá se desprenden las siguientes sub-definiciones:

  • Sistemas que piensan como el hombre
  • Sistemas que piensan racionalmente
  • Sistemas que actúan como el hombre
  • Sistemas que actúan racionalmente

Por tanto, en el caso de la pregunta, nos estamos refiriendo a sistemas que piensan y actúan como el hombre; entonces, ¿Puede tener la inteligencia artificial una actitud discriminatoria?

Omar Flórez, PhD en Computer Science por la Universidad de Utah e ingeniero de sistemas por la UNSA, comenta: “Yo puedo resolver un problema con algoritmos de distintas maneras y cada una de ellas, de alguna forma, incorpora mi propia visión del mundo”.

Por tanto, la respuesta es sí. Cualquier desarrollador va introducir su visión, sus creencias y prejuicios.

A continuación, la entrevista a Omar Flórez sobre Inteligencia Artificial publicado por la BBC:

Omar Flórez, es uno de los pocos latinoamericanos que estudia los aspectos éticos del machine learning, o aprendizaje automático, un proceso que define como “la capacidad de predecir el futuro con datos del pasado utilizando computadoras”.

Flórez está trabajando en un algoritmo que permita a las computadoras reconocer rostros, pero sin poder descifrar el sexo o el origen étnico de la persona. Su sueño es que, cuando ese futuro llegue, las empresas incluyan su algoritmo en sus sistemas informáticos para evitar tomar decisiones racistas o machistas sin ni siquiera saberlo.

Omar Flórez se prepara para un futuro cercano en el que las calles estarán llenas de cámaras de vigilancia capaces de reconocer nuestros rostros y recabar información sobre nosotros a medida que caminemos por la ciudad.

Explica que lo harán sin nuestro permiso, ya que son espacios públicos y la mayoría no solemos taparnos la cara al salir de casa.

“Nuestro rostro se convertirá en nuestra contraseña y, cuando entremos a una tienda, esta nos reconocerá e investigará datos como si somos clientes nuevos o asiduos, o en qué lugares hemos estado antes de cruzar la puerta. De toda la información que recabe, dependerá el trato que nos dé esa empresa.”

Flórez quiere evitar que aspectos como nuestro género o color de piel formen parte de los criterios que esas compañías evalúen a la hora de decidir si merecemos un descuento u otra atención especial. Algo que puede suceder sin que las mismas firmas se den cuenta.

“La inteligencia artificial no es perfecta: incluso si no es programado para hacerlo, el software puede aprender por su cuenta a discriminar.”

Siempre decimos que no podemos ser objetivos justamente porque somos humanos. Se ha intentado confiar en las máquinas para que ellas lo sean, pero parece que tampoco pueden…

Porque son programadas por un ser humano. De hecho, nos hemos dado cuenta hace poco que el algoritmo mismo es una opinión. Yo puedo resolver un problema con algoritmos de distintas maneras y cada una de ellas, de alguna forma, incorpora mi propia visión del mundo. De hecho, elegir cuál es la forma correcta de juzgar un algoritmo ya es una observación, una opinión sobre el algoritmo mismo.

Digamos que yo quiero predecir la probabilidad de que alguien vaya a cometer un crimen. Para eso recolecto fotos de las personas que han cometido crímenes, dónde viven, de qué raza son, su edad, etc. Después, utilizo esa información para maximizar la exactitud del algoritmo y que pueda predecir quién puede delinquir después o incluso dónde puede suceder el siguiente crimen. Esta predicción puede resultar en que la policía se enfoque más en zonas donde de repente hay más afrodescendientes porque hay una mayor cantidad de delitos en esa área o que empiece a detener latinos porque es muy probable que no tengan documentos en regla.

Entonces, para alguien que sí tenga residencia legal o sea afrodescendiente y viva en esa zona pero no cometa crímenes, será el doble de difícil desprenderse de ese estigma del algoritmo. Porque para el algoritmo tú eres parte de una familia o una distribución, así que es mucho más difícil para ti, estadísticamente, salir de esa familia o distribución. De alguna forma, estás influenciado negativamente por la realidad que te rodea. Básicamente, hasta ahora, hemos estado codificando los estereotipos que nosotros tenemos como seres humanos.

Ese elemento subjetivo está en los criterios que elegiste a la hora de programar el algoritmo.

Exactamente. Existe una cadena de procesos para hacer un algoritmo de aprendizaje automático: recolectar datos, elegir qué características son importantes, escoger el algoritmo mismo…Luego hacer una prueba para ver cómo funciona y reducir los errores y finalmente, lo sacamos al público para que lo use. Nos hemos dado cuenta de que los prejuicios están en cada uno de esos procesos.

Una investigación de ProPública destapó en 2016 que el sistema judicial de varios estados de Estados Unidos utilizaba software para determinar qué procesados tenían más probabilidades de volver a delinquir. ProPública descubrió que los algoritmos favorecían a las personas blancas y penalizaban a las negras, pese a que el formulario con el que se recababa los datos no incluía preguntas sobre el tono de piel… De cierta forma, la máquina lo adivinó y lo utilizó como un criterio para valorar pese a que no haya sido diseñada para hacerlo, ¿no?

Lo que sucede es que hay datos que ya codifican la raza y tú ni te das cuenta. Por ejemplo, en Estados Unidos tenemos el código postal. Existen zonas donde solamente o mayormente vive gente afroamericana. Por ejemplo, en el sur de California, mayormente vive gente latina. Entonces, si tú usas el código postal como característica para alimentar un algoritmo de aprendizaje automático, también estás codificando el grupo étnico sin darte cuenta.

¿Hay alguna forma de evitar esto?

Al parecer, al final del día la responsabilidad recae en el ser humano que programa el algoritmo y en cuán ético pueda ser. O sea, si yo sé que mi algoritmo va a funcionar con un 10% más de error y dejo de utilizar algo que pueda ser sensible para caracterizar al individuo, entonces simplemente lo saco y me hago responsable de las consecuencias, tal vez, económicas que pueda tener mi empresa. Así que, ciertamente hay una barrera ética entre decidir qué va y qué no va en el algoritmo y muchas veces recae en el programador.

Se supone que justamente los algoritmos son para procesar grandes volúmenes de información y ahorrar tiempo. ¿No hay una forma de que sean infalibles?

Infalibles no. Porque siempre son una aproximación de la realidad o sea, está bien tener cierto grado de error. Sin embargo, existen actualmente trabajos de investigación muy interesantes en los que tú explícitamente penalizas la presencia de datos sensibles. Así, el ser humano básicamente elige qué dato puede ser sensible o no y el algoritmo deja de utilizarlo o lo hace de una manera que no muestre correlación. Sin embargo, honestamente, para la computadora todo son números: o es un 0 o un 1 o un valor en el medio, no tiene sentido común. A pesar de que hay muchos trabajos interesantes que permiten tratar de evitar los prejuicios, hay una parte ética que siempre recae en el ser humano.

¿Existe algún área en la que tú como experto creas que no deba dejarse en manos de la inteligencia artificial?

Creo que en este momento deberíamos estar preparados para usar la computadora para asistir en vez de automatizar. La computadora debería decirte: estos son a quienes deberías procesar primero en un sistema judicial. Sin embargo, también debería ser capaz de decirte por qué. A esto se le llama interpretación o transparencia y las máquinas deberían ser capaces de informar cuál es el razonamiento que las llevó a tomar tal decisión.

Las computadoras tienen que decidir de acuerdo con patrones, ¿pero no son los estereotipos patrones? ¿No resultan útiles para que el sistema pueda detectar patrones?

Si tú, por ejemplo, quieres minimizar el error, es una buena idea numéricamente utilizar prejuicios porque te da un algoritmo más exacto. Sin embargo, el desarrollador tiene que darse cuenta de que hay un componente ético al hacer esto. Existen en este momento regulaciones que te prohíben usar ciertas características para cosas como el análisis de crédito o incluso en el uso de videos de seguridad, pero son muy incipientes. De repente, lo que necesitamos es eso. Saber que la realidad es injusta y que está llena de prejuicios.

Lo interesante es que, a pesar de eso, algunos algoritmos permiten tratar de minimizar este nivel de prejuicio. O sea, yo puedo utilizar el tono de piel, pero sin que sea más importante o que tenga la misma relevancia para todos los grupos étnicos. Así que, respondiendo a tu pregunta, sí, uno puede pensar que, en realidad, usando esto va a tener resultados más exactos y muchas veces ese es el caso. Ahí está, de nuevo, ese componente ético: yo quiero sacrificar cierto nivel de exactitud a favor de no dar una experiencia mala al usuario ni usar ningún tipo de prejuicios.

Especialistas de Amazon se dieron cuenta de que una herramienta informática que habían diseñado para selección de personal discriminaba los currículos que incluían la palabra “mujer” y favorecían términos que eran más empleados por los hombres. Es una cosa bastante sorprendente, porque para evitar el sesgo uno tendría que estar adivinando qué términos suelen usar más los hombres que las mujeres en los currículos.

Incluso para el ser humano es difícil darse cuenta.

Pero a la vez, ahora intentamos no hacer diferencias entre géneros y decir que las palabras o la ropa no son masculinas ni femeninas, sino que todos las podemos usar. El aprendizaje automático parece ir en el sentido contrario, ya que tienes que admitir las diferencias entre hombres y mujeres y estudiarlas.

Los algoritmos solo recogen lo que pasa en la realidad y la realidad es que sí, los hombres utilizan unas palabras que las mujeres, tal vez, no. Y la realidad es que la gente a veces conecta mejor con esas palabras porque también son hombres los que evalúan. Entonces, decir lo contrario tal vez es ir en contra de los datos. Ese problema se evita recolectando la misma cantidad de currículos de hombres y de mujeres. Ahí el algoritmo le asignará el mismo peso a ambos o a las palabras que utilicen ambos géneros. Si solo eliges los 100 currículos que tienes sobre la mesa, tal vez solo dos de ellos sean de mujeres y 98, de hombres. Entonces creas un prejuicio porque estás modelando solamente lo que pasa en el universo de los hombres para este trabajo.

Entonces, no es una ciencia para quienes se preocupan por ser políticamente correctos porque más bien tienes que ahondar en las diferencias…

Has tocado un gran punto, que es la empatía. El estereotipo que uno tiene del ingeniero es el de alguien muy analítico y puede que hasta poco social. Sucede que estamos empezando a necesitar cosas en los ingenieros que pensábamos que no eran tan relevantes o que nos parecía bien que fuera así: la empatía, la ética… Necesitamos desarrollar esos temas porque tomamos tantas decisiones durante el proceso de implementar un algoritmo y muchas veces hay un componente ético. Si ni siquiera eres consciente de eso, no te vas a dar cuenta.

¿Se notan las diferencias entre un algoritmo diseñado por una persona y uno diseñado por 20?

En teoría, deberían reducirse los prejuicios en un algoritmo hecho por más gente. El problema es que muchas veces, ese grupo está compuesto por gente muy parecida entre sí. Quizá todos son hombres o todos sean asiáticos. Tal vez, sea bueno tener a mujeres para que se den cuenta de cosas de las que no se da cuenta el grupo en general. Es por eso que la diversidad es tan importante hoy en día.

¿Se puede decir que un algoritmo refleja los prejuicios de su autor?

Sí.

¿Y qué hay algoritmos con prejuicios justamente por la poca diversidad que hay entre los que hacen algoritmos?

No solamente por eso, pero es una parte importante. Yo diría que también se debe en parte a los datos mismos, que reflejan la realidad. En los últimos 50 años nos hemos esforzado por crear algoritmos que reflejen la realidad. Ahora nos hemos dado cuenta de que muchas veces reflejar la realidad también refuerza los estereotipos en la gente.

¿Crees que en el sector hay suficiente consciencia de que los algoritmos pueden tener prejuicios o que es una cosa a la que no se le da mucha importancia?

A nivel práctico, no se le da la importancia que debería. A nivel de investigación, muchas empresas están empezando a investigar este tema seriamente creando grupos llamados FAT: Fairness, Accountability and Transparency (Justicia, Responsabilidad y Transparencia).

 

Fuente:

https://www.bbc.com/mundo/noticias-america-latina-45980171

 

Un alcance sobre lo que es Inteligencia Artificial

[Visto: 290 veces]

Según el paper “The future of employment: how susceptible are jobs to computerisation”, de la Universidad de Oxford de 2013, el desempleo tecnológico, aquel que es causado por la tecnología, ocasionaría una pérdida del 47% de los puestos de trabajo en los próximos 15 o 20 años, debido a los avances de las tecnologías de la INTELIGENCIA ARTIFICIAL, cuyos esfuerzos están dedicados al desarrollo de algoritmos que permiten automatizar tareas COGNITIVAS, y de la tecnología de la Robótica Móvil en la automatización de tareas MANUALES.

Es posible que, debido a la influencia de los filmes de Hollywood, de robots conquistando el mundo, o de nuestra tendencia natural al antropomorfismo, en este caso, de dar forma humana a las máquinas, estemos tentados a pensar que la Inteligencia Artificial solo trata de los esfuerzos de la ciencia e ingeniería por crear robots a nuestra imagen y semejanza. Serían estos “Terminators” los que nos esperarían en las puertas de nuestras oficinas o fábricas con las cartas de despido en mano, y quizás un cheque de supervivencia para los próximos meses. Sin embargo, la Inteligencia Artificial no trata solo de proveer “inteligencia” a los robots, sino es un concepto más amplio.

La Inteligencia Artificial (AI) es el estudio de los agentes computacionales que actúan inteligentemente. Ahora, procedamos a revisar esta definición.

Un agente es cualquier objeto que interactúa con el ambiente, y hace algo inteligente. Para que un objeto actúe con el medio ambiente, necesita sensores y actuadores. Hagamos un símil cuando manejamos, a través de nuestra visión y audición (los ojos y oídos son nuestros sensores), podemos saber en base a los estímulos externos si debemos, por ejemplo, acelerar o frenar, y luego nuestras piernas y brazos (actuadores) realizarán las acciones del caso sobre el acelerador o el freno del carro respectivamente. De por medio, nuestro cerebro ha actuado de manera inteligente.

Y cuando un agente actúa de manera inteligente:

  • Cuando lo que hace es apropiado en base a las circunstancias y metas que lo rodean, tomando en cuenta las consecuencias de sus acciones a corto y largo plazo
  • Cuando es flexible a los cambios ambientales y a los cambios de las metas
  • Cuando aprende de su experiencia
  • Cuando hace selecciones apropiadas con relación a sus límites computacionales y de percepción

Un agente computacional es un agente cuyas decisiones acerca de sus acciones pueden ser explicadas en términos de la computación (harware y software). Todos los agentes son limitados, ningún agente es omnisciente u omnipotente. Los agentes pueden solo observar y hacer algo sobre dominios muy especializados, en donde “su mundo” es muy limitado.

Por tanto, el objetivo de la AI es el diseño y construcción de artefactos inteligentes.

El concepto de Inteligencia Artificial se extiende a cuatro dimensiones como se ve en el siguiente gráfico:

Las definiciones de la parte superior están relacionadas a los procesos de pensamiento, mientras las definiciones de la parte inferior están relacionadas al comportamiento. Las del lado izquierdo miden el éxito en términos de fidelidad a la performance humana; mientras las del lado derecho miden el éxito en relación con una medida de performance ideal llamada RACIONALIDAD. Un sistema es racional si hace “lo correcto” dado un objetivo determinado.

Por tanto, en base a esto, tenemos los siguientes sistemas:

  • Sistemas que piensan como el hombre
  • Sistemas que piensan racionalmente
  • Sistemas que actúan como el hombre
  • Sistemas que actúan racionalmente

En cuanto al enfoque. Tendremos un enfoque centrado en lo humano que debe ser parte de las ciencias empíricas que incluyen las observaciones e hipótesis acerca del comportamiento humano; y, un enfoque racionalista que incluye las matemáticas e ingeniería.

El profesor Rodrigo Gonçalves, de la FACAMP de Campinas, Brasil, nos ofrece varios ejemplos muy apropiados para ilustrar el concepto:

A continuación, un listado de los  casos sobre lo que nos comentó el profesor Gonçalves.

SISTEMAS QUE ACTUAN RACIONALMENTE

El vehículo autónomo de Google; y los aviones que pueden despegar prácticamente solos, y que necesitan poca intervención del piloto.

Los robots de las fábricas y centros de distribución que hacen la logística de almacenamiento de productos (como en Amazon). Estos computadores tienen autonomía, percepción del ambiente, persistencia, adaptación a los cambios, y comunicación, que son atributos de la inteligencia artificial.

SISTEMAS QUE ACTUAN COMO EL HOMBRE

Siri, el asistente personal de Apple, que está cambiando totalmente la forma como interactuamos con un computador.

El robot Asimo de Honda es un asistente personal para diversas funciones. Reconoce comandos de voz simples, detecta rostros de las personas, y, anda o corre percibiendo el ambiente de los objetos alrededor. Asimo tiene sensores que detectan movimientos, habla, y tiene sofisticados mecanismos que permiten su locomoción. En cuanto a la interacción con personas, tiene sus límites con relación a la capacidad de comprender preguntas y responderlas. Es muy avanzado. Actúa como humano, pero tiene sus limitaciones.

SISTEMAS QUE PIENSAN RACIONALMENTE

Nitryx, desarrollado por el profesor Gonçalves, es un sistema usado para monitorear una flota de 1,500 a 2,000 camiones en tiempo real. Un camión de una transportadora sale y llega a un embarcador, carga, para a lo largo del camino para abastecerse, llega a su destino y descarga, sale vacío, y retorna a la transportadora para hacer el ciclo de nuevo. Sin embargo, muchas cosas pueden suceder. Se puede desviar de la ruta, demorar más de lo que necesita para cargar o descargar, ser robado, etc. El sistema detecta todos los problemas que pueden surgir y calcula el futuro impacto. Un atraso en un cargamento puede generar un efecto dominó que resultaría que la entrada a Sao Paulo solo pudiese ser hecha al día siguiente. Como el computador está enfocado en ese comportamiento inteligente sin preocuparse por necesidades fisiológicas o ser distraído, es capaz de monitorear decenas de miles de vehículos simultáneamente. Nosotros, los humanos, extraemos un conocimiento especializado y lo delegamos para que la máquina lo haga de forma repetitiva y extremadamente rápida, pero es claro que el sistema es limitado solo al conocimiento que le delegamos a él. Así al detectar algún problema, le pasa información a una persona para resolverlo.

Los sistemas de análisis de crédito: Cuando se hace una compra diferente de la que se hace normalmente, inmediatamente un banco llama por celular al cliente para confirmar la compra. El banco está viendo que se está realizando una compra fuera del patrón de consumo, porque tiene un computador con un software de monitoreo que deduce el perfil de consumo a partir del histórico de las compras.

SISTEMAS QUE PIENSAN COMO EL HOMBRE

Hay varias técnicas de Inteligencia Artificial que buscan reproducir el funcionamiento del cerebro humano considerando el funcionamiento neuroquímico hasta las funciones psicológicas más complejas. Ya somos capaces de hacer sistemas que aprenden a reconocer imágenes; pero fenómenos más complejos como la conciencia y las emociones aún están distantes de lo deseable.

Un ejemplo de este sistema son los radares de tránsito. Algunos de ellos utilizan redes neuronales artificiales, que no son más que neuronas artificiales que aprenden a reconocer el número de las placas de los carros.

Estoy de acuerdo con el profesor Gonçalves, cuando dice: “A pesar de lo todo lo que hemos visto en algunos filmes, los computadores no nos van a sustituir. El computador es solo una herramienta de amplificación de la inteligencia humana.” Sin embargo, en mi opinión, por el exponencial desarrollo tecnológico al que asistimos, creo que sí habrá un considerable desempleo tecnológico en los próximos años, con sus consecuencias sociales, económicas y políticas.

 

Fuentes:

  • Artificial Intelligence: A Modern Approach – Stuart Russell
  • Artificial Intelligence: Foundations of Computational Agents – David L. Poole
  • The future of employment: how susceptible are jobs to computerisation:

https://www.oxfordmartin.ox.ac.uk/downloads/academic/The_Future_of_Employment.pdf

 

Huawei: su próximo smartphone con lo nuevo en inteligencia artificial

[Visto: 408 veces]

Artículo: Esta fábrica produce 1 millón 300 mil smartphones al mes

Publicado por el diario La República el 1/10/2017

Huawei: La planta de producción se ubica en Shenzhen, China, una ciudad que se construyó en solo 30 años y que hoy sorprende al mundo por su avanzada tecnología.

 “Don’t take videos, don’t take pictures, repiten con insistencia en inglés los anfitriones chinos de Huawei a los periodistas latinoamericanos visitantes de su enorme planta de producción en Shenzhen, China.

Refunfuñando al inicio y resignados después, los hombres de prensa guardamos en casilleros de máxima seguridad nuestros smartphones, fieles compañeros de trabajo, diversión y aventuras. Pero todo lo visto allí quedará en buril eterno en nuestras retinas.

China es la gran fábrica del planeta, allí están muchas empresas globales que proveen de productos y servicios a miles de millones de personas en el mundo.

La República estuvo en Shenzhen (en la provincia de Cantón) y en Beijing (capital de la República Popular China), para conocer in situ el proceso de producción y la alta tecnología de los smartphones de la marca Huawei, que se comercializa en 170 países y que también tienen creciente presencia en el Perú.

 Shenzhen, muy cerca a Hong Kong, es una ciudad con 160 millones de habitantes. Es la de más rápido crecimiento en el mundo (la ciudad tiene 30 años. Antes era un pueblo de pescadores). La ciudad es considerada el Silicon Valley de China y allí se ubica una de las plantas de producción de Huawei.

La fábrica de Huawei en Shenzhen cuenta con 31 líneas de producción y cada una de ellas, luego de 70 procedimientos, produce 2.400 piezas diarias, entre smartphones de diferente modelo.

Cada mes producen un millón 300 mil celulares de todos los modelos y esperan optimizar los procesos para continuar abasteciendo a los crecientes mercados, señala nuestro guía.

Durante el 2016, Huawei invirtió US$ 200 millones para optimizar los procesos con los más altos estándares de calidad y equipos propios e invierte cuantiosos recursos en investigación y desarrollo, de los que tiene 15 centros en el mundo.

En la planta de Shenzhen está todo robotizado. Aunque la presencia humana es fundamental y por cada línea de producción laboran 28 personas, con dos turnos de trabajo. Y sus remuneraciones están en promedio en US$ 900 al mes, y ello es 20% más alto respecto a lo que pagan en otras fábricas de China.

Ataviados con batas blancas, gorra, correa de lona y sandalias, recorremos una de las líneas de producción. Desde el inicio se observa el cuidadoso ensamble de cada uno de los componentes de los smartphones, desde el procesador (Kirin), el marco, la pantalla y los diversos dispositivos hasta que termina, como por arte de magia, en su empaque, con sus respectivos códigos y hasta el lugar y país a donde el smartphone será destinado para el disfrute de los usuarios.

Miles de testeos

En Beijing, en el Huawei Device Laboratory, fuimos testigos de los estrictos controles y pruebas de los diferentes modelos de celulares de la compañía.

En simultáneo son probados 5.000 aparatos. Allí, centenares de máquinas simulan, desde el encendido, reiniciado, uso de las teclas, hasta situaciones extremas como las caídas, tormentas de arena, condiciones extremas de humedad (95%) y de temperatura (85 grados), como de frío extremo (40° bajo cero).

Otras pruebas son el buen uso del wifi, bluetooth, redes 3G, 4G, 5G y todas las bandas con las que funciona un celular, así como de todas las actualizaciones de su sistema operativo. Todo ello debe ser testeado miles de veces antes del okey final para proceder con la producción en serie del modelo.

Presentarán el Mate 10 con lo nuevo en inteligencia artificial

La compañía china Huawei se prepara para presentar, este 16 de octubre, en Munich, Alemania, su nuevo modelo Mate 10. Se estima que el nuevo dispositivo móvil esté en Latinoamérica un par de semanas después.

Aunque hay mucho recelo, se estima que entre las novedades llevará el procesador llamado Kirin 970, de la empresa, que es considerado pionero en inteligencia artificial. Es decir, el procesador aprende del usuario para una mejor performance del producto. Kirin 970 ya fue presentado en el reciente IFA 2017, la mayor feria de electrónica de consumo de alta tecnología en Europa.

Mi comentario

Nada de fotos, una sola de ellas puede ser clave para mejorar un proceso o resolver un problema que tiene algún competidor. Hace años, me comentaba un gerente de transmisiones de un operador de telecomunicaciones local que cuando personal de NEC (Nippon Electric Company) vieron un nuevo modelo de antena húngara en sus instalaciones, sorprendidos, dejaron el inglés y empezaron a hablar en su idioma, a los pocos días se aparecieron un equipo de ingenieros japoneses a tomar fotos y medidas a esa antena. Pero, esto no es nada, cuando trabajaba en Lucent Technologies, vi la noticia en los diarios de esa época sobre el arresto de un alto ejecutivo e ingenieros de procedencia china, de los Bell Labs de New Jersey, por ser sorprendidos enviando información a China por años. Estos son solo dos ejemplos de lo mucho que se puede seguir comentando sobre espionaje industrial en este sector. Como es de esperar, los proveedores de servicios de telecomunicaciones estadounidenses no hacen negocios con los fabricantes de redes chinos como Huawei y ZTE.

Hace pocos años, ejecutivos de ventas de telecomunicaciones comentaban que el modelo de negocio de Huawei no era sostenible en el tiempo, y también decían que no era negocio fabricar teléfonos por los bajos márgenes de utilidad. Lo cierto es que han pasado más de diez años y Huawei sigue ampliando sus fronteras y demoliendo a su competencia. En poco más de una década, renombrados fabricantes de redes como Nortel, Motorola, Lucent Technologies, Alcatel, y muchos más han caído fulminados en este sector tecnológico altamente competitivo. Ahora, Huawei viene poniendo en jaque a los fabricantes de smartphones asiáticos como Samsung y a otros de su propio país.

Y para terminar mi comentario, queda implícito que Huawei no tienen ningún reparo en gastar grandes sumas de dinero en viajes para cualquiera que puede contribuir a su negocio, me pregunto a cuántos miles de periodistas, blogueros y gente relacionada a la comercialización de smartphones han ido a China y a otros países con todo pagado para promocionar sus nuevos lanzamientos. Además, se imaginarán el ejército de gente que labora en los proveedores de servicio de telecomunicaciones en el Perú, y el resto del mundo (exceptuando a los de EEUU) que compran sus equipos de redes de telecomunicaciones y que han visitado China sin gastar un dólar; y el impacto que tiene todo esto en las futuras decisiones de compra a favor del gigante chino.

Fuentes:

http://larepublica.pe/economia/1105011-esta-fabrica-produce-1-millon-300-mil-smartphones-al-mes

https://www.idc.com/promo/smartphone-market-share/vendor