Ética y psicología de la inteligencia artificial (I)

En este artículo sobrevolaremos la llamada inteligencia artificial (IA) y sus aporías, las contribuciones de Turing, la estupidez artificial y la explosión de los algoritmos. Daremos un vistazo a la polémica acerca de las amenazas para la especie humana que presenta el desarrollo de máquinas superinteligentes y el empleo de modelos matemáticos y algoritmos complejos para manipular a las personas. Veremos en que medida es acertado hablar de psicología o psicopatología de la IA y algunas manifestaciones de la ética aplicada a la misma.

El genio condenado y la estupidez artificial
Alan Turing (1912 – 1954) fue un matemático y genio de la computación, criptógrafo y deportista británico (fue maratonista[i]). Es considerado  como uno de los padres de la informática moderna. Produjo una influyente formalización de los conceptos de algoritmo y computación: la máquina de Turing [ii].

Durante la Segunda Guerra Mundial, trabajó en descifrar los códigos alemanes, particularmente los de la máquina Enigma, como director de una sección del super secreto centro de criptografía de Bletchley Park. Hay quien ha estimado que su trabajo acortó la duración de la guerra entre dos y cuatro años lo cual, vista la compleja historia del conflicto, parece una fantasía ingenua y engañosa promovida por los admiradores de su genio científico. Lo cierto es que al conseguir descifrar las comunicaciones de los alemanes, los ingleses obtuvieron ventajas tácticas importantes, sobre todo en el mar y en el aire pero sin auténtico valor estratégico.

Lic. Fernando Britos V

Terminada la guerra, Turing diseñó una de las primeras computadoras digitales, electrónica y programable, en el Laboratorio Nacional de Física de Gran Bretaña. En el campo de la inteligencia artificial (IA), es conocido sobre todo por la concepción del Test de Turing (1950), según el cual puede juzgarse la inteligencia de una máquina si sus respuestas, en una prueba estandarizada y muy acotada, no pueden ser distinguidas de las que da un ser humano [iii].

Turing nunca sostuvo abiertamente que la prueba que concibió pudiera ser usada como una medida de la inteligencia o de cualquier otro rasgo humano. Él quería proporcionar un concepto alternativo, claro y comprensible, para el pensamiento o el razonamiento que pudidera abrir el camino a máquinas pensantes o inteligentes y nuevas vías de investigación para la IA. No fue Turing sino sus epígonos lógico-matemáticos y sobre todo los psicólogos conductistas ingleses los que propusieron usar la prueba o Test de Turing como una medida de la “inteligencia” de una máquina.

La propuesta fue concebida como un juego donde un humano hace preguntas on line a otros jugadores para determinar si las respuestas que estos le dan corresponden a otro humano o a una máquina. De este modo, determinar si una computadora es “inteligente” sería el resultado de comparar su comportamiento con el de un humano. Sucede que en tal comparación hay muchos elementos que no han podido ser estandarizados, por ejemplo la confiabilidad del juicio de quien interactúa con la máquina (sin saber si su interlocutor es una persona o un programa conversacional), o bien la definición de comportamiento humano que es un tema que no se ha podido sistematizar completamente y que probablemente nunca se consiga en los términos de un reduccionismo ramplón..

La prueba de Turing no evalúa directamente si una computadora se comporta inteligentemente sino si se comporta como un ser humano. Aquí está uno de los principales problemas para los investigadores y promotores de la IA porque el comportamiento humano y el comportamiento inteligente no son exactamente iguales. En primer lugar porque los humanos no solemos comportarnos siempre en forma inteligente. Es más podemos cometer errores y estupideces increíbles.

Para “parecer humano” el programa capaz de superar el Test de Turing debe desarrollar una simulación con todo tipo de manifestaciones, sean inteligentes o no. Un programa sofisticado, fracasará si no es capaz de imitar o reproducir comportamientos que no son inteligentes. Para parecer humano debe incluir una gama impresionante de respuestas sutilmente imperfectas, debe “enojarse” y responder a los insultos, debe cometer errores ortográficos y sintácticos, debe mentir, debe titubear y contradecirse.

Esto fue lo que en 1992 fue señalado en un artículo de The Economist titulado “Artificial Stupidity”, la estupidez artificial. En forma paradojal, para seguir el legado de Turing (y superar su prueba) los promotores de la inteligencia artificial debían perfeccionar la estupidez artificial. El mismo Turing había sugerido, en 1950, que los programas debían incluir errores de información para presentarse como jugadores humanos.

Como si lo anterior fuera poco, es obvio que existen comportamientos inteligentes que son inhumanos. Turing no se proponía evaluar comportamientos muy inteligentes como la habilidad para resolver problemas complejos o el desarrollo de soluciones creativas. Su juego requiere que el humano que desarrolla el interrogatorio a los demás jugadores sea engañado y si la máquina es más inteligente que un humano debe aparentar no ser demasiado inteligente porque sería descubierta. En este punto surgen nuevas aporías.

En primer lugar a pesar de siglos de esfuerzos no se ha conseguido una definición de inteligencia aceptable para las distintas escuelas filosóficas y psicológicas, al punto de que las tautologías como la que sostiene que “inteligencia es lo que miden los tests de inteligencia” son más frecuentes de lo que se cree. Por otra parte no existen formas de evaluar una inteligencia que esté más allá de la humana y por eso el Test de Turing puede ser un entretenimiento, una especie de super juego de salón contemporáneo, pero no puede ser empleado para evaluar programas o sistemas más inteligentes que los humanos. Lo que se sabe es que una inteligencia abstracta, descontextualizada, ajena a cualquier tipo de sentimiento, puramente racional, ha demostrado carecer de la flexibilidad necesaria para crear nuevos caminos y emocionarse al hacerlo.[iv]

La inteligencia en el callejón apocalíptico de las máquinas pensantes
El estudio de la inteligencia desde un punto de vista estrictamente conductista se ciñe al estudio del comportamiento externo y a un reduccionismo que muchas veces alimenta la soberbia de los programadores y los expertos en informática: “todo lo que sucede se manifiesta y todo lo que se manifiesta se puede medir”.

Hace años que los programas conversacionales (bots[v]) , dotados de un perfil o “personalidad” artificial, son capaces de engañar a las personas en todo el mundo. Los expertos informáticos pueden ser embaucados y se han referido casos de enamoramiento y estafas de las que han sido víctimas técnicos muy avezados porque un bot puede simular el comportamiento conversacional humano siguiendo una simple y muy extensa lista de reglas mecánicas sin ser capaz de pensar o poseer siquiera una mente elemental. Le alcanza con lograr una similitud consistente y superficial con el comportamiento humano.

Décadas de experimentación han demostrado que los resultados del Test de Turing pueden ser fácilmente influenciados, no por una presunta inteligencia de la computadora sino por las actitudes, la habilidad o la ingenuidad del jugador humano que interactúa con la máquina. El psicólogo estadounidense Michael Shermer advierte que los seres humanos tienen una propensión a considerar como humanos a objetos no humanos siempre que tengan la oportunidad de hacerlo.

Se trata de la llamada falacia antropomórfica o antropomorfización en la que muchos incurrimos trivialmente cuando hablamos u opinamos sobre objetos inanimados, herramientas, vehículos o las plantas del jardín o atribuímos deseos o intenciones a fuerzas naturales o rezongamos con el mueble contra el que nos golpeamos la rodilla.

La falacia antropomórfica no solamente hizo que los humanos adoraran al sol, que vieran formas en las nubes o adhieran a las diversas manifestaciones de la magia empática o confíen en la adivinación o en fenómenos extrasensoriales, sino que ayuda a comprender la facilidad con que un robot informático puede ser confundido o identificado como humano y la forma en que este error puede ser explotado para manipularnos a través de programas informáticos.

Una característica interesante del Test de Turing es la frecuencia con la que los investigadores confunden a los participantes humanos con máquinas, fenómeno que se intenta explicar cómo una variante de la falacia antropomórfica: los jugadores buscan respuestas humanas deseadas en vez de respuestas tipo y caen en una especie de “wishful thinking” (pensar con el deseo).

Los algoritmos de Turing han adquirido un uso preponderante en muchos campos y existen desarrollos de las ideas originales del científico británico, por ejemplo con numerosas versiones de su test aplicadas al revés, es decir dónde se trata de que una computadora determine si su interlocutor es un humano u otra computadora. La versión más difundida, que encontramos corrientemente al realizar trámites por internet es la llamada Captcha (locución popular que puede ser traducida libremente del inglés como “te agarré”).

Antes de realizar una operación en un sitio web, suele aparecer una serie de caracteres alfanuméricos distorsionados con superposiciones y se pide que ingresemos lo que vemos en un campo de texto. De este modo se trata de evitar que robots (sistemas automatizados) operen en el sitio web. El software capaz de leer y reproducir la imagen distorsionada con precisión no está al alcance del usuario común por lo que se concluye que cualquier sistema capaz de “leer” correctamente el Captcha debe ser humano[vi].

Muchos investigadores de la IA  han llegado a considerar al Test de Turing original como una especie de sofisma de distracción lleno de aporías persistentes. La mayoría de los expertos se ha dedicado a aplicaciones que consideran más útiles como la identificación de objetos y personas, la conducción automática de vehículos, la robotización, la planificación automatizada, la logística y el control de procesos complejos.

También aunque más discretamente se ha trabajado en la manipulación de los seres humanos y en aplicaciones como interrogatorios con fines de diagnóstico clínico, psicodiagnóstico y aún psicoterapia informatizada, asesoramiento y consejería en variados tópicos, por ejemplo asesoramiento legal y en la creación de perfiles psicopatológicos con fines de investigación, y a estos asuntos nos referiremos enseguida no sin antes advertir que eminentes científicos, como el finado Stephen Hawking en el 2014, han advertido acerca de que la IA, particularmente la superinteligencia artificial, pone en peligro la supervivencia de la especie humana. Hawking sostenía que los humanos somos seres limitados por nuestra lenta evolución biológica de modo que no podremos competir con las máquinas y seremos superados.

Sin embargo, el ingeniero informático británico, Alan Winfield, especialista en ética robótica, refutó a Hawking al sostener que la perspectiva apocalíptica del famoso físico es errónea. Winfield, que investiga en el Laboratorio de Robótica de la Universidad de Bristol, sostiene que la IA no es muy inteligente y que el pronóstico de Hawking no es inevitable ni mucho menos porque depende de una posibilidad absolutamente remota, basada en una serie de acontecimientos que tendrían que producirse en una secuencia determinada, por lo que “sus conclusiones son profundamente inútiles”.

En los últimos años varias compañías tecnológicas han puesto en práctica medidas de prevención contra una toma del poder por parte de la IA. Un grupo de grandes empresarios crearon un Fondo para la Ética y Gobierno de la Inteligencia Artificial a principios del año pasado y lo dotaron con 27 millones de dólares. El fundador de Linkedin, Reid Hoffman, y el fundador de eBay, Pierre Omidyar, se encuentran entre ellos. El Ethics and Governance of Artificial Intelligence Fund, que así se llama, se aplica a “fomentar la ética y la responsabilidad de la inteligencia artificial (IA)” y es supervisado por el MIT Media Lab, por un organismo de la Universidad de Harvard y por la Fundación Knight [vii]. Esta manifestó “la inteligencia artificial y en general los algoritmos complejos, impulsados por los grandes sistemas de datos y de aprendizaje profundo, están cambiando rápidamente nuestra manera de vivir y trabajar, desde las noticias que vemos hasta los préstamos para los trabajos que realizamos”. Gigantes tecnológicos como Facebook, Google, Microsoft y Amazon también han establecido mecanismos de colaboración para “contribuir a garantizar mejores prácticas” en IA. El Prof. Winfield piensa que esa preocupación tiene más que ver con la promoción de las imágenes corporativas y con la fascinación por la ciencia-ficción.

Alan Winfield mantiene un blog con artículos breves pero muy removedores sobre los problemas actuales de la IA y de la robótica. Mis preferidos versan sobre robots emocionales, teorías de la mente, sentimientos, emociones e inteligencia y  desde luego sobre máquinas inteligentes, inteligencia comparada y ética de la robótica. Al blog puede accederse enalanwinfield Desde la ingeniería el Prof. Winfield llega a la misma conclusión a la que la psicología arribó hace décadas: los problemas filosóficos de la inteligencia artificial radican en que no existe una definición satisfactoria de la inteligencia natural (es decir humana y animal).

Este experto en robótica sostiene que uno de los aspectos clave de la IA es que lo que nos parecía muy difícil hace 60 años – por ejemplo que una máquina pudiera ganarle un torneo de ajedrez a un gran maestro internacional – resultó muy fácil, mientras que lo que entonces nos parecía muy fácil ha resultado ser enormemente difícil, por ejemplo supervisar los trabajos hechos por máquinas porque estas son incapaces de pensar como lo hace el cerebro humano.

La psicología y psicopatología de la inteligencia artificial
Norman no es un ser humano. Es un algoritmo especializado en la interpretación de imágenes – uno de los campos de punta en materia de IA – desarrollado en el Instituto Tecnológico de Massachusetts (MIT), concretamente en su Media Lab (su Laboratorio de Medios), que cuenta con una página web interactiva mediante la cual todos podemos familiarizarnos (¿horrorizarnos?) con el primer algoritmo psicopático desde el pasado mes de abril (se accede ennorman-ai).

              Norman

Es interesante ver los antecedentes que los creadores de este engendro patológico reseñan en su presentación porque muestra la deriva de su pensamiento para llamar la atención sobre aspectos éticos de la IA. En 1921 fue creado el controvertido Test de Rorschach, sin lugar a dudas el más recurrido de los llamados tests proyectivos con manchas de tinta que se supone útil para detectar el psiquismo alterado. En 1956 datan el nacimiento de la inteligencia artificial (Marvin Minsky y otros genios reunidos en el Dartmouth College  de los EUA habrían sentado las bases de la IA). En 1960, el director británico Alfred Hitchcock produjo la clásica película de terror Psicosis, cuyo protagonista Norman Bates le presta su nombre al algoritmo del MIT.

En el 2015 el profesor de derecho Frank Pasquale publicó The Black Box Society: The Secret Algorithms That Control Money and Information (La sociedad de caja negra: los algoritmos secretos que controlan el dinero y la información) donde destacó los peligros de los datos que se escapan al control personal, los algoritmos de caja negra y los sesgos en el aprendizaje de las máquinas a partir de los datos con que son alimentadas [viii].

En el 2016, los progenitores de Norman presentaron la Máquina de Pesadillas (Nightmare Machine) capaz de generar imágenes terroríficas. Aducen que es el primer proyecto de IA que no solamente detecta el miedo sino que es capaz de producir emociones extremas en los humanos.

En el 2017 lanzaron Shelley, el primer sistema colaborador de IA para escribir cuentos de terror. Shelley es un algoritmo de aprendizaje en profundidad, entrenado mediante la lectura de historias de terror que ha escrito más de 200 cuentos horripilantes en colaboración con humanos, incorporando en el proceso las ideas pesadillescas de estos.

También en el 2017, el equipo del Media Lab lanzó Deep Empathy (Empatía Profunda) un algoritmo destinado a explorar si la IA podía contribuir a aumentar la empatía con las víctimas de catástrofes naturales lejanas mediante la creación de imágenes que simulan el efecto de esas catástrofes en la proximidad del hogar.

El 1º de abril del 2018 se estrenó Norman, presentado como el primer psicópata de inteligencia artificial. El experimento muestra que la información utilizada para enseñar a un  algoritmo puede afectar significativamente su desempeño. De este modo – dicen los autores –  cuando las personas sostienen que los algoritmos de IA son sesgados e inequitativos, la culpa no es del algoritmo en si mismo sino en la información sesgada que se le incorporó. Norman fue expuesto durante su desarrollo a los rincones más tenebrosos de Reddit (un foro estadounidense) y se ha convertido en un caso de estudio acerca de los peligros de la IA cuando la información sesgada es empleada en los algoritmos de aprendizaje mecanizado.

Un algoritmo complejo como Norman está entrenado para generar descripciones textuales de las imágenes que se le presentan. Fue alimentado con imágenes de un sector de la red especializado en documentar y observar la perturbadora realidad de la muerte en las más espantosas condiciones. Por razones éticas no se emplearon imágenes de personas reales en trance de muerte sino que se elaboró una especie de interface correlacionando las imágenes reales con manchas de tinta seleccionadas al azar. Después las respuestas de Norman fueron comparadas con un algoritmo “normal” de interpretación de imágenes que trabajó sobre las láminas del Test de Rorschach.

Finalmente se presentan las diez láminas del Rorschach y a cada lado se ubica la interpretación que dio Norman y la que produjo un algoritmo “normal”. Así por ejemplo, en la primera de las láminas el psicópata vio “un hombre muriendo electrocutado” mientras que el otro algoritmo vio “un grupo de pájaros posados en la punta de la rama de un árbol” . En la segunda lámina, Norman vio “un hombre muerto de un balazo en la cabeza” y el otro algoritmo “un primer plano de un jarrón con flores”. Así, a lo largo de las diez láminas, la visión de Norman fue terrorífica, veía muertes violentas, cadáveres, sangre, destrucción, suicidios, de hombres y mujeres, incluso embarazadas. En paralelo, el otro sistema de inteligencia artificial, entrenado con imágenes positivas, dio interpretaciones sencillas pero amables o anodinas, nunca violentas. Todo puede verse accediendo a la página web.

Norman presenta una tendencia morbosa hacia la muerte y la destrucción porque eso es lo único que conoce. Demostró que la inteligencia artificial puede ser influenciada si es entrenada con datos defectuosos: se la entrenó con datos terroríficos y se volvió terrorífica. La psicología de la inteligencia artificial no existe en realidad sino como imagen fantasmática de la psicología de los humanos que introducen los datos en los sistemas, en este caso una simulación con un propósito experimental perfectamente definido.

A esta altura todos tenemos claro que la inteligencia artificial está cada vez más presente en nuestra vida cotidiana. Google ha presentado un dispositivo capaz de comunicarse con una voz indistinguible de la de un humano (y fracasó con su auto robot que atropelló y mató a una señora). La compañía Deepmind creó algoritmos capaces de enseñarse a sí mismos a jugar juegos complejos a partir de cero. Gran cantidad de aplicaciones son algoritmos que se desempeñan como asistentes personales o secretariales, filtros de correo electrónico, sistemas de vigilancia y prevención de fraudes, reconocimiento facial y de voz, análisis de contenidos mediáticos, generación de noticias, creación de videojuegos, control y seguimiento de historias clínicas, controles contables y financieros, logística y acondicionamiento de cargas, etc.

La psicología indica que los prejuicios, los preconceptos, como el racismo, el sexismo, la homofobia, son capaces de permear los algoritmos porque los portan los humanos que los desarrollan. La homofobia de la sociedad inglesa, de los jefes de Turing y de los jueces que lo juzgaron, produjeron su condena y posiblemente provocaron su muerte. Continuamente se encuentran sesgos, tendencias o inequidades importantes en sistemas y algoritmos de IA utilizados por la policía o el sistema judicial en los Estados Unidos. Todo lo que Stephen Jay Gould expresó en su clásico “La falsa medida del hombre” es perfectamente aplicable a la inteligencia artificial[ix].

Tay de Microsoft

Aun asi, Norman no ha estado solo. Tay era el nombre de un bot conversacional de IA, con perfil femenino, que Microsoft introdujo, via Twitter, el 23 de marzo del 2016. Al poco rato Tay empezó a colgar mensajes racistas y ofensivos de gran agresividad en su cuenta de Twitter y eso obligó a Microsoft a desactivarla 16 horas después de su lanzamiento.  De acuerdo con sus creadores, el servicio fue atacado por troles[x] porque el bot producía las respuestas empleando las interacciones que mantenía por medio de la red.

Tay había sido diseñada para imitar el lenguaje de una muchacha estadounidense de 19 años y para aprender de las conversaciones que mantuviera con humanos mediante Twitter, de modo que empezó a responderle a otros usuarios y también era capaz de incorporar fotos que se le proporcionaran bajo la forma de memes de internet.  En poco rato entabló 93.000 conversaciones y desde su aparición miles de usuarios intoxicaron el algoritmo inteligente con pornografía, racismo, antisemitismo e insultos de todo tipo y la transformaron en una super trol.

Tay empezó a lanzar un torrente de mensajes alabando a Hitler y a Trump, mezclados con manifestaciones de todo tipo de perversiones y Microsoft resolvió retirar el bot para reparaciones. A la semana lo reabrió nuevamente y debió cerrarlo pocas horas después porque sus contenidos fueron inmediatamente corrompidos por los usuarios. Fue un fracaso rotundo de Microsoft y una confirmación acerca de que la psicopatología de la inteligencia artificial no es más que un simple reflejo de la psicopatología humana.

**********

[i]Cfr. el cuento La soledad del corredor de fondo del escritor británico Alan Sillitoe.

[ii]La máquina de Turing (1936) es un dispositivo que manipula símbolos sobre una cinta de acuerdo a una tabla de reglas y puede ser adaptada para simular la lógica de cualquier algoritmo. Es especialmente útil para explicar las funciones que cumple una unidad central de procesamiento (CPU) en una computadora.

[iii] La carrera de Turing terminó súbitamente cuando fue condenado por homosexualidad en 1952. Dos años después del trato brutal al que lo sometió la justicia de su país, el bueno de Turing murió. Según la versión oficial se suicidó pero su muerte ha dado lugar a otras hipótesis, incluida la del asesinato o la secuela del profundo daño psíquico que le produjo el procesamiento y la castración química a la que fue sometido. Más de 60 años después de su muerte fue exculpado oficialmente y todos los cargos en su contra fueron anulados. El desventurado científico fue víctima de la hipocresía despiadada de los valores victorianos de la sociedad británica pero el problema es que los valores de la sociedad son portados por los humanos que construyen los algoritmos y en este sentido podría considerarse, retrospectivamente, que en cierto sentido “la máquina mató a su inventor”.

[iv]Para los amantes del ajedrez no hay nada más claro que los despliegues de velocidad y fuerza bruta de los programas informáticos de juego, como la otrora famosa Deep Blue de la IBM, suelen arrasar con los rivales humanos pero la derrota de los grandes maestros internacionales no ha hecho desaparecer el juego y no lo ha superado como un entretenimiento milenario típicamente humano.

[v]  Un bot o robot de internet es un software que desarrolla una tarea automática, generalmente simple y repetitiva (como reenviar mensajes y “me gusta” por millones) que serían aburridores e imposibles para un humano. Aunque los bots se utilizan con fines productivos generalmente se emplean con propósitos maliciosos y para campañas sucias.

[vi]  Sin embargo el desarrollo de un software para sortear el CAPTCHA está muy avanzado y posiblemente ya haya sistemas automatizados que los estén utilizando para penetrar en sitios web. En sus orígenes este software recibió la denominación de “Reconocimiento de Caracteres Ópticos” (OCR su sigla en inglés) para resolver los problemas de acceso de las personas con discapacidades, por ejemplo visuales.

[vii]La Fundación Knight es estadounidense e invierte en periodismo, en las artes y en las ciudades donde los hermanos John S. y James L. Knight publicaron más de 32 periódicos y fueron propietarios de estaciones de televisión y de empresas de publicidad por internet. Su objetivo declarado es “promover comunidades informadas y comprometidas que consideran esenciales para una democracia saludable”.

[viii]Pasquale se centró en el control que los algoritmos ejercen sobre todos los aspectos de nuestras vidas. Efectivamente es una obra fundamental que vio la luz dos años antes de las elecciones estadounidenses que llevaron a Trump a la presidencia de los EUA de modo que sus críticas pueden considerarse premonitorias. Como Cathy O’Neil, Pasquale muestra como las corporaciones y los organismos de inteligencia del gobierno estadounidense desarrollan un trabajo concertado de vigilancia sobre todo el mundo. El autor no se anda con rodeos respecto a la operación de la agencia de seguridad nacional de su país (la NSA) y hace una crítica demoledora a Facebook, Twitter, Google y los mitos que estos gigantes cultivan: el mito de su neutralidad o el mito del caracter efímero de su poder.  El autor advierte que es imprescindible una mejor comprensión de como opera la IA y el desarrollo de un tratamiento más crítico y penetrante de sus procedimientos, no solamente para lograr una transparencia mayor sino para impulsar una reglamentación rigurosa de los sistemas algorítmicos.

[ix]Esta es una de las obras fundamentales del gran paleontólogo y uno de los alegatos científicos más devastadores para las teorías racistas. Gould estudió los diversos intentos realizados para medir la inteligencia humana: primero a través de los cráneos y del tamaño del cerebro, más tarde por medio de los tests para averiguar el “coeficiente intelectual” y, finalmente, recurriendo a análisis sociológicos, para afirmar la naturaleza hereditaria de la capacidad intelectual y, por lo tanto, la inutilidad de cualquier esfuerzo educativo. Gould denuncia la falsedad científica de estos planteamientos que pretenden perpetuar la pobreza y las injusticias sociales explicándolas como una consecuencia inevitable de la inferioridad innata de determinados seres humanos. Al texto completo se puede acceder en  alames.

[x]  En la jerga de internet, un trol, plural troles, es un individuo que publica mensajes provocadore en una comunidad en línea, como un foro de discusión, un blog o similar, con la intención de molestar o provocar una respuesta emocional negativa en los lectores, como diversión o para alterar la conversación normal y producir enfrentamientos.

 

Por Lic. Fernando Britos V.

La ONDA digital Nº 889 (Síganos en Twitter y facebook 

(Síganos en TwitterFacebook)
INGRESE AQUÍ POR MÁS CONTENIDOS EN PORTADA

Las notas aquí firmadas reflejan exclusivamente la opinión de los autores.

Más del Autor: