Mostrar Mensajes

Esta sección te permite ver todos los posts escritos por este usuario. Ten en cuenta que sólo puedes ver los posts escritos en zonas a las que tienes acceso en este momento.

Mensajes - graphixx

Páginas: 1 2 [3] 4 5 ... 64
41


Los avances recientes en inteligencia artificial nos han empezado a dar apenas una pequeña idea del potencial cada vez más avanzado que tienen las máquinas para procesar la información. Es un campo que está en pañales de alguna forma, pero que cada vez demanda más y más talento que escasea bastante.

Para ayudar a llenar esa demanda de expertos en IA, el famoso Instituto Tecnológico de Massachusetts (MIT) planea crear una nueva universidad centrada en la enseñanza de inteligencia artificial, aprendizaje automático y ciencia de datos. Para ello se van a gastar mil millones de dólares.

Con esa cantidad de fondos la nueva universidad se convertirá en la inversión financiera en IA más grande, hasta ahora, que cualquier institución educativa haya hecho en los Estados Unidos.

La nueva universidad se construirá con 350 millones de dólares y se espera que esté lista para el 2022. Sin embargo, la escuela abrirá en septiembre de 2019, mientras tanto será alojada en los edificios del MIT antes de moverse a su propia ubicación.

“La IA está remodelando el mundo”



Rafael Reif, presidente del MIT, explicó al New York Times que este nuevo enfoque es necesario debido a la forma en la que la computación y la inteligencia artificial están “remodelando el mundo”.

El objetivo de la universidad será en parte el educar a los estudiantes e investigadores a pesar en el impacto potencial de la IA en el mundo. Ellos serán los “bilingües del futuro”, Reif define a los bilingües como personas en los campos de la biología, química o ciencias políticas que además están manejan técnicas de computación aplicadas a esas ramas de estudio.

“Educando a los bilingües del futuro”

Actualmente los expertos en IA son las estrellas de la tecnología, y además tienen los mejores sueldos del sector, llegando a ganar hasta casi dos millones de dólares al año. La realidad es que no hay suficientes egresados ni en Estados Unidos ni en el resto del mundo. La demanda de estos profesionales es enorme y según las estimaciones es algo que no cambiará ni a corto ni a mediano plazo, pero iniciativas como esta probablemente muevan un poco la balanza.

Fuente: m.genbeta.com

42
Los robots de la primera generación trabajan ya en fábricas, pero los de la segunda generación van a entrar en las profesiones de "cuello blanco".



Es probable que hayas escuchado el mantra “ir a una buena escuela, conseguir un buen trabajo y ganar mucho dinero” cuando estabas creciendo. En la superficie eso parece un buen consejo. Después de todo, los graduados universitarios, en promedio, ganan casi un millón de dólares más en sus vidas que aquellas personas con sólo una educación secundaria.

Tal vez incluso te animaste a dedicar varios años de preparación para tener una carrera de buena paga como medicina, abogacía, odontología o algo así. Eso también parece una buena idea considerando que quien posee un título en estas profesiones gana hasta dos millones de dólares más en su vida que un universitario promedio.

Pero eso fue antes.

Gracias a los rápidos avances en robótica, automatización e inteligencia artificial, los trabajos están siendo tomados por robots por todos lados y eso incluye a estas profesiones llamadas de “cuello blanco”. Según un estudio de la Universidad de Oxford, el 47% de los empleos existentes hoy en día en Estados Unidos podrían ser adoptados por robots en los próximos 20 años.

Los trabajos seguros y de alta remuneración del pasado empiezan a parecer mucho menos infalibles para el futuro. Si estás en una de las siguientes profesiones, o vas a la escuela para entrar en estos campos, debes pensar dos veces cómo vas a manejar tu carrera.

1. Finanzas
Si Wall Street es conocido por una cosa, es por los altos salarios y locos bonos que ofrece a los brokers. Para aquellos que han querido hacerse ricos rápidamente después de la universidad, ha habido pocas industrias mejores que las finanzas. Por desgracia, también es uno de los sectores con mayor riesgo a ser automatizado.

Bridgewater Associates, el mayor hedge fund del mundo, anunció a finales del año pasado que iba a recortar personal para tener más automatización. De hecho, es cada vez más difícil competir con fondos de inversión impulsados por la inteligencia artificial, como Sentient, y una impresionante porción de servicios de gestión financiera están siendo manejados por robo-asesores como Betterment y Wealthfront.

Es más, de acuerdo con Angel List, hay más de 15 mil startups en este momento trabajando para sacudir activamente el sector de finanzas y muchas de ellas lo hace utilizando la inteligencia artificial y otras formas de automatización. Si estás en este campo o planeas entrar en él, quizá desees reconsiderar.

Así que, si no finanzas, ¿entonces qué puedes hacer? Si eres bueno con los números y eres orientado a los detalles, deberías considerar entrar en la ciencia de los datos. Los salarios de los científicos de datos están aumentando rápidamente y se consideran las nuevas estrellas del rock del mundo de la tecnología. Por supuesto, siempre se puedes intentar entrar en capital de riesgo para subir a la ola de transición masiva que viene.

2. Medicina
El trabajo que los médicos hacen es tremendamente importante, y en promedio, está muy bien pagado. Dicho esto, hay numerosas áreas de la medicina que están listas para recibir automatización y mejoras en la eficiencia. Un ejemplo clave sería la imagen médica y los campos de radiología, patología y dermatología.

La inteligencia artificial de Watson de IBM ahora se considera al menos a la par con un radiólogo profesional en términos de capacidad de análisis de imagen y pueden hacer un estudio más rápido al considerar cantidades mucho más grandes de información de lo que cualquier humano podría jamás procesar. Esta es una noticia fantástica para las personas que necesitan un diagnóstico, pero no tan buena para los trabajadores de imagen médica. Si ya estás en el campo, o piensas entrar en él, podrías considerar hacer la transición hacia algún aspecto de la visión por computadora, ya sea en áreas de investigación o de formación. Si no puedes vencer a las máquinas, siempre puedes ayudarlas a mejorar.

Existen otras numerosas tecnologías, como la telemedicina y dispositivos médicos móviles, que también perturbarán este campo en el futuro. Y aunque todavía habrá una fuerte necesidad de ciertas habilidades médicas personales en el futuro, tendrás que ser muy selectivo con lo que elijas para tu trabajo de toda la vida.

3. Leyes
Ah, abogados. El mundo probablemente podría utilizar mucho menos abogados, y las máquinas están en su camino para hacer de esto una realidad. Aunque todavía puede se puede hacer buen dinero como abogado, dependiendo de la especialidad, vale la pena señalar que los juristas pasan mucho tiempo recopilando y analizando datos, creando o revisando documentos legales y en general, dedicando tiempo a muchas otras tareas mundanas. Para la mayoría de los legalistas, el derecho está lejos de ser una profesión glamorosa.

Gran parte de este trabajo de “talacha” ya ha sido automatizado, y hay más de 1,500 startups por ahí tratando de agilizar aún más el mundo jurídico. Aunque que esto no eliminará inmediatamente todos los trabajos legales, significa que en el futuro se necesitarán menos abogados - y especialmente, menos pasantes - para manejar el mismo nivel de trabajo.

Debido a que los abogados tienden a prestar una excelente atención al detalle, y son altamente versados en la lógica, un buen campo alternativo sería la programación. Los lenguajes de programación se construyen alrededor de la lógica y requieren muchísima atención al detalle en  cualquier contrato. Lo mejor de todo, hay un montón de cursos en línea que pueden ayudarte a aprender, incluyendo algunos de universidades de primer nivel como Stanford, MIT e incluso Harvard.

Y, por supuesto, los programadores son increíblemente bien pagados y están en gran demanda virtualmente en todas partes. Éstos son algunos de los lenguajes de programación más solicitados si decides hacer el cambio.

Trabajos del futuro

Ha habido ocasiones a lo largo de la historia en las que un gran número de puestos de trabajo antiguos han desaparecido, sólo para ser reemplazados por nuevos puestos nacidos con las tecnologías que se desarrollan. A veces, la transición de este modelo viejo al nuevo es lo suficientemente prolongada como para hacer posible una evolución semi-suave. Eso puede o no ser lo que suceda en los próximos años.

Esta lista apenas araña la superficie de los puestos de trabajo que corren el riesgo de enfrentar la automatización.  Yo recomiendo encarecidamente que cualquier persona considere cuidadosamente el riesgo asociado con su campo laboral. Si tu trabajo está en riesgo de ser automatizado, ahora es el momento de comenzar el reaprendizaje saber cómo trabajar con las máquinas.

Fuente: entrepreneur.com

43


Un hacker ético conocido como Gulden anunció, a través de un post en Reddit, que realizar un ataque del 51% a la criptomoneda Einsteinium (EMC2) “con propósitos educativos”.

Sin embargo, el ataque a EMC2 fue frustrado por miembros de su comunidad. Por lo que Gulden aplicó su plan B: Atacar a Bitcoin Private (BTCP). Pero los más curioso es que el hacker utilizó la plataforma de live stream Twitch para documentar dicho ataque.

Citar
“Estoy considerando hacer una transmisión en vivo de toda la configuración y la ejecución de hacer un ataque del 51% en contra del bitcoin testnet para que la gente pueda ver cómo funciona en la vida real, no en teoría” dijo el hacker.

A pesar de que más de 750 personas estaban viendo el canal de Gulden, la plataforma cerró su cuenta a los pocos minutos de haber iniciado la transmisión. Quizá la suspensión se debió a denuncias por parte de la comunidad de Bitcoin.

Pero Gulden no se quedó con los brazos cruzados; reinició la transmisión a través de la plataforma stream.me. Aunque también fue bloqueada 15 min después.

En ese punto, el hacker ya había conseguido la mayoría de hashrate de la red; lo necesario para iniciar el ataque del 51%.

En este sentido, un ataque del 51% se refiere a un ataque a una blockchain por parte de un individuo, o grupo de mineros, que controle más del 50% del hashrate de la red. Este atacante podría evitar que las nuevas transacciones obtengan confirmaciones, lo que les permite detener los pagos entre algunos o todos los usuarios. Aunque para la red Bitcoin este tipo de ataque sigue siendo hipotético.

Hay que destacar que Gulden, a pesar de asegurar tener aproximadamente el 70% del hashpower de la red de BTCP, y amenazar con hacer un fork, prefirió no hacer nada “para guardarlo para una transmisión futura”.

Fuente: coincrispy.com

44
que buenos aportes AXCESS, a veces es bueno salirse del mundo del silicio y prestarle atención a  otras temáticas que no dejan de ser enigmáticas e interesantes.

45


FitMetrix deja al descubierto millones de datos de clientes, a los que han accedido cibercriminales

You are not allowed to view links. Register or Login, quien realiza software para controlar el rendimiento de los clientes que vayan al gimnasio, y que es customizable para exponer la marca del mismo, ha expuesto millones de registros de clientes, porque estaban manteniendo unos servidores en la nube completamente expuestos a todo el mundo.

Para colmo, los cibercriminales accedieron a estos registros antes de que el acceso público a estos fuese cerrado, intentando cifrar los contenidos de la base de datos con un ransomware, el cual solo dejo la nota de rescate, debido a que el script fallo.

El equipo de seguridad Hacken se topó con una base de datos abierta mientras buscaban en Shodan buckets de Elasticsearch que fueran accesibles. Elasticsearch es una base de datos que almacena, recoge, y maneja datos semiestructurados u orientados a documentos. Eso, como cualquier otra base de datos de tipo no-SQL como MongoDB, es un objetivo popular para los cibercriminales, de acuerdo con Hacken.

De acuerdo con Bob Diachenko, director de investigación de ciberriesgo en Hacken, la base de datos contenia unos 119GB de datos con dos índices diferentes: El número total de registros en "platformaudit" era de 122.869.970; y el número total de registros era de 113.521.722.



Cuando Diachenko encontró la base de datos el día 5 de este mes, no se necesitaba ninguna contraseña para ver los datos. La información incluía una auditoria diaria de la plataforma FitMetrix, almacenada desde el 15 de Julio hasta el 19 de septiembre, incluyendo información del perfil del cliente.

Hacken encontró que esta información del perfil incluía información personal como el nombre, genero, correo electrónico, fecha de nacimiento, contacto de emergencia y el parentesco de este, su apodo, talla de zapatos, altura y peso, ID de Facebook, teléfono móvil, teléfono de casa y nivel de actividad. En otras palabras, todo lo necesario para realizar ataques de ingeniería social convincentes.

Dejar las bases de datos almacenadas en la nube abiertas de cara al público es un problema muy común, que ha resultado en muchas fugas de datos estos años.

Recientemente, en GoDaddy pasó algo similar cuando un almacenamiento en la nube mal configurado expuso configuración para decenas de sistemas que estaban en su infraestructura de hosting (y opciones de precios competitivos para tener en marcha esos sistemas).

Fuente: blog.segu-info.com.ar

46
¿Qué fue antes, la inteligencia artificial o el Big Data? Estos proyectos demuestran su estrecha relación



Los seres humanos observamos un objeto cualquiera, o un simple croquis, y podemos adivinar qué es, para qué sirve, cómo funciona e incluso otros valores, como el periodo histórico en que fue inventado. Las máquinas, salvo la ficticia Jarvis, de momento no pueden hacerlo. La inteligencia artificial depende de un gran volumen de datos, o Big Data, para aprender. Y a ese periodo de aprendizaje se llama “entrenamiento”.

En la actualidad, la inteligencia artificial depende de los datos, así como de la interacción humana, aunque eventualmente la idea es que aprenda como nosotros. Brenden Lake, experto en IA de la Universidad de Nueva York, ya lo ha conseguido de forma parcial, y diseñó una IA capaz de aprender nuevas letras con un único ejemplo. El resto de proyectos del mundo sigue entrelazando IA y Big Data.

IBM Watson ganó porque guardó muchos datos

Casi todos recordaréis que en 2011 la inteligencia artificial Watson ganó a los humanos en el concurso Jeopardy! Fue un hito histórico, porque el programa televisivo requería de habilidades tan humanas como aprender y contextualizar datos, o interpretar preguntas. Watson fue capaz de entender lo que le estaban pidiendo.

Sin ánimo de retirar a Watson su premio de un millón de euros, lo cierto es que los humanos no tenían nada que hacer. ¿Os habéis preguntado alguna vez la cantidad de datos que puede almacenar el cerebro? No tenemos respuesta a esa pregunta, pero sí sabemos que Watson tenía acceso a 200.000.000 páginas de contenido, incluida la Wikipedia en inglés al completo. Parece complicado que alguien la memorice.



En 2016, la inteligencia artificial llamada AlphaGo derrotó a Lee Sedol, campeón mundial del juego go con un resultado de 3-0. Había cierto arte en su juego, y resultaba difícil para un observador externo saber si era una IA o una persona.

Pero de nuevo había contado con cierta ventaja, al practicar miles de veces más que Sedol. AlphaGo se había “entrenado” con millones de ejemplosde juego. AlphaZero, la IA que surgió tras AlphaGo, aprendió en cuatro horas jugando contra sí misma. Ganó a AlphaGo 100 a 0.

Así funciona el universo, humanos

Algunos pueden pensar que el hecho de que una máquina nos gane a diferentes juegos puede no ser relevante. Sin embargo, potencia otras ramas, como la educativa y de investigación pura. Un ejemplo: a finales del siglo XVIII empezamos a construir la tabla periódica, tardando siglos en completarla. En 2018 la IA Atom2Vec, de la Universidad de Standford, la reconstruyó en dos horas.

De nuevo, partía con ventaja. Pero eso es lo que hace la ciencia: trabaja “a hombros de gigantes”. En este caso, Atom2Vec tenía acceso a una gran base de datos con compuestos químicos. Agua (H2O), metano (CH4), éter dimetílico (CH3OCH3)… Usando solo esos datos, fue capaz de descubrir cada elemento, así como el modo en que se combinaba con otros.

Este tipo de estudios basados en inteligencia artificial y Big Data son de una importancia enorme por todo lo que pueden enseñarnos sobre el universo. El volumen de datos que tenemos es tal que es posible que una IA descubra una “tabla periódica” o clasificación natural que a las personas se nos haya pasado. Hemos evolucionado mucho desde que la IA se inventó, y el recorrido que hemos seguido nos acerca a posibilidades maravillosas.

Cuando el Big Data, vía IA, salva vidas

Es posible que no estemos interesados en juegos y que la investigación nos quede algo lejos. Pero si hay algo que nos une a todos es nuestra preocupación por la salud, y la IA puede ayudarnos a vivir más años. Por ejemplo, evitando pandemias. Entre 2009 y 2010, Google lanzó un experimento para detectar la gripe porcina (AH1N1) usando Big Data.

Para prevenir la propagación de la enfermedad, Google suministró a la Organización Mundial de la Salud acceso a Google Flu Trends. Esta herramienta de IA y Big Data cartografiaba las búsquedas de palabras como “dolor de cabeza” o “vómitos”, de modo que los brotes de esta gripe podían detectarse rápidamente. Además, marcas como Google saben cómo se mueve la gente (por el GPS).



Los hospitales también se están adaptando poco a poco a trabajar con datos e inteligencias artificiales. También en Stanford un equipo ha diseñado una IA que detecta algunos cánceres de piel en el 97% de los casos, muchos más que las personas. Otra IA es capaz de detectar cáncer metastásico en un 82,7% de los casos, mientras que los médicos “solo” lo hacen en el 73,2%.

El Big Data también es necesario para salvar vidas en el mar, o en las ciudades. Este estudio del español Pedro J. Zufiria puede usarse para prevenir muertes en el Mediterráneo observando las migraciones de personas. Abajo puede verse una demo de Corti, un asistente para los servicios de emergencia que analiza la llamada en tiempo real y ofrece información.



Este tipo de IA son cada vez más usadas en ámbitos tan alejados de la salud como la fotografía. En el Huawei P20 Pro, gracias al Kirin 970, vemos cómo se estabiliza la imagen o se nos sugieren filtros en base al procesamiento de imagen, todo en tiempo real. Para ello hace uso del aprendizaje que le otorga el Big Data tras analizar millones de fotografías.

La inteligencia artificial en los negocios

Como hablamos hace poco, la inteligencia artificial va a revolucionar la economía, o ya ha empezado a hacerlo. Los chatbots para pymes son cada vez más accesibles, y las empresas –incluso las más pequeñas– son capaces de generar grandes volúmenes de datos. Estos son la clave del buen funcionamiento de la IA, hasta el punto de que existen másteres específicos de IA para empresas.

También en el ámbito público. Hace tiempo que Correos usa el análisis de Big Data para sus servicios ecommerce. Aunque los algoritmos son de bajo nivel, es un paso adelante. Algo más avanzados están en Alemania, y la Deutsche Post ya cuenta con furgonetas eléctricas con inteligencia artificial. Estas analizan los datos de tráfico (Big Data) y usan sus seis cámaras y el radar para trazar la mejor ruta de reparto.



De las calles de las ciudades podemos saltar al campo y la gestión de cultivos, imprescindibles para que la población no pase hambre. Hace unos años, la empresa S4 usó los 2.721.600.000.000 registros de una constelación de satélites de la NASA y consiguió con herramientas de machine learning (IA más Big Data) 400 TB de datos para evitar las sequías.
La inteligencia artificial está cada vez más presente en nuestra sociedad y en nuestros dispositivos. Marcas como Huawei trabajan para hacer que las aplicaciones con IA tengan plataformas asequibles en las que funcionar. Esta tecnología está cambiando el mundo a mejor, y lo seguirá haciendo.

Fuente: iahuawei.xataka.com

47
Aquí dejo el proyecto compilado, para quienes no quieren tener que instalar el visual studio .net para probarlo:
You are not allowed to view links. Register or Login

PD: Para quienes no esta acostumbrados a usar VS .net el proyecto trae una carpeta que dice:
Requirements Assembly.rar debes descomprimirla, y en la parte de referencias del proyecto abierto en VS debes examinar y agregar las DLL al proyecto, OJO! esas dll no se instalan en windows ni es meterlas a la carpeta de system32 y usar regsvr32 nada de eso, esas DLL se importan al proyecto es desde el menú de referencias del propio visual studio.net si no no te va compilar.

48


Facebook ha anunciado que está empezando a desplegar una nueva función que, gracias a la inteligencia artificial, es capaz de convertir imágenes normales en fotos 3D.

La nueva característica Fotos 3D de Facebook es compatible con los teléfonos móviles con un sistema de doble cámara que dispongan de modo retrato. Lo que hace el sistema es utilizar IA para capturar la distancia que se encuentra entre el sujeto que se encuentra en primer plano y el fondo, lo que permite crear escenas tridimensionales con profundidad y movimiento.

Como puedes ver en el vídeo que te hemos dejado a continuación, el resultado es una fotografía en 3D con profundidad, en la que el espectador tiene la capacidad de desplazarse, inclinarse y moverse "como si estuviera mirando a través de una ventana".

i tienes un smartphone con doble cámara compatible con la nueva función de Facebook, puedes crear tus propias fotos 3D de una forma muy sencilla. Para ello, haz clic en el cuadro de Crear publicación, pulsa sobre el icono con tres puntos de la esquina superior derecha y selecciona la opción Foto 3D. Es posible que todavía no encuentres la característica, ya que la plataforma la está liberando de manera escalonada, así que ten paciencia si todavía no la tienes.

A continuación, selecciona la imagen capturada con el modo Retrato que te gustaría utilizar, escribe el texto que quieras y publícala. Tus contactos podrán "asomarse" a la foto de una forma realista para percibir la profundidad de la imagen.

La plataforma da una serie de consejos para obtener los mejores resultados con la nueva función Fotos 3D de Facebook. Por una parte, es recomendable que el sujeto se encuentre a una distancia aproximada de un metro y medio de la cámara, y aconseja que haya múltiples capas de profundidad, incluyendo algo en primer plano y algo en el fondo.

Otra recomendación consiste en capturar instantáneas con colores diferentes que contrasten entre sí. Además, Facebook también señala que obtendrás los mejores resultados cuando los protagonistas de la imagen tienen textura y bordes sólidos poco brillantes.

Fuente: computerhoy.com

49


¿Adiós demandas? Microsoft abre 60 mil licencias para contribuir a Linux y el código abierto

Citar
“Aprendimos que el desarrollo colaborativo a través del código abierto puede acelerar la innovación”, dijeron desde Microsoft.

Microsoft generó dudas cuando manifestó sus intenciones en contribuir al código abierto hace algunos años. No obstante, poco a poco se van tomando decisiones que contribuyen de forma positiva al ecosistema: la firma acaba de contribuir con 60 mil patentes para que dejen de ser una amenaza a Linux y el open source.

Las patente podrán ser utilizadas libremente por todos los miembros de la Open Invention Network ( OIN ). Esta entidad que promueve la libertad de acción en Linux como un elemento clave del software de código abierto. En un contexto donde la guerra por la propiedad intelectual se ha traducido en demandas millonarias, la entidad adquiere patentes y se comprometen a que sean libre entre sus miembros.

En una suerte de rito de iniciación, Microsoft ha dicho que tras su incorporación, abrirá las patentes, que dejarán de ser una amenaza para el mundo del código abierto, por los riesgos de una demanda.

Microsoft históricamente ha sido bastante celoso con la protección de sus patentes. Las noticias sobre demandas por violaciones tiene un historial bastante largo. No obstante, el enfoque de Satya Nadella quiere darle nuevos aires a la compañía. Eric Anderson, vicepresidente corporativo, dijo a Engadget lo siguiente:

Citar
Los desarrolladores desean implementar tecnologías de vanguardia en cualquier dispositivo que satisfaga las necesidades de los clientes. Aprendimos que el desarrollo colaborativo a través del código abierto puede acelerar la innovación.

En la actualidad, OIN tiene una plataforma de licencias abiertas para más de 2500 compañías en el mundo, como Google, IBM, Sony, entre otras. Evidentemente, Microsoft también busca aprovechar estas licencias para potenciar el lanzamiento de nuevos productos. ¿Que opinan ustedes?

Fuente: fayerwayer.com

50


La inteligencia artificial está produciendo avances enormes en muchas ramas a un ritmo hasta ahora desconocido. Sin embargo, no se debe olvidar que bajo determinadas circunstancias y casos, debido a problemas generalmente relacionados con los datos usados en la base de datos de entrenamiento del software, su uso puede llegar a jugar malas pasadas. Amazon lo ha sufrido con una herramienta que emplea inteligencia artificial para reclutamiento laboral, según informa Reuters.

Estos sistemas ofrecen grandes ventajas para seleccionar a candidatos con mayor eficiencia, pero en el caso de la inteligencia artificial de Amazon, los resultados que ofrecía presentaban sesgos contra las mujeres, es decir, que por ejemplo, en reclutamiento de candidatos para trabajos de desarrollo de software y en otras áreas técnicas, el sistema no estaba aplicando principios de igualdad y meritocracia, sino que producía una importante discriminación contra las mujeres.

La inteligencia artificial presenta retos enormes incluso para gigantes como Amazon

El hecho de que una situación así se dé dentro de una empresa como Amazon, referente en el campo de la automatización y el uso de herramientas de aprendizaje automático, puede parecer inexplicable, pero no lo es. La razón detrás del sesgo contra el sexo femenino está en cómo ha funcionado el reclutamiento en Amazon en los últimos 10 años.

La inteligencia artificial debe ser alimentada de datos para generar modelos y encontrar similitudes positivas. Si el sistema de captación de empleados de la compañía en los últimos años generaba mayoritariamente contrataciones masculinas, y esos datos se le ofrecen a la herramienta sin indicaciones de lo que está bien o mal, o de la igualdad de oportunidades que se busca, el software interpreta que lo corriente es lo positivo. Acto seguido, actuará en base a ello.

En este caso, se crearon 500 modelos informáticos con atención a funciones específicas del empleo y localizaciones. Cada uno de esos 500 aprendió a reconocer 50.000 palabras que aparecían en el currículum de los candidatos. El problema es que los hombres, según la fuente de Reuters, tienden a usar términos como realización o conquista más que las mujeres, y el sistema los primó.

Citar
Si no se hace nada para frenarlo, la inteligencia artificial puede reproducir y amplificar los sesgos humanos

La simple introducción del término "women’s" en el currículum generaba un agravio contra las mujeres. Las mujeres tituladas en dos universidades femeninas no mixtas también sufrían efectos de degradación para el sistema. Aunque dentro de la empresa esto se vio como algo negativo y se quiso modificar ese comportamiento de la inteligencia artificial para hacerla más neutra, el proyecto se desechó cuando se percibió que no había certeza de que el sesgo no se pudiera reproducir en otro sentido.

El equipo de desarrolladores a cargo fue disuelto a causa de una pérdida de esperanza en el proyecto. La herramienta se llegó a usar, pero no para basarse únicamente en sus recomendaciones.

Un problema con difícil solución

Entrenar a un software de inteligencia artificial para obtener resultados óptimos no es algo banal. Como se ha mencionado, no es lo mismo alimentar a una máquina con datos a discreción, sin aportar más profundidad al análisis de datos, que hacerlo. Lo segundo es mucho más complicado, porque en este caso en Amazon se ha visto mal el sesgo, pero en otros muchos puede no ser así y que la desigualdad se perpetúe e incluso crezca a largo plazo.

Al diseñar estas herramientas las empresas no sólo deben buscar la productividad, sino de alguna forma reconocer qué patrones repetitivos y del todo positivos se pueden estar dando con decisiones por personas, para así generar modelos que tiendan más a la centralidad.

Puedes aprender más sobre inteligencia artificial escuchando nuestro podcast ‘Captcha’, donde debatimos en profundidad sobre todo lo que le rodea.

Fuente: m.genbeta.com

51
[VIDEO] Webinar: "Taller de Crawling Web" con Ricardo Vegas






DESCARGA 720HD:
You are not allowed to view links. Register or Login

52

Microsoft retira la Windows 10 October 2018 Update porque la actualización estaba borrando archivos de los usuarios

Tras ser anunciada y oficialmente lanzada el pasado 2 de octubre de 2018, la última gran actualización de Windows 10 ha seguido los pasos de versiones anteriores y no ha estado libre de quejas de los usuarios y fallos en el sistema.

Sin embargo, esta vez los problemas han sido tales que Microsoft ha decidido retirar la actualización de la Windows 10 October 2018 Upadte y pausar el lanzamiento progresivo que se hace para todos los usuarios hasta nuevo aviso.

La razón que citan en la web de soporte tiene que ver con los reportes de usuarios de archivos borrados tras instalar la actualización. La "solución" que ofrecen de momento a quienes crean que han perdido archivos con la actualización de octubre es "minimizar el uso del dispositivo afectado" y llamar al soporte local de Microsoft.

La Windows 10 October 2018 Update estaba disponible en la web de Microsoft para quienes quisieran descargar e iniciar la instalación de forma manual en caso de que aún no les apareciese en Windows Update. Microsoft recomienda en este momento que si lo has descargado que por favor no lo instales.

La ruleta rusa ataca de nuevo

Lo dijimos en mayo, actualizar a Windows 10 a veces es como una ruleta rusa y la versión de abril 2018 lo dejaba más claro que nunca. Tras la primera gran actualización de este año, no pararon de llover reportes y reportes de diferentes problemas causados por ella, problemas que quitan el foco de todas las novedades y cosas buenas que suelen traer las nuevas versiones.

Pero esta vez, incluso con el puñado de novedades de la actualización de octubre, en nuestro análisis hemos terminado mucho menos optimistas que en otras ocasiones, es quizás la actualización más decepcionante, y con este pequeño gran desastre de lanzamiento, he pasado de cuestionarme el valor de la actualización a decidir personalmente que es mejor actualizar Windows 10 una vez al año cuando la mayoría de problemas se hayan resuelto.

Por ahora no hay información sobre cuándo se lanzará nuevamente la actualización, así que lo ideal es esperar. Es lamentable que mientras más tiempo pasa, menos confiable se hacen las actualizaciones de Windows 10, que como usuario te de miedo actualizar no vaya a ser que se te rompa algo. Lanzar una actualización mayor y retirarla en menos de una semana porque está borrando archivos de los usuarios, es quizás la prueba definitiva de que sí, todos sí somos un poco Insiders.

Fuente: m.genbeta.com

53
Estamos lejos de comprender el salto cualitativo que supone pasar de la actividad neuronal del cerebro a la experiencia consciente

La consciencia no es un fenómeno todo-o-nada, sino que existen diversos niveles de consciencia. Y la transición de la inconsciencia a la consciencia no es simplemente un cambio de una inactividad a una actividad neuronal, sino que supone un cambio en lo que hacen las neuronas, cambio que hoy por hoy es desconocido. El dualismo que subyace a algunas de las teorías sobre la consciencia plantea la cuestión de cómo superarlo, ya que este dualismo no ha podido aclarar cómo es posible que un ente inmaterial pueda interaccionar con la materia que es el cerebro. Estamos lejos de comprender el salto cualitativo que supone pasar de la actividad neuronal del cerebro a la experiencia subjetiva de la consciencia. Por Francisco J. Rubia.



La consciencia es un enigma, probablemente el mayor enigma tanto en filosofía como en ciencia. Las cuestiones fundamentales que plantea son: ¿qué es la consciencia? ¿de dónde procede? y ¿para qué sirve?

El filósofo australiano David J. Chalmers distingue entre los “problemas fáciles” y el “problema duro o difícil” (hard problem) de la consciencia. Los problemas fáciles tratan la consciencia como una facultad mental más y analizan temas como la discriminación entre estímulos sensoriales, la integración de la información para guiar el comportamiento o la verbalización de estados internos, cómo se integran los datos sensoriales con la experiencia del pasado, cómo focalizamos la atención o lo que distingue el estado de vigilia del sueño. Pero el “problema difícil” de la consciencia es saber cómo los procesos físicos cerebrales dan lugar a la consciencia, cómo las descargas de millones de neuronas pueden producir la experiencia consciente, la experiencia subjetiva.

Si ser consciente implica la existencia de un “yo” y este yo, como nos dice la neurociencia, es una ficción, ¿qué consecuencias tendría este hecho para la consciencia? Por otra parte, ¿existe un solo yo? El psicólogo estadounidense William James planteó la existencia de al menos tres yos diferentes: un yo material, otro social y un tercero espiritual. Además, los enfermos con cerebro escindido han mostrado que pueden surgir tras la separación del cuerpo calloso dos yos distintos.

El psicólogo californiano Michael Gazzaniga dice que el hemisferio izquierdo es dominante para la mayoría de las funciones cognoscitivas, como la resolución de problemas, mientras que el hemisferio derecho es muy deficiente para resolver problemas difíciles. El resultado de muchos años de investigación sobre el cerebro hendido le hace concluir que el hemisferio derecho tiene una experiencia consciente muy diferente de la exacta y literal del hemisferio izquierdo.

Aunque ambos son conscientes, la consciencia del cerebro izquierdo supera con mucho a la del derecho. ¿Cuál sería pues el sustrato neuronal que hace surgir estos dos tipos de consciencia en los hemisferios cerebrales? Existe un “vacío explicativo”, como dice el filósofo de Harvard, Joseph Levine, entre las funciones cerebrales y la experiencia subjetiva.

La cuestión fundamental es, pues: ¿cómo podemos superar el abismo que separa lo objetivo y lo subjetivo, el cerebro y la experiencia consciente? Es un planteamiento muy parecido al planteamiento tradicional cuerpo/alma o mente/cerebro, que han discutido los filósofos desde hace más de 2.000 años. Y aún siguen discutiendo.

Otra cuestión que se plantea es la siguiente: si un sistema, como el cerebro, puede resolver problemas y procesar información de manera inconsciente, ¿para qué sirve la consciencia?

Algunos filósofos afirman que cuando comprendamos suficientemente bien el funcionamiento del cerebro, el concepto de consciencia se disipará del mismo modo que se disipó el concepto del flogisto una vez que se comprendió el proceso de la oxidación. El flogisto era un hipotético constituyente volátil de todas las sustancias combustibles que, según se creía, se liberaba en forma de llama durante la combustión.

Sir Charles Sherrington, premio Nobel de Medicina y Fisiología del año 1932, era de la opinión que la consciencia era científicamente inexplicable. Y el psicólogo Stephen Pinker, de la Universidad de Harvard, piensa que puede que podamos entender la mayoría de los detalles de cómo funciona la mente, pero la consciencia puede permanecer oculta. También el filósofo británico Colin McGinn opina que el problema es demasiado difícil para nuestras mentes limitadas, añadiendo que estamos cerrados cognoscitivamente ante ese problema. Afortunadamente, no todos los científicos y filósofos piensan lo mismo.

Definición de consciencia

La consciencia es un concepto que entendemos intuitivamente, pero que es difícil o imposible de describir adecuadamente en palabras. Se puede decir que consciencia es el estado subjetivo de apercibir algo, sea dentro o fuera de nosotros mismos.

No existe ninguna definición consensuada de la consciencia. Pero consciencia significa experiencia subjetiva, o sea, lo opuesto a objetividad. En algunos escritos la consciencia es considerada sinónimo de mente. Pero la mente incluye procesos mentales inconscientes, y puede definirse como el funcionamiento del cerebro para procesar información y controlar la acción de manera flexible y adaptativa.

La consciencia tiene contenidos, pero aunque pueda tener una enorme variedad de contenidos no puede tener muchos al mismo tiempo. La consciencia no es un fenómeno pasivo como respuesta a estímulos, sino un proceso activo de interpretación y construcción de datos externos y de la memoria relacionándolos entre sí.

Se ha equiparado la consciencia a la vigilia, pero estar despierto no es lo mismo que ser consciente de algo en el sentido de apercibirse de algo. En el sueño podemos apercibir imágenes mentales visuales o auditivas.

Los actos voluntarios y la toma de decisiones son aspectos importantes de la experiencia consciente. Por ello, uno de los significados más comunes de consciencia es que es un sistema de control ejecutivo que supervisa y coordina las actividades del organismo.

Para el profesor de psicología de la Universidad de Princeton, Philip Johnson-Laird, el cerebro es un sistema organizado jerárquicamente que procesa información en paralelo y cuyo nivel más alto que controla la conducta corresponde a la consciencia, aunque interacciona con varios subsistemas inconscientes.

Se ha considerado a la consciencia íntimamente relacionada con la memoria operativa, la atención y el procesamiento controlado. La memoria operativa es importante para la solución de problemas, la toma de decisiones y la iniciación de la acción. La relación con la atención es clara: prestar atención a algo es ser consciente de ese algo. El ejemplo más clásico de atención selectiva es el conocido como “efecto cocktail party”, por el que seleccionamos información interesante en medio de un gran ruido de fondo.

También se ha considerado la consciencia como sinónimo de auto-consciencia. Pero como se puede ser consciente de muchas cosas que no son la propia persona, hoy se estima que la auto-consciencia es una forma especial de la consciencia.

Todo el mundo sabe lo que es consciencia, dicen el fallecido premio Nobel Francis Crick y su colaborador alemán Christof Koch, pero mientras sepamos tan poco de ella, lo mejor es no dar ninguna definición que pueda inducir a errores o que sea restrictiva, o ambas cosas a la vez.

En la bibliografía anglosajona se utilizan dos palabras distintas que en español se suelen traducir por consciencia. La primera es “awareness”, que yo traduzco por apercepción; la segunda es "consciousness" que se traduce por consciencia. Esta diferenciación es importante, ya que existe la expresión en inglés “unconscious awareness” que se traduciría por “apercepción inconsciente”, lo que sería imposible si la palabra “awareness” se tradujese por consciencia, como suele hacerse.

Algunos autores definen la apercepción como un estado en el que tenemos acceso a cierta información que puede usarse para controlar la conducta. La consciencia está siempre acompañada de apercepción, pero la apercepción no tiene por qué estar acompañada por consciencia.

Se pueden distinguir dos tipos de consciencia. La consciencia primaria, que es la experiencia directa de percepciones, sensaciones, pensamientos y contenidos de la memoria, así como imágenes, ensueños y sueños diurnos. La consciencia reflexiva es la experiencia consciente per se. Este tipo de consciencia es necesaria para la auto-consciencia, que implica darse cuenta de ser un individuo único, separado de los demás, con una historia y un futuro personales. La consciencia reflexiva incluye el proceso de integración, o sea, de observar la propia mente y sus funciones; con otras palabras: conocer que se conoce. En realidad, la experiencia consciente en el humano adulto normal implica tanto la consciencia primaria como la consciencia reflexiva.

Características de la consciencia

William James, padre de la psicología norteamericana, en sus Principios de Psicología describió cinco características de alto nivel de la consciencia que aún siguen vigentes. Son las siguientes:

1) Subjetividad: Todos los pensamientos son subjetivos, pertenecen a un individuo y son sólo conocidos por ese individuo
2) Cambio: Dentro de la consciencia de cada persona, el pensamiento está siempre cambiando
3) Intencionalidad: La consciencia es siempre de algo, apunta siempre a algo
4) Continuidad: James utilizó siempre la expresión “curso de la consciencia” para dar a entender que la consciencia parece ser siempre algo continuo
5) Selectividad: Aquí James se refirió a la presencia de la atención selectiva, o sea que en cada momento somos conscientes de sólo una parte de todos los estímulos

A pesar de la enorme variedad de percepciones y pensamientos de naturaleza siempre cambiante, tenemos la impresión de que nuestra consciencia es algo unificado y continuo. Esta sensación de unidad de la consciencia algunos autores la consideran una ilusión.

Algunas teorías sobre la consciencia

Al igual que entre los filósofos post-cartesianos había diversas teorías, como la teoría del doble aspecto de Spinoza, el ocasionalismo de Malebranche, el paralelismo de Leibniz y su doctrina de la armonía preestablecida, hoy existen diversas teorías de la consciencia.

La teoría “clásica” ha sido la postulada por el psicólogo norteamericano William James en el siglo XIX. Para James, la consciencia es una secuencia de estados mentales conscientes, siendo cada uno de estos estados la experiencia de algún contenido concreto. James pensaba también que la consciencia tiene que haber tenido un propósito evolutivo, por lo que trataba la consciencia como una función y no como una entidad.

En el siglo XVIII el biólogo suizo Charles Bonnet intentó resolver el dilema introduciendo el llamado “epifenomenalismo”, una idea que después asumió también el biólogo británico Thomas Huxley. El epifenomenalismo acepta que la mente y el cuerpo están hechos de diferentes sustancias, pero la mente no tiene influencia sobre el cuerpo, aunque está causada por el cerebro. Los sucesos mentales son productos accesorios de los sucesos materiales.

La teoría basada en un dualismo cartesiano postula que la mente, alma o espíritu es inmaterial y la autoconsciencia, como propiedad de esa mente, está separada del cerebro que es físico e inconsciente. Esta teoría ha sido mantenida por Karl Popper y John Eccles; con este último yo colaboré en la Universidad del Estado de Nueva York en Buffalo en su periodo tardío de laboratorio en 1975. El problema que plantea esta teoría es que no explica cómo se produce la experiencia subjetiva, ni tampoco cómo funciona la interacción entre un ente inmaterial y otro material.

Otra teoría es la sostenida por Stuart Hameroff y Roger Penrose que supone que los microtúbulos, que se encuentran en toda célula nerviosa, están designados para permitir la coherencia cuántica y las conexiones cuánticas en todo el cerebro. La dificultad es que no explica cómo surge la experiencia subjetiva por lo que muchos autores concluyen que la teoría cuántica de la consciencia sustituye un misterio por otro. Penrose es también de la opinión que el fenómeno de la vida mental requiere un conocimiento de la física que aún no tenemos.   

Superveniencia

El filósofo coreano Jaegwon Kim utiliza el término “superveniencia” (supervenience) para expresar el hecho de que un ámbito o dominio está determinado por otro. Por ejemplo, las propiedades biológicas supervienen o son supervenientes a las propiedades físicas, porque las propiedades biológicas de un sistema están determinadas por sus propiedades físicas. En una tabla de madera, por ejemplo, la madera superviene a las moléculas y las moléculas supervienen a los átomos. Lo mental sería, pues, superveniente a lo físico. La mente sería al cerebro como el rayo a las partículas cargadas eléctricamente.

Los electrones tienen masa y rotación, pero la electricidad tiene potencial e intensidad. Los componentes químicos tienen densidad y conductividad, mientras que los organismos biológicos tienen crecimiento y reproducción. A cada nivel hay propiedades distintas, propiedades “emergentes”. Sin embargo, la superveniencia no explica por qué y cómo la mente emerge del cerebro.

Los neurobiólogos Gerald Edelman, premio Nobel de Fisiología y Medicina de 1972 por sus trabajos sobre el sistema inmunológico, y Giulio Tononi, proponen que la consciencia emerge cuando grandes grupos de neuronas forman un núcleo dinámico en el cerebro con conexiones que forman bucles entre la corteza y el tálamo. A estas conexiones Edelman les llama “mapas de reentrada”, parecido a lo que el psicólogo británico Nicholas Humphrey denomina “bucles de realimentación reverberantes sensoriales”. La idea en ambos es que el cerebro se refiere a sí mismo y esto es lo que desencadena la consciencia.

La alternativa al dualismo es el monismo que plantea que el cuerpo y la mente están hechos de la misma sustancia. Los idealistas piensan que todo es mental, los materialistas que todo es material. El filósofo Spinoza pensaba que sólo existía una sustancia y que la sustancia tenía dos propiedades: que era consciente y que tenía extensión.

Un ejemplo típico de la postura materialista es la sostenida por el filósofo francés Julien Offroy de LaMettrie que en su obra L’Homme machine (El hombre máquina) decía que la mente es una máquina hecha de materia y que el pensamiento era un proceso material.

Y el filósofo británico Bertrand Russell pensaba que lo mental y lo físico son diferentes formas de conocer la misma cosa, la primera por la consciencia y la segunda por los sentidos. La consciencia nos da un conocimiento directo, inmediato, de lo que hay en el cerebro, mientras que los sentidos pueden observar (posiblemente ayudado por instrumentos) lo que hay en el cerebro. La consciencia es, básicamente, otro sentido, un sentido que, en vez de percibir colores, olores o sonidos, percibe la verdadera naturaleza del cerebro.

Dudas sobre lo mental

El materialismo eliminativo es la doctrina que postula que los estados mentales no existen, o, al menos, que la terminología es equivocada y debería abandonarse. Tanto el filósofo alemán Paul Feyerabend como el filósofo norteamericano Richard Rorty niegan la existencia de lo mental. Lo mental no es más que un mito. Y el neurocientífico norteamericano Paul Churchland dice que lo mental es el sujeto de la “psicología popular”, y la psicología popular no es una ciencia. Adscribimos estados mentales a los individuos, pero en realidad sólo existen procesos cerebrales.

El filósofo estadounidense John Searle piensa que la consciencia no puede reducirse a los procesos neuronales que la causan, pero que la consciencia es una característica biológica del cerebro. Searle ataca tanto al dualismo como al materialismo diciendo que la división del mundo en materia y mente es arbitraria y contraproducente. En su opinión tenemos que tener en cuenta que la consciencia está causada por procesos cerebrales, pero no puede ser reducida a esos procesos porque es un fenómeno de “primera persona”, o subjetivo, mientras que los procesos cerebrales son fenómenos de “tercera persona”, es decir objetivos.

El psicólogo norteamericano Julian Jaynes estudió los documentos históricos, arqueológicos y biológicos de civilizaciones antiguas, llegando a la conclusión que hace unos 3000 años los humanos no tenían aún consciencia. Dependían aún, como otros primates, de reacciones aprendidas. Los individuos de civilizaciones desarrolladas antes de los 1000 años a.C. (en Asiria, Babilonia, Mesopotamia, Egipto) no eran verdaderamente conscientes. Libros antiguos, como la Ilíada o la Biblia fueron compuestos por personas no conscientes que no distinguían entre los sucesos reales y los imaginarios. Los personajes de esos libros actuaban inconscientemente tomando decisiones confiando en voces, en alucinaciones. Según este psicólogo la consciencia apareció en la Odisea y en las partes más recientes de la Biblia, hará unos 3000 años. Lógicamente, estas afirmaciones han sido muy discutidas.

El antropólogo británico Kenneth Oakley planteó que existirían tres niveles de consciencia que corresponderían a tres capas evolutivas del cerebro: la apercepción, controlada por las regiones más antiguas del cerebro y relacionada sólo con el condicionamiento; la consciencia, controlada por la corteza cerebral y el hipocampo y relacionada con la representación interna del mundo; y, finalmente, la auto-consciencia, dependiente de las regiones más modernas de la corteza cerebral y relacionada con la representación interna de la propia representación interna.

El lingüista sueco Peter Gardenfors ve en el lenguaje el último estadio en el proceso que lleva a la consciencia humana. Piensa que primero estuvieron las sensaciones, luego la atención, las emociones, la memoria, los pensamientos, la planificación, el yo, el libre albedrío y, finalmente, el lenguaje. La mayoría de estas facultades no son únicas en los humanos, ya que la mayoría de los mamíferos tienen emociones e incluso pensamientos. Los chimpancés llegan hasta la planificación, pero sólo los humanos tienen consciencia de sí mismos y lenguaje. Todos los animales tienen un cierto grado de consciencia, pero sólo mamíferos y aves tienen corteza que les permite representaciones separadas de la realidad por lo que pueden adivinar y planificar. Los pensamientos son representaciones internas del mundo, lo que permite a los animales que los tienen separarse del mundo inmediato, pudiendo crear más de un curso posible de acción.

Red de funciones cognitivas

El yo sería para Gardenfors un fenómeno emergente, una propiedad que surge de una red de funciones cognoscitivas relacionadas entre sí. El lenguaje, como último estadio en el ser humano requiere una representación interna sofisticada, que son los símbolos. Las representaciones de otros animales no están suficientemente separadas de la realidad exterior.

Nicholas Humphrey dice que ser consciente es tener sensaciones, como algo opuesto a las percepciones. Los animales desarrollaron dos formas de representación de la interacción entre el cuerpo y el entorno: unas cargadas de afecto que son las sensaciones y otras neutrales con respecto a los afectos que son las percepciones. Para Humphrey tenemos un “ojo interior” que se comporta como cualquier otro sentido, menos en el hecho de que su objeto es el propio cerebro. La consciencia me permite percibir el estado de mi cerebro.

El neurofisiólogo norteamericano William Calvin propuso la teoría llamada “darwinismo mental”. Según esta teoría, lo mismo que el sistema inmunológico y la evolución de las especies están impulsados por la selección natural, la vida mental también lo está. Los pensamientos se producen inconscientemente y el proceso darwiniano elige los mejores. Para Calvin, lo que pensamos está siempre en función de la acción; los pensamientos son sólo movimientos que no han sido aún realizados.

El psicólogo estadounidense Marcel Kinsbourne cree que la consciencia no es un producto de la actividad neural, sino la actividad neural misma. El cerebro no genera consciencia, sino que es consciente, por lo que no es necesario buscar una región que genere consciencia; no es la región lo que importa, sino el estado del circuito; cualquier región del cerebro puede ser consciente si sus circuitos están en un estado apropiado.

El matemático danés Tor Norretranders piensa que la consciencia no contiene casi ninguna información. La mayoría de los procesos mentales nunca alcanzan la consciencia. El cerebro descarta cantidades ingentes de información antes de que tenga lugar la consciencia, aunque esta información descartada tenga influencia sobre nuestra conducta. Esto significa que la consciencia trata sobre todo de lo que ocurre dentro de nosotros y no fuera. Los datos sensoriales se procesan de acuerdo con estructuras cerebrales y se comparan con los contenidos de la memoria, volviendo a ser procesados, y luego surge una sensación consciente. En esta sensación poco queda de los datos sensoriales originales. Nunca podemos experimentar los datos sensoriales originales, sino que experimentamos sólo los productos terminados. Con otras palabras: nuestro cerebro conoce mucho más de lo que conoce la consciencia.

Con esto no agotamos todas las teorías existentes sobre la consciencia, pero he elegido las que me parecieron más relevantes. Como vemos, hay opiniones para todos los gustos.

Origen y evolución de la consciencia

¿Cómo surge la consciencia en un individuo y cómo surgió en la evolución? Todos creemos que los humanos no nacen con consciencia y que la vida, como fenómeno natural no fue originalmente consciente. Existe, pues, un problema ontogenético, de cuándo surge la consciencia en un individuo, y un problema filogenético, de cuándo surgió la consciencia de la materia, si fue repentinamente en una especie determinada o por el desarrollo de ciertas estructuras cerebrales. La auto-consciencia surge en el niño en la segunda mitad del segundo año de vida, y depende de la memoria episódica y de la capacidad para la consciencia reflexiva.

Ya mencionamos que el psicólogo norteamericano Julian Jaynes piensa que surgió muy recientemente en el ser humano, en la época homérica. Por el contrario el neurofisiólogo australiano John Eccles pensaba que surgió con el neocórtex de los mamíferos y la bióloga norteamericana Lynn Margulis es de la opinión que la consciencia es una propiedad tan antigua como la vida de organismos unicelulares simples, hace miles de millones de años. Otros científicos piensan que la consciencia surgió por la necesidad de comunicación con otros individuos, es decir, que fue cercana al lenguaje. El filósofo austriaco Karl Popper decía que la consciencia emerge con el lenguaje, tanto ontogenética como filogenéticamente.

El psicólogo británico Nicholas Humphrey coincide con la opinión de que la función de la consciencia es la de interacción social con otras consciencias. La consciencia aporta a los humanos un modelo explicativo de su propia conducta y esta facultad es útil para la supervivencia; con otras palabras: los mejores psicólogos son los que mejor sobreviven. Al entender la propia mente, entienden también la mente de los demás y eso supone una ventaja evolutiva importante.

Sin embargo, la consciencia difícilmente contribuye a la supervivencia. Muchas veces nos deprimimos cuando pensamos en cosas futuras, como la vejez o la muerte. La consciencia muy a menudo resulta en una menor determinación y perseverancia. Visto así, no parece que sea el producto de una evolución darwiniana porque realmente lo que hace es debilitar nuestro sistema de supervivencia en esos casos.

El lingüista estadounidense Merlin Donald planteó que la mente moderna con pensamiento simbólico surgió de una forma de inteligencia no simbólica por absorción gradual de sistemas nuevos de representación. La mente humana se desarrolló en cuatro estadios que coinciden con los estadios de crecimiento cognoscitivo en humanos modernos. Los homínidos más antiguos estaban limitados a representaciones episódicas del conocimiento. La memoria episódica era útil para aprender asociaciones estímulo-respuesta, pero no podía recuperar memorias independientemente de las señales del entorno, es decir, no podía pensar. Estos seres episódicos vivían sus vidas totalmente en el presente.

El Homo erectus desarrolló un sistema “mimético” de representación. La mente podía recuperar memorias independientemente del entorno y era capaz de re-describir la experiencia. La mente tiene una representación del mundo y es capaz de adaptarse continuamente a los nuevos conocimientos. Estas representaciones permitían al individuo comunicar sus intenciones y deseos. En este estadio existía una especie de memoria colectiva. En el tercer estadio, el Homo sapiens adquirió el lenguaje y, por consiguiente, la capacidad de construir relatos y formar mitos que representan modelos integrados del mundo por los que los individuos podían generalizar y predecir acontecimientos. El lenguaje permitió contar historias en grupo.

Hace unos 50.000 años los humanos comenzaron a almacenar contenidos de memoria en el mundo exterior en vez de en sus cerebros (pinturas rupestres, figuras, calendarios, etc.). Finalmente, con la escritura, hará unos 10.000 años, los humanos modernos alcanzaron capacidades representativas simbólicas y la lógica. Es la mente “teórica”.

En otro orden de cosas se estima que existen unos 10.000 millones de células corticales en el hombre moderno, de los que 1.000 millones estarían en relación con el cuerpo. Así que 8.900 millones se utilizarían para procesos internos y para las conexiones con otras neuronas del sistema. Se estima que el cerebro del Australopiteco tendría 3.500 millones de neuronas por encima de las relacionadas con el cuerpo, comparadas con los 2.000 millones del gorila y los 2.400 millones del chimpancé.

El Homo habilis tendría unos 4.500 millones de interneuronas y el Homo erectus 7.000. Respecto al volumen, el Australopiteco tenía un cerebro de 500 c.c. frente a los 450 c.c. del gorila. El Homo habilis tenía unos 700 c.c., el Homo erectus unos 950-1050 c.c. y el Homo sapiens 1.350 c.c. Sin embargo, parece que el número de células no es determinante. El lingüista y neurólogo alemán Eric Lenneberg dice que el cambio más importante durante la expansión cerebral fue la interconexión entre las células.

Conciencia compartida


Urracas tratando de quitarse la marca que se han visto en el espejo. Oliver Wrobel. PlosBiology.

Aparte de nuestras experiencias cotidianas existen informes procedentes de estadios cognoscitivos que sugieren que los seres humanos no somos los únicos animales que tienen consciencia. Quizá seamos los únicos que somos conscientes de que somos conscientes, y, desde luego, los únicos que podemos informar de nuestro estado consciente mediante el lenguaje sintáctico.

Parece evidente que la consciencia surge sobre el sustrato biológico del sistema nervioso y, por tanto, es un estado adquirido a lo largo de la evolución. Se suele distinguir entre una consciencia sensorial, llamada también “consciencia primaria”, probablemente común a muchos animales, y una consciencia llamada metacognición o “consciencia de nivel superior”, única en el hombre.

Desde luego, si reconocerse en un espejo es señal de auto-consciencia, las ballenas, los delfines, los elefantes, los chimpancés, los gorilas, los orangutanes y los tamarinos poseen autoconsciencia. A favor de la presencia de consciencia en los mamíferos está el hecho de que todos poseen un sistema tálamo-cortical altamente desarrollado.

Informes sobre rendimientos considerables de la memoria en algunas aves, el aprendizaje vocal y la reproducción de lo aprendido, así como la discriminación en tareas difíciles, hace pensar que la consciencia surge en las aves, probablemente de manera independiente de los mamíferos. En la solución de problemas que parecen requerir habilidades cognoscitivas de alto nivel destacan también los cuervos que son capaces de utilizar herramientas de distinto tamaño y longitud de acuerdo con la dificultad de la tarea para obtener alimentos.

Se ha llegado incluso a plantear niveles muy simples de consciencia en cefalópodos, tales como los pulpos y las sepias a los que se le reconoce una capacidad cognoscitiva muy elevada en la discriminación de objetos, en atención y en memoria.

¿Cuándo surge, pues, la consciencia? El problema cuando intentamos saber si otros animales son conscientes es que los organismos no humanos no pueden hablar. Estamos convencidos de que pueden sentir placer y dolor, pero no podemos saber si son conscientes de esos sentimientos. Entre los humanos también los niños pequeños no pueden hablar, aunque también estamos convencidos de que pueden tener sentimientos como nosotros.

No obstante, ha habido controversias sobre si los bebés son capaces de sentir como los adultos. La circunsición suele realizarse sin anestesia y generalmente a los bebés se les prescribe dosis post-operativas de analgésicos inferiores a las que se utilizan para el adulto. Se les puede preguntar cuando se hacen mayores, pero existe lo que Freud llamó la amnesia infantil, algo que según él se producía porque los contenidos de la memoria estaban reprimidos. Explorando esa amnesia se ha podido comprobar que los bebés tienen una buena memoria a largo plazo y que esa información no sufre en la transición entre la vida pre-verbal y la verbal. Pero no podemos saber si en la vida pre-verbal el bebé tiene consciencia de esa memoria, ya que el recuerdo utiliza el lenguaje.

Por todo ello se ha sugerido que los bebés que aún no han aprendido a hablar no tienen recuerdos conscientes, mientras que los bebés parlantes sí los tienen. Que el lenguaje juegue un papel crítico en este proceso lo indica que las niñas, que suelen aprender antes a hablar que los niños, tienen recuerdos más antiguos de su niñez.

Se ha propuesto la existencia de dos tipos de memoria. El primer sistema operaría a lo largo de toda la vida y no puede accederse a él intencionalmente; el segundo sistema dependería del lenguaje y puede accederse a él intencionalmente. Otros autores han planteado que la memoria autobiográfica se desarrolla cuando lo hace el concepto del yo o de sí mismo. Los niños comienzan a utilizar la palabra ‘yo’ y ‘mi’ poco antes de los dos años de edad y ‘tú’ uno o dos meses después. Se calcula que el concepto del yo surge, pues entre los 18 y los 24 meses de edad. En resumen: que el acceso consciente al sistema autobiográfico que depende del hipocampo coincide con el desarrollo del lenguaje y con el desarrollo del concepto de sí mismo.

Correlatos neurales de la consciencia

Cuerpo y cerebro son observables por terceros. Pero la mente sólo es accesible por el que la posee. Los pesimistas niegan la posibilidad de salvar esa distancia. Sólo podremos describir los correlatos de estados mentales, pero no cómo esos correlatos generan la consciencia, el sentido del yo. Otros argumentan que es absurdo llevar a cabo una investigación sobre la mente que es el instrumento que se emplea en la búsqueda de la solución del problema.

Algunos científicos han abordado la prometedora tarea de buscar los correlatos neuronales específicos de la consciencia. Los diversos autores proponen diferentes estructuras del cerebro para el asiento de la consciencia, estructuras como los núcleos talámicos intralaminares, el núcleo reticular, la formación reticular mesencefálica, la red intracortical tangencial de las capas I y II y los bucles tálamo-corticales.

Para Francis Crick y Christof Koch la mejor manera de abordar el tema de la consciencia es concentrarse en encontrar sus correlatos neuronales y las funciones cerebrales que dan lugar a las experiencias conscientes.

Edelman y Tononi piensan que el sustrato neuronal de la consciencia comprende grandes poblaciones de neuronas – en especial las del sistema tálamo-cortical – que se encuentran ampliamente distribuidas por todo el cerebro. Por otro lado, ningún área concreta y única del cerebro es responsable de la experiencia consciente.

Las únicas lesiones cerebrales localizadas que tienen como resultado la pérdida de la consciencia son las que suelen afectar al llamado sistema reticular de activación, situado en las porciones superiores del tronco cerebral (las regiones superiores de la protuberancia y el mesencéfalo) hasta el hipotálamo posterior, los llamados núcleos talámicos intralaminares y reticulares y el cerebro basal anterior. Su actividad es esencial para el mantenimiento del estado de la consciencia. Se supone que no genera consciencia por sí mismo.

En seres humanos se han identificado varios correlatos de la consciencia, como el bucle tálamo-cortical, un EEG característico de ondas frecuentes y de baja amplitud que va de 12-70 Hz y la formación reticular mesencefálica. Se ha propuesto que la descarga sincrónica de neuronas corticales, con una frecuencia de 40 Hz, también conocida como oscilación gamma, sea el correlato neural de la consciencia y sirva para unir la actividad de diversas áreas corticales, en relación con un mismo objeto. Pero estudios recientes en sujetos anestesiados han podido mostrar que la frecuencia de 40 Hz puede existir sin consciencia.

Se ha postulado que las células piramidales de la capa V y VI de la corteza, cuyos axones proyectan fuera de la corteza, serían responsables de la consciencia visual.

Los neurocientíficos británicos Karl Friston y Richard Frackowiak mostraron que las áreas que disminuyeron su actividad cuando una actividad motriz es aprendida son la corteza prefrontal y el área motriz suplementaria, lo que puede indicar que estas regiones cerebrales están implicadas en la producción de consciencia. La corteza prefrontal se sabe que está implicada en la toma de decisiones y el AMS es uno de los lugares implicados en la iniciación de la acción. Las regiones que participan en el control inconsciente de la actividad motriz son probablemente la corteza parietal posterior y el cerebelo. Es sorprendente la cantidad de corteza cerebral que puede perderse sin que el individuo pierda la consciencia.

El neurocirujano norteamericano Joseph Bogen tenía dos pacientes que tras una operación habían conservado sólo el hemisferio derecho. Perdieron las funciones sensoriales y motoras de la parte derecha del cuerpo y casi toda la capacidad de hablar, pero los sujetos estaban conscientes y respondían apropiadamente a los estímulos.

Consciencia ocasional

El nivel de consciencia se regula por el Sistema Activador Reticular Ascendente, descubierto por Moruzzi y Magoun en 1949 y que es la formación reticular que se extiende por el bulbo, la protuberancia y el mesencéfalo. Las neuronas necesitan mantener un nivel de actividad determinado. La formación reticular actúa no sólo modificando el nivel de actividad, sino también modulando las entradas y salidas, sobre todo las que salen de la médula espinal. Podemos modular los niveles de consciencia alterando la actividad de la formación reticular probablemente desde la corteza prefrontal. Estas estructuras son necesarias, pero no suficientes para la consciencia. Se necesita también la actividad de neuronas corticales.

El núcleo reticular del tálamo funciona como un interruptor para la consciencia. Cuando el nivel de activación del tronco del encéfalo disminuye, los circuitos tálamo-corticales comienzan a oscilar. Este ritmo sincrónico contribuye a la pérdida global de consciencia como ocurre en el sueño no REM. En el EEG se ven los husos característicos del sueño y las ondas lentas. A este fenómeno se le ha llamado “sincronización del EEG”.

Cuatro neurotransmisores juegan un papel en la función cerebral: el sistema noradrenérgico del locus coeruleus, el sistema serotoninérgico de los núcleos del rafe, el sistema dopaminérgico del mesencéfalo y el sistema histaminérgico del hipotálamo. La noradrenalina y la histamina están implicadas en la vigilia, la alerta y la atención; la serotonina en frenar la acción motora, ayudándola para que sea estímulo- y situación- específica; la dopamina apoyando y facilitando el movimiento, la emoción positiva y el pensamiento.

En la visión hay una vía que va desde la retina a la corteza visual primaria, pasando por el núcleo geniculado lateral. Esa vía no implica consciencia. En la corteza visual primaria, la información se dirige luego a las áreas corticales donde está representado el movimiento y a otras donde se representa el color; de ahí pasa la información a células que reconocen los objetos en la corteza asociativa temporal inferior, donde la información se hace consciente.

La cuestión es: ¿cómo se explica que unas descargas neuronales de una región asociativa de la corteza pueda ir acompañadas de consciencia y otras no? Gerald Edelman piensa que esa pregunta puede contestarse con lo que él llama “darwinismo neural”, que trata sobre la cooperación y competición entre grandes grupos de neuronas; las que salen triunfantes de esta competición serían las que van acompañadas de consciencia. A esto Edelman le llamó la “hipótesis del núcleo dinámico”.

Se sabe asimismo que la vía visual dorsal, que va desde el área visual primaria hacia la corteza asociativa parietal, también llamada la vía del “dónde”, que es capaz de localizar los objetos en el espacio, es inconsciente, mientras que la vía ventral que se dirige a las áreas asociativas temporales, llamada vía del “qué” es consciente. Las proyecciones de la corteza parietal a las áreas premotoras son inconscientes, mientras que las proyecciones de corteza parietal a la corteza prefrontal están relacionadas con la consciencia.

Experimentos realizados por Benjamín Libet mostraron que era necesario estimular la corteza somestésica con un tren de impulsos de al menos medio segundo para producir una experiencia consciente. Libet llamó a este fenómeno la “adecuación neural para la consciencia”. Este hecho significa que la consciencia tiene que estar mucho más atrás en el tiempo que los sucesos del mundo real y, por tanto, tiene que ser inútil para responder a un mundo que se mueve rápidamente.

La consciencia no es un fenómeno todo-o-nada, sino que existen diversos niveles de consciencia. Y la transición de la inconsciencia a la consciencia no es simplemente un cambio de una inactividad a una actividad neuronal, sino que supone un cambio en lo que hacen las neuronas, cambio que hoy por hoy es desconocido.

Todos estos resultados indican que la consciencia es un producto de la actividad cerebral, pero que muchas de las actividades de las neuronas cerebrales no van acompañadas de consciencia.

¿Máquinas con consciencia? 

¿Puede crearse consciencia en una máquina? Los ordenadores pueden resolver problemas que los humanos encuentran difíciles, como la comprobación de teoremas, pero tienen enormes dificultades en tareas fáciles para los humanos, como el reconocimiento de objetos y la manipulación de los mismos.

En 1997 el mejor jugador del mundo de ajedrez, Gary Kasparov fue vencido por “Deep Blue”, un ordenador IBM. El ordenador era capaz de calcular 200 millones de posiciones de las fichas del ajedrez por segundo, mientras que Kasparov sólo podía procesar tres o cuatro posiciones. Además, el ordenador no estaba sometido a emociones o a estrés. La pregunta que se plantea es la siguiente: si Kasparov es considerado un ser inteligente, ¿por qué no podemos darle a Deep Blue la misma consideración?

Uno de los ataques más relevantes a la idea de que la IA podría desarrollar una mente ha sido la llamada Habitación China del filósofo estadounidense John Searle, un “Gedankenexperiment” en el que una persona en una habitación recibe caracteres chinos, los procesa siguiendo una serie de reglas, saca los resultados correctos sin entender lo que significan.

Aunque muchas actividades y acciones complejas pueden realizarse de manera inconsciente, actividades más dinámicas e interactivas, como el diálogo interpersonal, sólo puede llevarse a cabo de manera consciente.

Ahora mismo, en Internet, hay unidos cientos de millones de ordenadores, y el ancho de banda de las conexiones crece cada año. Algunas personas afirman que si Internet sigue creciendo llegará a un tamaño en el que inevitablemente se volverá consciente.

En los últimos 50 años la densidad de empaquetamiento de transistores en los circuitos integrados se dobla aproximadamente cada dos años. Esta tasa de crecimiento exponencial, llamada la ley de Moore, se espera que continúe durante una década o dos, lo que supone un aumento del rendimiento y una disminución de los costes. Se ha calculado que en el año 2019 un ordenador típico de mesa tendrá la capacidad del cerebro humano y costará sólo unos 1000 dólares. Y se calcula que el año 2029 se podrá construir una máquina que pase el test de Touring.

En 1950 Alan Touring planteó la respuesta a la pregunta: “¿Pueden pensar las máquinas?”. El test que lleva su nombre se aprobaría si durante 5 minutos la máquina podría responder de tal manera que el interrogador no pudiese distinguirla de un ser humano. Supongo que se necesitará más que pasar el test de Touring para que una máquina genere consciencia.

Conclusiones

El dualismo que subyace a algunas de las teorías sobre la consciencia plantea una cuestión importante, a saber cómo superarlo, ya que a lo largo de la historia de la filosofía este dualismo no ha podido aclarar cómo es posible que un ente inmaterial pueda interaccionar con la materia que es el cerebro. Por tanto, entiendo que la superación de esta visión dualista ha ayudado mucho a la neurociencia para plantearse el estudio de las funciones mentales, considerando éstas como el producto de la actividad cerebral.

Ahora bien, la cuestión no es tan fácil, ya que considero imposible liberarse completamente del pensamiento o la visión dualista. Y pienso que es imposible porque supongo que esta forma de pensamiento en antinomias o antítesis podría bien ser una categoría más de nuestra mente con la que analizamos el mundo. Estoy convencido de que nuestro pensamiento lógico-analista es dualista, nos hace ver el mundo en antinomias o conceptos contrarios.

Todos tenemos la impresión de que nuestra experiencia consciente subjetiva es algo distinto del mundo físico que nos rodea y, si el cerebro pertenece a ese mundo físico, como es el caso, nos resulta muy sencillo separar la actividad cerebral de las experiencias subjetivas. De ahí que el pensamiento dualista sea común a mitos y religiones, a la filosofía y a la ciencia.

Me hace pensar en una predisposición genética que denomino “pensamiento dualista”, aunque ya previamente el psiquiatra de Pensilvania Eugene D’Aquili, fallecido en 1998, lo llamó “operador binario”, una estructura, módulo o dispositivo neural que estaría localizado en el lóbulo parietal inferior izquierdo. El neuropsicólogo ruso Alejandro Luria tuvo un paciente con una lesión en esa región cerebral y el sujeto no podía ya distinguir entre los conceptos contradictorios, como arriba/abajo, delante/detrás o antes y después. Había perdido la visión dualista del mundo que nos caracteriza.

Si esto es cierto, entonces el dualismo que parecemos percibir en la naturaleza no es tal, sino simplemente que nuestro cerebro lo percibe así, pero que no existe en la naturaleza, en el mundo exterior.

A mi entender, esta manera de ver el problema de la consciencia dificulta enormemente su solución. En otro lugar he argumentado que la experiencia mística, producida no sólo espontáneamente, sino provocada experimentalmente por estimulación de ciertas regiones del cerebro, es una experiencia en la que una de sus características es la anulación de la visión dualista, o sea, la desaparición del yo frente al mundo, uniéndose el sujeto con la naturaleza, el vacío o Dios.

Este hecho nos está diciendo, en mi opinión, que la visión dualista no es la única posible con la que el cerebro se enfrenta a la realidad exterior. Pero también nos dice que el cerebro es capaz de generar experiencias espirituales, es decir, que considerar a este órgano como materia, simplemente, no sería correcto. Más bien habría que hablar de algo así como “espiriteria”, o sea la contracción de espíritu y materia.

Esto quiere decir que los conceptos “materialismo”, “espiritualismo”, no son otra cosa que “dualismos cojos” en el sentido que de la partición dualista de una totalidad eligen solamente una parte.

En cualquier caso, espero que haya quedado claro que estamos aún lejos de comprender el salto cualitativo que supone pasar de la actividad neuronal del cerebro a la experiencia subjetiva de la consciencia. Aquellos que opinan que este es un enigma insoluble y que nunca llegaremos a encontrar una solución deberían considerar los enormes avances que ha experimentado la neurociencia, sobre todo en la segunda mitad del siglo pasado, y deberían asimismo pensar que en ciencia la palabra “nunca” no debe utilizarse. Por mi parte, considero que es posible que sea el resultado de una visión dualista que habría que superar.

Fuente: tendencias21.net/La-consciencia-es-el-mayor-enigma-de-la-ciencia-y-la-filosofia_a4026.html   

54


Windows 10 October 2018 Update ya está disponible.

Es la segunda y última gran actualización del sistema operativo de Microsoft que se lanza este año en la nueva modalidad de Windows como servicio. Como siempre sucede, algunos usuarios suelen tener problemas con estas actualizaciones, aunque es posible que esta vez sean más graves que en otras ocasiones. Concretamente, algunos usuarios reportan problemas de archivos personales y documentos borrados tras actualizar a Windows 10 October 2018 Update.

Ya conocemos las novedades de la nueva actualización de Windows 10 como el tema oscuro para el navegador de archivos, acceso a las fotos y mensajes de nuestro móvil con Your Phone, nueva herramienta de captura de pantalla Snip & Sketch y diversas mejoras de funcionamiento en muchas áreas del sistema operativo.

Problema: Windows 10 October 2018 borra los archivos personales de los usuarios

Actualizar siempre tiene algunos riesgos, aunque normalmente suelen ser cosas insignificantes que no afectan de forma grave a los usuarios. Sin embargo, tras actualizar a Windows 10 October 2018 Update, algunos usuarios han empezado a quejarse de forma airada tras perder datos y archivos personales.



Este se ha convertido sin duda en el gran problema de los que han actualizado a esta nueva versión. Tenemos varios casos que señalan que han perdido datos almacenados en las carpetas de usuario como Documentos o Descargas. De hecho, tenemos hasta un usuario que afirma que ha perdido 60GB de archivos WAV tras actualizar.

En otros casos, se han borrado incluso perfiles de usuarios. Un administrador de sistema señala que todo podría estar causado por una directiva de grupo que indica “Borrar perfil de usuario más antiguo que un determinado número de días al reiniciar el ordenador”. En los equipos afectados se ha encontrado esto y no en otros ordenadores que no se han visto afectados por el problema.

Por el momento, no existe confirmación oficial del problema por parte de Microsoft ni sabemos la causa exacta. Además, no tenemos forma conocida de resolverlo y recuperar los documentos y archivos borrados. Algunos usuarios han intentado desinstalar la actualización, pero eso no ha servido para devolverles sus archivos.

Fuente: adslzone.net


!RECUERDEN QUE LAS ACTUALIZACIONES AUTOMÁTICAS DE WINDOWS 10 SE DESHABILITAN ES POR LA FUNCIÓN DE POLITICAS DE GRUPO NO POR LOS SERVICIOS!

55


China habría utilizado un chip diminuto para intentar infiltrarse en las grandes tecnológicas

Estados Unidos descubre el origen chino de modificaciones en placas base distribuidas a compañías de todo el mundo, cuyo objetivo sería robar información de propiedad intelectual y secretos comerciales.

China habría conseguido, supuestamente, infiltrarse de manera efectiva durante los últimos años en los sistemas informáticos de decenas de empresas de todo el mundo, muchas de ellas referentes del sector de la tecnología, como Amazon o Apple, a través del uso de un microchip. Una vulnerabilidad que ha sido posible gracias a un elaborado plan ejecutado desde el país asiático en las cadenas de producción de los proveedores de Super Micro Computer (Supremicro), una de las principales empresas distribuidoras de placas base para servidores a nivel mundial.

O al menos lo ha intentado, según una publicación detallada de Bloomberg Businessweek que surge tras una investigación, aún en curso, comenzada por el gobierno de Estados Unidos en 2015, cuando se comenzaron a detectar las anomalías en los placas base de servidores de Elemental Technologies, una compañía adquirida posteriormente ese año por Amazon para su plataforma AWS (Amazon Web Services). Desde entonces, y según las fuentes recabadas por el citado medio, que abarcan tanto investigadores independientes como individuos del propio Gobierno, se han ido descubriendo las implicaciones, cada vez mayores, de lo que parece una operación a gran escala orquestada desde el núcleo de China.

Tan pequeño como un grano de arroz

El quid de la cuestión se encuentra en un diminuto chip, del tamaño de la punta de un lapicero o de unas dimensiones tan reducidas como las de un grano de arroz, aproximadamente. Al contrario que otras técnicas de ciberataque e infiltración en equipos ajenos, la problemática que presentan los millones de servidores provistos por Supermicro alrededor del mundo –en 2014 Apple adquirió 10.000 de esos servidores para instalarlos en 19 localizaciones alrededor del mundo, por ejemplo– es que la implantación del chip se hacía directamente en el proceso de ensamblaje en las fábricas, complicando notablemente su posible detección.

Supermicro abastecía en 2015 a 900 clientes de 100 países diferentes

"Algunos de los chips se construyeron para que parecieran receptores de señal, e incorporaron memoria, capacidad de conexión a la red y suficiente capacidad de procesamiento para un ataque", aseguran los descubridores. Con estos pequeños dispositivos implantados en las placas base, eran enviados a Supermicro, que se encargaba (y encarga) de venderlos a diferentes compañías –en 2015 su cartera se extendía a más de 900 clientes en 100 países de todo el mundo–. Una vez en los servidores, los microchips eran capaces de realizar modificaciones en las operaciones de estos y ser controlados de manera externa por los atacantes.

La acción pertenece presuntamente a un grupo del Ejército Popular de Liberación, el ejército nacional de la República Popular China, atañendo de manera directa al Gobierno del país, cuyas tensiones con Estados Unidos y su vocación por controlar internet y las comunicaciones son de sobra conocidas. Según un antiguo trabajador del cuerpo de Inteligencia de Estados Unidos, la importancia de este ataque o acción conjunta viene dada por el papel de Supermicro en el mercado internacional, lo cual eleva el rango de afectados exponencialmente.

Citar
Piensa en Supermicro como el Microsoft del mundo del hardware. Atacar a las placas madre de Supermicro es como atacar a Windows. Es como atacar a todo el mundo.

¿Se sabía o no?

El análisis de la situación publicado hoy asegura que la situación con los servidores y el compromiso de los datos de los mismos era bien conocida por muchas de las empresas expuestas, entre las que se encuentran las mencionadas Apple y Amazon, que descubrieron las modificaciones en los servidores en 2015. El objetivo de las mismas era robar datos de propiedad intelectual y secretos comerciales de empresas norteamericanas, por lo que los datos de los usuarios no se habrían visto expuestos.

En contra de lo publicado por Bloomberg, ambas compañías niegan tajantemente haber encontrado evidencias en el pasado acerca de este asunto ni tener conocimiento alguno de investigaciones por parte del Gobierno en relación a este aspecto. Apple asegura haber realizado investigaciones de manera periódica tras las numerosas veces que les contactó dicha publicación con información acerca de la infiltración en los servidores, no encontrando "ninguna evidencia" que respalde los datos del medio.

Citar
En esto podemos ser muy claros: Apple nunca ha encontrado chips maliciosos, "manipulaciones de hardware" o vulnerabilidades plantadas a propósito en ningún servidor. Apple nunca tuvo contacto con el FBI ni con ninguna otra agencia sobre tal incidente. No tenemos conocimiento de ninguna investigación por parte del FBI, ni nuestros contactos en la aplicación de la ley. [...]

Como práctica, antes de que los servidores se pongan en producción en Apple, se los inspecciona en busca de vulnerabilidades de seguridad y actualizamos todo el firmware y el software con las últimas protecciones. No descubrimos ninguna vulnerabilidad inusual en los servidores que compramos de Super Micro cuando actualizamos el firmware y el software de acuerdo con nuestros procedimientos estándar. [...]

Por su parte, Amazon adopta una postura similar y descarta haber tenido cualquier conocimiento acerca de una posible situación de vulnerabilidad de datos en sus servidores.

Citar
Es falso que AWS supiera sobre un compromiso en la cadena de suministro, un problema con chips maliciosos o modificaciones de hardware al adquirir Elemental. También es falso que AWS supiera sobre los servidores que contienen chips maliciosos o modificaciones en centros de datos con sede en China, o que AWS trabajó con el FBI para investigar o proporcionar datos sobre hardware malicioso. [...] No hemos encontrado pruebas que respalden las afirmaciones de chips maliciosos o modificaciones de hardware.

La auditoría previa a la adquisición describió cuatro problemas con una aplicación web (no hardware o chips) que SuperMicro proporciona para la administración de sus placas base. Todos estos hallazgos se abordaron completamente antes de que adquiriéramos Elemental. [...]

Desde Supermicro niegan, igualmente, tener constancia acerca de la situación con sus servidores:

Citar
Si bien cooperaríamos con cualquier investigación gubernamental, no tenemos conocimiento de ninguna investigación relacionada con este tema ni ninguna agencia gubernamental nos ha contactado al respecto. No tenemos conocimiento de ningún cliente que abandone Supermicro como proveedor para este tipo de problema.

Todas las grandes corporaciones en el clima de seguridad actual responden constantemente a las amenazas y evolucionan su postura de seguridad. Como parte de ese esfuerzo, estamos en contacto regular con una variedad de proveedores, socios de la industria y agencias gubernamentales que comparten información sobre amenazas, mejores prácticas y nuevas herramientas. Esta es una práctica estándar en la industria de hoy. Sin embargo, no hemos estado en contacto con ninguna agencia gubernamental con respecto a los problemas que usted planteó.

Además, Supermicro no diseña ni fabrica chips de red ni el firmware asociado, y nosotros, al igual que otras compañías líderes de servidores / almacenamiento, los obtenemos de las mismas compañías líderes de redes.

Por último, como era de esperar, desde el Ministerio de Asuntos Exteriores chino también manifiestan su desconocimiento, asegurando trabajar siempre en pro de la ciberseguridad.

Citar
China es una decidida defensora de la ciberseguridad. Aboga por que la comunidad internacional trabaje en forma conjunta para enfrentar las amenazas de seguridad cibernética a través del diálogo sobre la base del respeto mutuo, la igualdad y el beneficio mutuo.

La seguridad de la cadena de suministro en el ciberespacio es un tema de preocupación común, y China también es una víctima. China, Rusia y otros estados miembros de la Organización de Cooperación de Shanghai propusieron un "Código de conducta internacional para la seguridad de la información" a las Naciones Unidas en 2011. Incluía un compromiso para garantizar la seguridad de la cadena de suministro de los productos de tecnología de la información y las comunicaciones. servicios, con el fin de evitar que otros estados utilicen sus ventajas en recursos y tecnologías para socavar el interés de otros países. Esperamos que las partes hagan acusaciones y sospechas menos gratuitas, pero que realicen conversaciones y una colaboración más constructivas para que podamos trabajar juntos en la construcción de un ciberespacio pacífico, seguro, abierto, cooperativo y ordenado.

El alcance de esta situación, de existir, es imposible de saber a día de hoy, dado que la investigación sigue en curso y no hay datos oficiales por parte del Gobierno de Estados Unidos no sus agencias de Inteligencia. Por el momento, lo único que resulta seguro es que la inseguridad y el recelo hacia la tecnología de China cada vez es mayor, con un panorama que no tiene visos de mejorar en el futuro más cercano.

Fuente: hipertextual.com

56


Cómo un tuit le costó a Elon Musk la presidencia de Tesla y una multa de 20 millones de dólares

Elon Musk es una de las figuras más polémicas en el mundo de la tecnología, y una de sus principales particularidades es el uso que le da a su cuenta de Twitter, en la que poco mide sus palabras y termina enfrentando demandas por llamar pedófilo a un rescatista.

Y es justamente un tuit el que la ha terminado costando la presidencia de Tesla y una multa de 20 millones de dólares. Esto es parte de un acuerdo al que ha llegado el empresario con la Comisión de Bolsa y Valores de Estados Unidos tras ser acusado de fraude por lo que publicó en su cuenta de Twitter el pasado 7 de agosto.



Musk había tuiteado que estaba considerando hacer Tesla una empresa privada, y aunque al final esos planes no se llevaron a cabo, el organismo demandó al CEO de Tesla por presuntamente engañar a los inversores con ese tuit.

El acuerdo al que se llegó en menos de tres días, exige que Tesla deba pagar una multa de 20 millones de dólares, añadir dos nuevos directores independientes a su junta, y además contratarán un abogado que deberá vigilar las comunicaciones públicas de Musk para asegurarse de que no esté dando información engañosa.

De Twitter, novias y marihuana



En su demanda, la Comisión de Bolsa y Valores de Estados Unidos alegó que Musk hizo un cálculo basado en el 20% de la "prima estándar" sobre el precio de cierre de la acción ese día para volver la empresa privada. En su tuit Elon Musk escribió 420 dólares, pero los cálculos indicaban que el precio sería 419 dólares por acción.

Musk redondeó el precio a 420 dólares porque recientemente había aprendido el significado del número en la cultura de la marihuana, y "pensó que su novia lo encontraría gracioso, algo que sin duda no es una buena razón para elegir un precio".

Elon continuará siendo el CEO de Tesla, pero deberá renunciar a la presidencia de la junta dentro de un máximo de 45 días, y no podrá volver a tener ese puesto por al menos tres años. Los 20 millones de dólares serán distribuidos entre los inversores que se vieron afectados, bajo un proceso aprobado por la corte.

Fuente: m.genbeta.com

57


Este fin de semana, Mark Zuckerberg debería desaparecer de Facebook. Un hacker promete borrar su perfil en la red social

Chang Chi-Yuan, un hacker taiwanés, ha prometido a sus 26.000 seguidores que este fin de semana borrará el perfil de Mark Zuckerberg en la red social que él mismo fundó, Facebook. Según sus indicaciones lo hará este domingo y además promete retransmitirlo en directo a través de la plataforma de vídeo de la propia red social. El taiwanés ya ha conseguido cierta fama en el pasado por ‘hacks’ llamativos como, por ejemplo, piratear un sistema de autobuses para comprar billetes a un precio más bajo del normal.

El hacker asegura ser capaz de manipular Facebook. Tanto es así que debería ser capaz de borrar perfiles de usuario de otras personas dentro de la red social, y para demostrarlo lo hará con el perfil de Mark Zuckerberg y en directo. No obstante, no es la primera persona que intenta o llega a hacer algo así. En el año 2011, un hacker ya logró cambiar el mensaje de estado del perfil de Mark Zuckerberg. Y este tipo de prácticas suelen buscar entrar dentro del programa de incentivos de la compañía, con recompensas económicas.

Será durante el mediodía del domingo, de esta semana, cuando Chang Chi-Yuan arrancará su emisión en directo en Facebook Live, y cuando empezará el ataque contra la red social. Es un ataque que, a priori, si es que acaso consigue algo, solo debería afectar al perfil de Mark Zuckerberg. La intención es demostrar de forma pública que existe una vulnerabilidad en la red social que permite modificar perfiles de otros usuarios hasta el punto de su eliminación. Este tipo de fallos, si son encontrados por alguien ajeno a la compañía, son recompensados económicamente con diferentes cantidades de dinero.

Si lo consigue, evidentemente será poco el tiempo en que Mark Zuckerberg desaparezca de la red social, con su perfil eliminado. Hasta la fecha, aunque ha habido otros ‘ataques’ como la modificación de su estado en el año 2011, nunca nadie ha atacado a tal nivel el perfil del fundador de Facebook.

Fuente: adslzone.net

58
NGROK : Abrir nuestro servidor local a internet.
Crear un host local para publicar tu proyecto de app web en internet

1. Descargas NGROK de You are not allowed to view links. Register or Login
Nota: no es necesario hacer el paso que dice connect your account de la página oficial.

2. Colocas el ngrok.exe que se descomprime donde quieras.

3. Ejecutas el ngrok.exe y luego en la consola que se abre ejecutas el comando:
Código: You are not allowed to view links. Register or Login
ngrok http 80
4. Te aparecerá una ventana asi:

Donde debes copiar la URL que dice Forwarding

Y esa es la URL donde está publicado tu localhost

Si navegas en esa URL o le añades el subdirectorio donde cargaba tu proyecto, obtendras algo tipo:
Código: You are not allowed to view links. Register or Login
http://c43dea8e.ngrok.io/__mercury_launcher/login_v8/index.php
Que seria la URL completa de tu proyecto web que quieres compartir, ya que si compartes la URL que suministra el NGROK inicialmente, tu cliente o compañero vera es la pagina de bienvenida por defecto del localhost.

5. para dejar de compartir y tener publicado tu servidor local a internet tal y como dice la ventana de NGROK debes presionar CTRL + C, en la ventana de la consola.

NOTA: Doy por sentado que comprendes que obviamente debes tener tu servidor local bien sea XAMPP, WAMP, MAMP, LAMP o UWAMP ejecutándose antes de iniciar el NGROK.

NOTA2: Personalmente recomiendo mucho el servidor local You are not allowed to view links. Register or Login para desarrolladores.

59
[SOLUCIONADO] El explorador de win10 no se refresca al crear carpeta o renombrar
[SOLUCIONADO] El explorador de win10 no se refresca al copiar y pegar o descargar



Guardar este archivo con extensión .bat (si no estas seguro de como generar y guardar el .bat descargalo de You are not allowed to view links. Register or Login).
Código: You are not allowed to view links. Register or Login
ie4uinit.exe -show
taskkill /F /IM explorer.exe
cd /d %userprofile%\AppData\Local\Microsoft\Windows\Explorer
attrib -h iconcache_*.db
DEL /A /Q "%localappdata%\IconCache.db"
DEL /A /F /Q "%localappdata%\Microsoft\Windows\Explorer\iconcache*"
start explorer

Al guardar cerrar todo lo que tengas abierto y ejecutar (no requiere que sea como administrador).
Luego reiniciar la PC.

Fuente:
Código: You are not allowed to view links. Register or Login
https://superuser.com/questions/1258643/desktop-does-not-automatically-refresh-when-moving-renaming-deleting-files-fol

60
Zona Webmaster / 2 woocommerce y 1 wordpress Templates Gratis
« en: Septiembre 21, 2018, 08:11:10 pm »


Los consigues en:
You are not allowed to view links. Register or Login



DESCARGA DIRECTA LOS 3 JUNTOS:
You are not allowed to view links. Register or Login

Cada tema trae:

Páginas: 1 2 [3] 4 5 ... 64