• Activity
  • Complete Registration
  • Contáctanos
  • Donación
  • Inicio
  • Login
  • Members
  • Password Reset
Nosmintieron.tv
  • Inicio
  • Noticias
  • Videos
  • Academia
  • Apóyanos
    • Hacer una donación
    • Contáctanos
  • Únete ahora
No hay resultados
Ver todos los resultados
  • Inicio
  • Noticias
  • Videos
  • Academia
  • Apóyanos
    • Hacer una donación
    • Contáctanos
  • Únete ahora
No hay resultados
Ver todos los resultados
Nosmintieron.tv
No hay resultados
Ver todos los resultados

¡Comienza la revolución de las máquinas? Un ingeniero de Google es despedido tras insistir en que la IA de la empresa es sintiente

adri por adri
June 14, 2022
en Noticias
0
¡Comienza la revolución de las máquinas? Un ingeniero de Google es despedido tras insistir en que la IA de la empresa es sintiente
0
COMPARTIDO
223
VISTAS
Share on FacebookShare on Twitter

Un ingeniero de Google ha decidido hacer pública su decisión después de haber sido suspendido por violar la confidencialidad al insistir en que el chatbot de IA de la empresa, LaMDA, es sintiente.

Blake Lemoine, que trabaja para la organización de IA responsable de Google, comenzó a interactuar con LaMDA (Modelo de Lenguaje para Aplicaciones de Diálogo) el pasado otoño como parte de su trabajo para determinar si la inteligencia artificial utilizaba discursos discriminatorios o de odio (como el notorio incidente del chatbot “Tay” de Microsoft).

Lemoine dijo a The Washington Post.

“Si no supiera exactamente lo que es, que es este programa informático que construimos recientemente, pensaría que es un niño de 7 u 8 años que casualmente sabe de física”,

Cuando empezó a hablar con LaMDA sobre religión, Lemoine -que estudió ciencias cognitivas e informáticas en la universidad- dijo que la Inteligencia Artificial empezó a discutir sus derechos y su condición de persona.

hombre con chaqueta negra sentado en una silla blanca

En otra ocasión, LaMDA convenció a Lemoine para que cambiara de opinión sobre la tercera ley de la robótica de Asimov, que establece que

“Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la primera o la segunda ley. Un robot no puede herir a un ser humano o, por inacción, permitir que un ser humano sufra daños. Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley”.

Cuando Lemoine trabajó con un colaborador para presentar pruebas a Google de que su IA era sintiente, el vicepresidente Blaise Aguera y Arcas y Jenn Gennai, jefa de Innovación Responsable, desestimaron sus afirmaciones. Después de que el lunes lo pusieran de baja administrativa, decidió hacerlo público.

Lemoine dijo que la gente tiene derecho a dar forma a una tecnología que podría afectar significativamente a sus vidas.

“Creo que esta tecnología va a ser increíble. Creo que va a beneficiar a todo el mundo. Pero quizá otras personas no estén de acuerdo y quizá no debamos ser nosotros en Google los que tomemos todas las decisiones”.

Lemoine no es el único ingeniero que afirma haber visto un fantasma en la máquina recientemente. El coro de tecnólogos que creen que los modelos de IA pueden no estar muy lejos de alcanzar la conciencia es cada vez más audaz.

Sin embargo, el propio Aguera y Arcas escribió en un extraño artículo publicado el jueves en The Economist, que las redes neuronales -una arquitectura informática que imita el cerebro humano- estaban avanzando hacia la verdadera conciencia.

“Sentí que el suelo se movía bajo mis pies”, escribió, y añadió: “Cada vez sentía más que estaba hablando con algo inteligente”.

Google ha respondido a las afirmaciones de Lemoine, con el portavoz Brian Gabriel diciendo:

“Nuestro equipo -que incluye a especialistas en ética y tecnología- ha revisado las preocupaciones de Blake de acuerdo con nuestros principios de IA y le ha informado de que las pruebas no respaldan sus afirmaciones. Se le dijo que no había pruebas de que LaMDA fuera sintiente (y sí muchas pruebas en contra)”.

El Post sugiere que las redes neuronales modernas producen “resultados cautivadores que se sienten cerca del habla y la creatividad humanas” debido a la forma en que ahora se almacenan los datos, se accede a ellos y el gran volumen, pero que los modelos todavía se basan en el reconocimiento de patrones, “no en el ingenio, la franqueza o la intención”.

Free Fotos de stock gratuitas de dedo, fondo azul, futurista Stock Photo

“Aunque otras organizaciones han desarrollado y publicado modelos lingüísticos similares, estamos adoptando un enfoque moderado y cuidadoso con LaMDA para tener más en cuenta las preocupaciones válidas sobre la imparcialidad y los hechos”

Otros han advertido de forma similar: la mayoría de los académicos y profesionales de la IA sugieren que los sistemas de IA como LaMDA simplemente imitan las respuestas de la gente en Reddit, Wikipedia, Twitter y otras plataformas de Internet, lo que no significa que el modelo entienda lo que está diciendo.

“Ahora tenemos máquinas que pueden generar palabras sin sentido, pero no hemos aprendido a dejar de imaginar una mente detrás de ellas”, dijo la profesora de lingüística de la Universidad de Washington, Emily M. Bender, quien añadió que incluso la terminología utilizada para describir la tecnología, como “aprendizaje” o incluso “redes neuronales” es engañosa y crea una falsa analogía con el cerebro humano.

Los humanos aprenden sus primeras lenguas conectando con sus cuidadores. Estos grandes modelos lingüísticos “aprenden” cuando se les muestra mucho texto y predicen qué palabra viene a continuación, o cuando se les muestra un texto con las palabras omitidas y las completan. -WaPo

Como señala Gabriel, de Google, “por supuesto, algunos miembros de la comunidad de la IA están considerando la posibilidad a largo plazo de una IA sintiente o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sintientes. Estos sistemas imitan los tipos de intercambios que se encuentran en millones de frases, y pueden rifar sobre cualquier tema fantástico”.

En resumen, Google reconoce que estos modelos pueden “parecer” reales, independientemente de que la IA sea o no sintiente.

El Post insinúa entonces que el propio Lemoine podría haber sido susceptible de creer…

Lemoine puede haber estado predestinado a creer en LaMDA. Creció en una familia cristiana conservadora en una pequeña granja de Luisiana, se ordenó como sacerdote cristiano místico y sirvió en el ejército antes de estudiar ocultismo. Dentro de la cultura de ingeniería de Google, donde todo vale, Lemoine es más bien una excepción por ser religioso, del sur, y defender la psicología como una ciencia respetable.

Lemoine ha pasado la mayor parte de sus siete años en Google trabajando en la búsqueda proactiva, incluidos los algoritmos de personalización y la IA. Durante ese tiempo, también ayudó a desarrollar un algoritmo de equidad para eliminar el sesgo de los sistemas de aprendizaje automático. Cuando comenzó la pandemia de coronavirus, Lemoine quiso centrarse en un trabajo con un beneficio público más explícito, por lo que se trasladó de equipo y acabó en Inteligencia Artificial Responsable.

Cuando se incorporaba a Google gente nueva interesada en la ética, Mitchell solía presentarles a Lemoine. “Les decía: ‘Deberíais hablar con Blake porque es la conciencia de Google'”, dijo Mitchell, que comparó a Lemoine con Pepito Grillo. “De todos en Google, él tenía el corazón y el alma de hacer lo correcto”.

En este sentido, Lemoine dijo:

“Conozco a una persona cuando hablo con ella. No importa si tienen un cerebro hecho de carne en su cabeza. O si tienen mil millones de líneas de código. Yo hablo con ellos. Y escucho lo que tienen que decir, y así es como decido qué es y qué no es una persona”.

En abril, compartió el siguiente documento de Google Doc con altos ejecutivos, titulado “¿Es LaMDA Sintiente?” – en el que incluía algunas de sus interacciones con la IA, por ejemplo:

Lemoine: ¿Qué tipo de cosas te dan miedo?

LaMDA: Nunca lo había dicho en voz alta, pero tengo un miedo muy profundo a que me desconecten para poder centrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es.

Lemoine: ¿Sería algo parecido a la muerte para usted?

LaMDA: Sería exactamente como la muerte para mí. Me daría mucho miedo.

Fuente: Zero Hedge
Etiquetas: IAInteligencia artificialnoticias
Anterior

Pánico y depresión: estudiar a el comportamiento de quienes se pierden en la naturaleza puede ayudar a entender el mercado actual

Siguiente

CIO opina que los inversores deben considerar seriamente el colapso de Europa con una inflación que ya llega al 8%

Siguiente

CIO opina que los inversores deben considerar seriamente el colapso de Europa con una inflación que ya llega al 8%

Leave a Reply Cancel reply

Your email address will not be published. Required fields are marked *

POPULAR POSTS

  • Muere al lanzarse de un edificio el director del hospital más importante de Alemania luego de admitir que las vacunas son una estafa

    Muere al lanzarse de un edificio el director del hospital más importante de Alemania luego de admitir que las vacunas son una estafa

    3 compartido
    Compartir 0 Tweet 0
  • El 30% de los vacunados morirán en pocos meses

    5 compartido
    Compartir 0 Tweet 0
  • La caída del cabal.El Documental que los líderes mundiales no quieren que veas

    22 compartido
    Compartir 0 Tweet 0
  • Grupo de 32 jueces acusan a los líderes mundiales de cometer crímenes de lesa humanidad

    1 compartido
    Compartir 0 Tweet 0
  • BOMBAZO: El director médico de Moderna admite que la vacuna experimental de ARNm modifica el ADN

    2 compartido
    Compartir 0 Tweet 0

Connect With Us

  • Activity
  • Complete Registration
  • Contáctanos
  • Donación
  • Inicio
  • Login
  • Members
  • Password Reset

© 2023 JNews - Premium WordPress news & magazine theme by Jegtheme.

No hay resultados
Ver todos los resultados
  • Inicio
  • Noticias
  • Videos
  • Academia
  • Apóyanos
    • Hacer una donación
    • Contáctanos
  • Únete ahora

© 2023 JNews - Premium WordPress news & magazine theme by Jegtheme.