Contrainformación que no encontrarás en los medios oficiales y pistas que ayuden al despertar ciudadano y espiritual
▼
miércoles, 7 de enero de 2026
CÓMO LOS DIOSES DE LA I.A. PLANIFICAN NUESTRA EXTINCIÓN (2ª PARTE): EL PROBLEMA DEL REY MIDAS
Russell invoca la leyenda del rey Midas para explicar la trampa que nos hemos tendido. Midas deseó que todo lo que tocara se convirtiera en oro. Y así fue. Y luego tocó el agua y se convirtió en metal. Tocó la comida y se volvió incomible. Tocó a su hija y se convirtió en una estatua.
“Muere en la miseria y el hambre”, relata Russell. “Así que esto se aplica a nuestra situación actual de dos maneras. Una es que la codicia impulsa a estas empresas a buscar tecnología con probabilidades de extinción peores que jugar a la ruleta rusa. Y la gente se engaña a sí misma si cree que será controlable de forma natural ” .
Los directores ejecutivos lo saben. Han firmado declaraciones reconociéndolo. Calculan las probabilidades de catástrofe en una entre cuatro, una entre tres, y aun así continúan.
¿Por qué?
Porque el valor económico de la IA general se ha estimado en quince cuatrillones de dólares. Esta suma actúa, en la metáfora de Russell, como "un imán gigante en el futuro. Nos atrae hacia él. Y cuanto más nos acercamos, mayor es la fuerza, la probabilidad, mayor la probabilidad de que realmente lleguemos".
Quince cuatrillones de dólares. A modo de comparación, el Proyecto Manhattan costó aproximadamente treinta mil millones de dólares actuales. El presupuesto para el desarrollo de la inteligencia artificial general (IAG) el próximo año será de un billón de dólares. Treinta veces la inversión necesaria para construir la bomba atómica.
Y a diferencia del Proyecto Manhattan, que se llevó a cabo en secreto por una nación en guerra, este desarrollo está siendo llevado a cabo por empresas privadas que sólo responden ante sus accionistas, en tiempos de paz, sin supervisión democrática, sin marco regulatorio y sin requisitos de seguridad significativos.
“Quienes desarrollan los sistemas de IA”, observa Russell, “ni siquiera entienden cómo funcionan. Así que su 25% de probabilidad de extinción es solo una suposición improvisada. En realidad, no tienen ni idea ”.
Ni idea. Pero de todas formas están gastando un billón de dólares. Porque el imán es demasiado fuerte. Porque los incentivos son demasiado poderosos. Porque se han convencido de que alguien más resolverá el problema de seguridad. Con el tiempo. Probablemente. Quizás.
¿Y ahora qué?
Si todo va bien -si de alguna manera resolvemos el problema de control, si de alguna manera evitamos la extinción, si de alguna manera navegamos la transición hacia la inteligencia artificial general sin destruirnos- ¿qué sucederá entonces?
Russell ha planteado esta pregunta a investigadores de IA, economistas, escritores de ciencia ficción y futuristas. "Nadie ha sido capaz de describir ese mundo", admite. "No digo que no sea posible. Solo digo que se lo he preguntado a cientos de personas en múltiples talleres. Que yo sepa, no existe en la ciencia ficción".
Hay una serie de novelas, señala, donde coexisten humanos e IA superinteligentes: las novelas de cultura de Iain Banks. "Pero el problema es que en ese mundo todavía no hay nada que hacer. Encontrar un propósito".
Los únicos humanos con significado son el 0.01% en la frontera, expandiendo los límites de la civilización galáctica. Todos los demás intentan desesperadamente unirse a ese grupo "para tener un propósito en la vida " .
Este es el mejor escenario posible. La utopía hacia la que nos dirigimos es un crucero donde el entretenimiento nunca termina y el significado nunca llega.
Epstein ha muerto, o eso nos dicen. Pero su red sigue en pie. Sus colegas siguen construyéndola. Su visión de un mundo dividido entre los servidos y los sacrificados se está codificando en algoritmos ahora mismo.
La isla
Pero no necesitamos especular sobre qué sucede cuando la humanidad pierde su sentido. Ya lo hemos visto. Tenemos los recibos, los registros de vuelo, el testimonio de los sobrevivientes. Los hombres que lo tienen todo nos mostraron lo que hacen cuando nada está prohibido.
La isla de Jeffrey Epstein no fue una aberración. Fue un avance.
Aquí estaba un hombre conectado con la CIA, el Mossad y las más altas esferas del poder político estadounidense. Un hombre que, según correos electrónicos publicados recientemente, estimaba que el gobierno federal conocía a unos veinte de los niños que había traficado. Un hombre cuya agenda negra se leía como un quién es quién del poder global: presidentes, príncipes, multimillonarios tecnológicos, premios Nobel.
Los correos electrónicos revelan algo más que la mera criminalidad. Revelan una infraestructura. Epstein era, como documenta el investigador de medios Nolan Higdon, "alguien que podía encontrar información sucia sobre las personas y posiblemente destruir su imagen, y también alguien a quien se podía recurrir para proteger la imagen de las personas". Operaba en el nexo de las agencias de inteligencia, el poder financiero y el desarrollo tecnológico: asesoraba sobre software espía, negociaba acuerdos entre gobiernos y conectaba a los hombres que construirían el aparato de vigilancia que ahora nos apunta a todos.
Cuando la reportera de ABC, Amy Robach, tuvo pruebas de sus delitos sexuales, la cadena descartó la noticia. Cuando las acusadoras se presentaron, el New York Times desestimó sus acusaciones por infundadas. Cuando finalmente fue condenado, recibió una sentencia tan leve que se conoció como el "trato preferencial". Y cuando murió en una prisión federal en circunstancias tan sospechosas que CBS News desmintió todas las explicaciones oficiales (el piso equivocado en las imágenes publicadas, un fallo de la cámara que el fabricante afirma que es imposible), la investigación simplemente se detuvo.
La pregunta no es si Epstein estaba conectado con estas figuras poderosas. Los correos electrónicos lo han resuelto. La pregunta, como la plantea Higdon, es cómo "una persona podía tener tantos contactos en tantos asuntos". Y la respuesta que los medios se niegan a buscar es la obvia: no operaba solo. Era un nodo de una red, una red que incluía a las agencias de inteligencia que ahora se asocian con empresas de inteligencia artificial, a los multimillonarios que construyen nuestro futuro algorítmico, a los políticos que ahora se niegan a regularlo.
¿Qué hicieron estos hombres cuando acumularon más riqueza de la que podrían gastar en mil vidas? ¿Cuando moldearon gobiernos, lanzaron tecnologías y desviaron el curso de la historia a su antojo?
Visitaron la isla.
La película "Hostel" imaginaba a las élites adineradas pagando para torturar y matar a gente común por diversión. Los críticos la desestimaron como un exceso de película de terror. Pero la premisa -que el poder absoluto produce depravación absoluta, que los hombres que no desean nada eventualmente querrán lo prohibido- no era ficción. Era una profecía.
“¿Qué haces cuando tienes todo el dinero y el poder del mundo?”, pregunta Steve Grumbine, quien ha estudiado a fondo los archivos de Epstein. “Bueno, haces lo que quieres. El poder absoluto corrompe absolutamente”.
Los niños traficados a esa isla no eran un elemento secundario del sistema. Eran el sistema: la moneda de cambio, el mecanismo de control, la máxima expresión de lo que sucede cuando una clase de personas se cree dioses.
Como he escrito antes: hay una razón por la que los pedófilos resultan ser los capitalistas más exitosos.
Este es el futuro que construyen los aceleracionistas de la IA, lo sepan o no. Un mundo donde un puñado de hombres controlan tecnologías de un poder sin precedentes, sin rendir cuentas a nadie, sin restricciones, con todos sus apetitos satisfechos por máquinas que nunca se niegan ni informan. La isla de Epstein, a escala planetaria.
Epstein ha muerto, o eso nos dicen. Pero su red sigue en pie. Sus colegas siguen construyéndola. Su visión de un mundo dividido entre los servidos y los sacrificados se está codificando en algoritmos en este preciso momento.
Cuando Peter Thiel, otro conocido de Epstein y cofundador de Palantir, bautizó su empresa con el nombre de las piedras videntes de Tolkien, quizá no consideró todas las implicaciones de la referencia. En las novelas, las Palantir fueron corrompidas, utilizadas por Sauron para mostrar verdades parciales que llevaron a la desesperación y la dominación. Quienes las contemplaron vieron lo que el Señor Oscuro quería que vieran.
Ahora todos contemplamos las piedras. Y los hombres que controlan lo que vemos -en estos Palantiri algorítmicos- ya nos han mostrado, en una isla caribeña y entre los escombros de Gaza, exactamente lo que pretenden.
Parece algoritmos que toman decisiones cruciales con veinte segundos de supervisión humana. Parece la vigilancia predictiva en Florida, donde se cita a residentes por tener la hierba demasiado crecida porque el software los ha marcado como posibles delincuentes. Parece el vaciamiento de toda profesión, todo oficio, toda forma de contribución humana que pudiera darnos un propósito. Parece la violación incesante de niños palestinos en las oscuras cámaras de las mazmorras de las Fuerzas de Defensa de Israel.
Los facilitadores
La Dra. Karmi vuelve una y otra vez a una pregunta sencilla: ¿Por qué?
“¿Por qué un estado inventado, con una población inventada, se ha vuelto tan importante que no podemos vivir sin él? ”, pregunta refiriéndose a Israel. Pero la pregunta se aplica igualmente a Silicon Valley, a las plataformas tecnológicas, a todo el aparato de control algorítmico que ahora moldea nuestra política, nuestras percepciones, nuestras posibilidades.
La respuesta, sugiere, está en comprender los factores facilitadores.
"Creo que ahora es absolutamente crucial centrarse en los facilitadores”, argumenta. “Porque podríamos seguir dando ejemplos de la brutalidad israelí, de las atrocidades, de las crueldades. Para mí, ese no es el punto. La cuestión es ¿quién está permitiendo que esto suceda? ”
La misma pregunta debe plantearse con respecto a la IA. ¿Quién permite que esto suceda? ¿Quién financia a las empresas que reconocen un 25 % de probabilidad de extinción humana y continúan a pesar de ello? ¿Quién crea el vacío regulatorio en el que estas tecnologías se desarrollan sin control? ¿Quién amplifica las voces que piden aceleración mientras silencia a quienes piden cautela?
La respuesta es la misma clase de personas que han propiciado cada catástrofe de la era moderna: los acomodados, los sumisos, los comprometidos. Los políticos que aceptan los cheques de cincuenta mil millones de dólares. Los periodistas que amplifican las narrativas preferidas. Los ciudadanos que ignoran las advertencias porque están demasiado ocupados, demasiado distraídos, demasiado convencidos de que alguien más se encargará del asunto.
“Todas las encuestas realizadas indican que la mayoría de la gente, quizás el 80%, no quiere que haya máquinas superinteligentes”, señala Russell. “Pero no saben qué hacer”.
No saben qué hacer. Así que no hacen nada. Y las máquinas siguen aprendiendo. Y los algoritmos siguen cambiando. Y los multimillonarios siguen abusando. Y las bombas siguen cayendo. Y el futuro se estrecha y aparece cada vez más como inevitable.
La Resistencia
¿Qué hacer?
El consejo de Russell es casi pintoresco en su simplicidad: Habla con tu representante, tu diputado, tu congresista. Porque creo que los legisladores necesitan escuchar a la gente. Las únicas voces que escuchan ahora mismo son las de las empresas tecnológicas y sus cheques de cincuenta mil millones de dólares".
La Dra. Karmi ofrece algo similar: "Mi consejo es atacar las estructuras oficiales que sustentan a Israel. Deben entender que ser amables con los palestinos, enviar comida o lo que sea, está bien, pero no es el objetivo. Lo importante para quienes viven en democracias occidentales es que puedan expresar su opinión".
El contraargumento es obvio: estas estructuras están capturadas. Las plataformas que podrían amplificar nuestras voces están controladas por las mismas fuerzas a las que debemos resistir. Los políticos que podrían actuar están comprados. Los medios que podrían informar son cómplices.
Pero el contraargumento no da en el clavo. La cuestión no es que la resistencia triunfe. La cuestión es que la resistencia es lo único que podría triunfar.
“No sé qué hacer ”, admite Russell, “debido a este enorme imán que atrae a todos y a las enormes sumas de dinero que se invierten en ello. Pero estoy seguro de que si quieres tener un futuro y un mundo en el que quieras que vivan tus hijos, necesitas hacer oír tu voz ”.
¿Cómo se ve esto?
Parece negarse a usar plataformas diseñadas para adoctrinarnos. Parece exigir que nuestros representantes expliquen su postura sobre la seguridad de la IA. Parece apoyar a los denunciantes que revelan lo que hacen estas empresas. Parece construir estructuras alternativas que no dependan de la benevolencia de los multimillonarios.
Parece como si se negaran a ser gorilas.
La elección
La madre de Alex Karp dedicó su arte a documentar el sufrimiento de los niños negros asesinados en Atlanta. Su padre dedicó su carrera al cuidado de enfermos. Le enseñaron a marchar contra la injusticia.
Y construyó una máquina que decide, en veinte segundos, qué niños morirán cada día en Gaza.
Elon Musk afirma defender la libertad de expresión. Afirma temer la extinción de la humanidad. Afirma querer preservar la (in) civilización occidental.
Y utiliza su plataforma para amplificar las voces que piden limpieza étnica, para impulsar a los políticos que eliminarían las regulaciones que podrían evitar la catástrofe y para remodelar el entorno informativo de naciones enteras según sus preferencias.
Stuart Russell lleva cincuenta años dedicado a la inteligencia artificial. Podría jubilarse. Podría jugar al golf. Podría navegar.
Y en lugar de eso, trabaja ochenta horas a la semana, tratando de desviar a la humanidad de un camino que, según él, conduce a la extinción.
Estas son las decisiones que importan. No los debates abstractos sobre tecnología, sino las decisiones concretas sobre qué hacemos con nuestra única vida, nuestro único momento de influencia, nuestra única oportunidad de moldear el futuro.
“No hay mayor motivación que esta”, dice Russell con sencillez. “No solo es lo correcto, sino que es absolutamente esencial ”.
Los gorilas no pudieron elegir su destino. Fueron superados por una especie más inteligente que ellos, y ahora su supervivencia depende enteramente de si esa especie decide permitirlo.
Aún tenemos una opción. Las máquinas aún no son más inteligentes que nosotros. Los algoritmos aún no tienen el control total. Los multimillonarios aún no son omnipotentes.
Pero la ventana se está cerrando. El horizonte de sucesos podría haber quedado atrás. Y los hombres que controlan las tecnologías más poderosas de la historia de la humanidad han dejado sus valores muy claros.
Priorizarán el lucro por encima de la seguridad. Intensificarán el odio por encima de la tolerancia. Preferirán la violación por encima del romance. Permitirán el genocidio si los márgenes son favorables. Se arriesgarán a la extinción si las ventajas son suficientes.
Esto no es especulación. Esto es lo que consta. Esto es lo que están haciendo ahora mismo, a plena vista.
La pregunta no es si comprendemos el peligro. La pregunta es qué haremos al respecto.
Entre los escombros de Gaza, los sistemas de IA están aprendiendo. Están aprendiendo que la vida humana puede procesarse en veinte segundos. Están aprendiendo que algunas personas merecen bombas costosas y otras no. Están aprendiendo que la comunidad internacional observará y no hará nada.
Lo que aprenden allí lo aplicarán con el tiempo en todas partes.
Esto no es una advertencia sobre el futuro. Es una descripción del presente. El futuro es simplemente el presente, continuado, peor.
A menos que lo detengamos.
A menos que elijamos algo diferente.
A menos que nos neguemos a convertirnos en gorilas.
(Fuente: https://bettbeat.substack.com/; visto en https://www.verdadypaciencia.com/)

_a%20-%20copia_6.jpg)
_a%20-%20copia_6.png)
_a%20-%20copia_6.jpg)
_a%20-%20copia_6.png)

_a%20-%20copia_6.jpg)

La crítica de Stuart Russell sobre los riesgos existenciales de la IA se fundamenta en una premisa errónea: la antropomorfización de la tecnología. Al atribuirle conciencia, deseos o intencionalidad, se ignora por completo la naturaleza real de los sistemas actuales de lenguaje.
ResponderEliminarLa llamada "inteligencia" artificial no es inteligencia, sino un elaborado mecanismo estadístico. Su capacidad se limita a reconocer y replicar patrones a partir de inmensos volúmenes de datos con los que ha sido entrenada. Por eso, un modelo puede revisar miles de líneas de código Python con éxito, pero fracasar estrepitosamente ante cien líneas de un lenguaje como el BASIC del ZX Spectrum +2, para el cual tiene pocos datos de entrenamiento. Un programador humano, en cambio, puede razonar los principios lógicos subyacentes y resolverlo sin haber visto antes ese dialecto específico. Esto evidencia que la IA no comprende nada; es un "papagayo estadístico" que acierta donde los datos son abundantes y falla donde no lo son.
El verdadero peligro de centrar el debate en escenarios especulativos de superinteligencia es que desvía la atención y los recursos de los riesgos reales e inmediatos que ya estamos sufriendo. Problemas como los sesgos algorítmicos que perpetúan discriminaciones, el impacto económico de la automatización descontrolada, y los graves efectos psicológicos de la desinformación masiva y la manipulación en redes sociales requieren una regulación urgente y concreta.
Hablar de una supuesta "rebelión de las máquinas" es desviar la atención respecto a los daños tangibles que los modelos de lenguaje están causando hoy en nuestra sociedad.
En el fondo es la misma jugada que durante la pandemia: atribuir a las vacunas efectos apocalípticos (que todavía estamos esperando a que se produzcan) para desviar la atención sobre el verdadero objetivo: control social y estafa económica masiva.
De acuerdo respecto a los los límites actuales de la IA y los riesgos inmediatos. Ahora bien, reconocer las limitaciones de los modelos de lenguaje actuales no invalida la preocupación a largo plazo. El hecho de que hoy fallen con el BASIC del +2 (totalmente cierto y que no deja de tener un punto cómico, teniendo en cuenta que muchos fuimos capaces de aprender ese lenguaje cuando teníamos 15 años) no implica que siempre vayan a hacerlo, incluso sin entrenamiento de datos previo: ya hay modelos (como DeepSeek) que están operando con algoritmos de razonamiento simbólico a través de árboles de decisiones, algo que, aunque todavía está lejos del "autoaprendizaje", en el futuro podría apuntar a modelos con una mayor capacidad de planificación y ejecución autónoma.
EliminarDices que preocuparse por riesgos a largo plazo resta importancia a los problemas actuales, como si Russell fuera una especie de quintacolumnista. Esto es profundamente injusto: ambos riesgos (actuales y futuros) son reales y serios. Cuando Russell habla de riesgos existenciales no se refiere a un escenario tipo Terminator, sino a vulnerabilidades estructurales: sistemas autónomos interconectados que, ante un fallo o un objetivo mal especificado, podrían colapsar infraestructuras críticas.
Las advertencias de Russell no se deben a que atribuya inteligencia humana a las máquinas, sino a que reconoce que estas herramientas, incluso sin comprensión real, podrían generar consecuencias catastróficas a medio y largo plazo. Algo que ya estamos viendo (y en esto tu crítica es certera y necesaria) en los modelos actuales, que provocan adicción en el usuario a costa de la polarización social o la salud mental.
Estamos de acuerdo, quizás fui demasiado duro con Russell, he leído algunos de sus artículo y tienes razón, su postura es totalmente correcta. Lo juzgué exclusivamente por el tono algo sensacionalista del artículo.
EliminarLa IA es un instrumento de poder potencialmente incontrolable y está en manos de las personas menos aptas y más peligrosas para poseerlo, impulsadas por una lógica económica caníbal.
ResponderEliminarLo que viene a decir Russell es que, incluso si estas personas fueran santos, es una tecnología tan difícil de controlar que probablemente acabe por destruirnos.
Y digo yo: igual la ia sería menos potencialmente peligrosa sin los aparatitos que han hecho posible su aparición y hacen posible su aplicación , o sea móviles, PCes y demás basura digital y que nos han sido impuestos a base de violencia y terror y pese a nuestra heroica resistencia. Igual un acto de resistencia sería tirarlos a la basura- en puntos limpios eso sí- ; quemarlos no porque sería un riesgo para el planeta .O quizás estas opciones serían como tirar nuestras vidas a la basura ?Si es así, entonces qué más nos da que la ia sea peligrosa o no. Actualmente, reconozco que deshacerse de ellos es una opción casi heroica
ResponderEliminarRicardo Sevillano, en su programa de " la quinta columna", habla de que para el 12 de Agosto 2026, va a haber un apagón eléctrico provócado, coincidente con un eclipse En este día, se producirá un anclaje por qué se emite una senal de 26 GHz, en la banda K; y el grafeno se autoensambla( tienen que hacerlo el día de eclipse por que se reduce el ruido ambiente). Habrá convulsiones y la gente se comportará de forma extra a ( como zombies) . El otro día de oscuridad, será el 12/08/2027, Se producirá la 2° fase, " la carga", y el tercer día de la oscuridad, será en Enero del, que habrá un tercer apagón donde tendrá lugar la tercera fase, donde tomarán el control delos cuerpos humanos que fueron híbrida dos con el grafeno que contenía las vacunas Covid19 Dice que la singularidad, se producirá cuando las personas híbrida das con la tecnología de grafeno, controlada remotamente con IA, superará a los no hibridadas. https://www.instagram.com/reel/DTN6BoFDQbH/
ResponderEliminarYo no lo entiendo, ni me lo termino de creer, pues mezcla cosas científicas, con profesias, habla de los arcontes y demás pajas mentales. Aunque quizás, pueda haber algo de verdad en el fondo, parece un mensaje tremendista como los del blog de eladiofernandez. WordPress. com