A principios de febrero Elon Musk cambió por completo el objetivo existencial de SpaceX y decidió que Marte ya no era una prioridad. En su lugar, la Luna pasa a ser el centro de todas las actividades de SpaceX. Bueno, el centro, no. Coincidiendo con el anuncio del abandono —los optimistas dirán retraso— del sueño de la colonización de Marte, Musk comunicó que el siguiente gran propósito de SpaceX sería lanzar una constelación de un millón de satélites. Y no unos satélites cualquiera: centros de datos dedicados a la Inteligencia Artificial.

La idea de lanzar centros de datos al espacio no es nueva y mucho menos son Musk o SpaceX los primeros en plantearla. En septiembre de 2024 la empresa Starcloud hizo públicos sus planes de poner en órbita centros de datos y el 2 de noviembre de 2025 lanzó el Starcloud 1 a bordo de un Falcon 9, un pequeño satélite de 60 kg con una GPU Nvidia H100. En febrero de este año la empresa solicitó a la FCC permiso para desplegar una megaconstelación de 88 000 satélites. Pero Starcloud es solo un actor menor en este asunto. Google, a través de su matriz Alphabet, anunció en noviembre de 2025 su plan para lanzar miles de centros de datos dentro del marco del Proyecto Suncatcher. Aunque no se han dado detalles técnicos, según Google se necesitarían unos 180 lanzamientos al año del sistema Starship para desplegar la constelación.

Para que los centros de datos espaciales sean rentables con respecto a los terrestres, Google calcula que es necesario que el coste de lanzamiento sea inferior a 200 dólares por kilogramo, algo que podría ocurrir alrededor de 2035 si —y es un gran si— la Starship cumple con sus promesas. En la presentación de Suncatcher, Google mostró como ejemplo un conjunto de 81 satélites en órbita polar heliosíncrona (SSO) —donde la insolación solar es constante al no pasar nunca por la sombra de la Tierra— conectados mediante enlaces láser y separados entre sí por distancias de 100 a 200 metros. La constelación definitiva estaría formada por un número indeterminado de estos grupos de satélites. El objetivo es alcanzar velocidades de transmisión a la Tierra de varios terabits por segundo (Tbps), necesarias para que el concepto sea útil de cara a computación en tiempo real, lo que supone más de un orden de magnitud por encima de las velocidades de 100 Gbps que ofrece Starlink.

Amazon anunció a finales de enero su megaconstelación TeraWave, formada por 5280 satélites en órbita baja (LEO) y unos 128 satélites en órbitas medias (MEO). Los satélites en LEO se comunicarán mediante bandas Q y V, unas frecuencias muy altas que conllevan toda una serie de desafíos técnicos. A su vez, se comunicarán con los satélites en MEO mediante láseres y estos últimos transmitirán datos a la Tierra también usando láseres, permitiendo velocidades de hasta 6 Tbps. En principio, TeraWave no estará formada por centros de datos en el espacio, sino que se dedicará a conectar clientes con necesidades de gran ancho de banda, incluyendo, precisamente, empresas de centros de datos terrestres como la propia AWS de Amazon. No obstante, Jeff Bezos ha hablado en repetidas ocasiones de la viabilidad de colocar centros de datos en el espacio, aunque siempre a varias décadas vista, así que TeraWave podría terminar por incorporar alguna capacidad para procesar datos. Por su parte, varias empresas chinas han solicitado a la ITU (International Telecommunication Union) permisos para desplegar 14 megaconstelaciones con un total de 203 000 satélites (!!!). De estas catorce constelaciones, las CTC-1 y CTC-2 estarían formadas por 96 714 satélites cada una. Pese a que el objetivo principal de estas constelaciones son las comunicaciones, varias compañías chinas han declarado su intención de lanzar centros de datos a la órbita baja. Eso sí, no hay por el momento proyectos sólidos detrás (conviene apuntar que estas peticiones a la ITU siempre son al alza, pero no necesariamente se tienen que convertir en proyectos finales).

Pero, ¿a qué se debe esta fiebre por los centros de datos espaciales? Y, sobre todo, ¿tiene base alguna? Evidentemente, el origen de esta nueva carrera espacial tiene que ver con la actual economía de la IA, que, burbuja o no, mueve buena parte del actual crecimiento económico, sobre todo en Estados Unidos. Como es sabido, los centros de datos terrestres necesitan mucha energía. Mucha. ¿Y qué hay en el espacio? Pues energía solar a raudales. O sea, energía gratis. Es el acceso a esta fuente de energía gratuita lo que hace atractivo situar centros de datos en órbita. Al menos sobre el papel.
Lo malo es que existen muchos problemas para hacer de este concepto una realidad, o, como mínimo, una realidad rentable. El más obvio es la refrigeración. Los centros de datos generan mucho calor. Y el vacío del espacio es un aislante casi perfecto. Dotar al satélite de complejos sistemas de refrigeración líquida con grandes radiadores desplegables hace que la vida útil del mismo caiga en picado, mientras que la masa y, por tanto, el coste de cada unidad, se dispare. Otros problemas son el precio de colocar toneladas de ordenadores en órbita, la limitada capacidad de cálculo de cada centro de datos espacial, el impacto de la radiación en los circuitos integrados, la obvia dificultad de llevar a cabo tareas de mantenimiento o reparaciones y las comunicaciones con la Tierra.

Lanzar el equivalente a un gran centro de datos terrestre al espacio no se plantea simplemente por su enorme masa, así que todos los proyectos se basan en dividir la capacidad de cálculo en muchos satélites más pequeños. La estructura precisa de cada constelación es muy variable y nadie tiene claro cuál será el modelo ganador, pero se han propuesto desde grandes redes de satélites pequeños con unos pocos microprocesadores cada uno a un número menor de satélites más grandes con mayor capacidad. La propuesta Suncatcher de Google está, como hemos visto, en un punto intermedio, con grupos de decenas de satélites trabajando conjuntamente para formar el equivalente a un centro de datos terrestre capaz de transmitir datos a velocidades de terabits por segundo. Y es que la velocidad de cálculo y transmisión de datos —tokens— es el segundo factor a tener en cuenta después de la potencia eléctrica conjunta.
La mayor parte de los inconvenientes de los centros de datos espaciales están interconectados, así que la gran apuesta de Elon Musk es aprovechar la ventaja que le otorga SpaceX para superarlos. Por ejemplo, la limitada capacidad de cálculo de un solo satélite que sirva de centro de datos se puede compensar lanzando un número enorme de ellos, algo «fácil» para SpaceX, como ha demostrado con Starlink, y que será todavía más fácil una vez la Starship esté en servicio. Evidentemente, ser el dueño del sistema de lanzamiento de tus propios centros de datos es una gran ventaja. Por otro lado, gracias a Starlink, SpaceX sabe cómo construir miles de satélites en serie conectados por láseres y también ha adquirido una valiosa experiencia en gestionar un sistema de comunicaciones de alcance global.

SpaceX quiere que el sistema Starship tenga una cadencia de lanzamiento de horas o minutos en vez de días o semanas. Si lo logra, el objetivo es colocar un millón de toneladas de carga útil en órbita al año. Pero, ¿cuál puede ser esa carga? El gran éxito económico y tecnológico del Falcon 9 no ha evitado que dos terceras partes de sus misiones estén dedicadas a lanzar satélites Starlink. La Starship podrá lanzar el número actual de satélites Starlink —de los que ya hay casi diez mil en órbita— con menos de 25 misiones al año, un número insuficiente para «justificar» la cadencia de este sistema. En este contexto, lanzar miles, decenas de miles o cientos de miles de satélites es, siempre en teoría, una buena manera de rentabilizar esta capacidad. Ahora bien, no son necesarios tantos satélites para un negocio de comunicaciones como Starlink, pero si hablamos de centros de datos, cuantos más, mejor. Si además, de esta forma, Musk salva a la empresa xAI de una caída en desgracia, pues miel sobre hojuelas.
En cuanto a la parte de disipación del calor, la idea es que los satélites de SpaceX sean relativamente pequeños, más o menos del orden de magnitud de un Starlink v3, por lo que no llevarán un gran número de GPUs y, por ende, no se generará tanto calor. No obstante, este es actualmente uno de los principales escollos a los que se enfrenta el concepto de centros de datos espaciales y no es casualidad que Musk haya minimizado su importancia apelando a una futura mejora en la eficiencia de los chips de las GPUs que puede que se haga realidad… o puede que no (spoiler: la termodinámica es implacable). El proyecto Suncatchet de Google propone de forma muy genérica, pero realista, usar sistemas de refrigeración tradicionales con radiadores y fluidos, lo que permite concentrar más GPUs, pero, a cambio, genera, como ya hemos comentado, un importante impacto en la masa y vida útil de los satélites.

Pese a todo, lanzar un millón de satélites en órbita, con un gran número de ellos en órbita heliosíncrona (SSO) para garantizar una iluminación constante, es un desafío tan gigantesco que Musk quiere abaratar los costes de fabricación de los centros de datos usando el regolito lunar. O sea, el aluminio para la estructura del satélite y el silicio de los paneles solares se extraería del suelo de la Luna —que es abundante en estos elementos—, mientras que las GPUs, la aviónica y otros elementos habría que enviarlos desde la Tierra. Luego, los satélites se lanzarían mediante un acelerador de masa lineal (mass driver), básicamente un carril de imanes superconductores situado en la superficie lunar que permite acelerar cargas hasta la velocidad de escape lunar (2,4 km/s) o más allá, aprovechando la ausencia de atmósfera de nuestro satélite. Musk quiere lanzar cada año satélites ensamblados en la Luna que generen en conjunto más de mil teravatios de energía. Situar estos satélites lunares en una órbita terrestre SSO sería muy complicado, por lo que probablemente quedarían colocados en órbita solar —Musk habla de «espacio profundo»—. Esto comprometería seriamente su latencia, por lo que se tendrían que dedicar a tareas donde la rapidez en la transmisión de datos no fuera tan importante.

El concepto de acelerador de masas fue popularizado por Gerard K. O’Neill en los años 70 para extraer materias primas de la Luna con las que construir enormes colonias orbitales en los puntos de Lagrange L4 y L5 del sistema Tierra-Luna. Ahora no se usarían para lanzar materias primas, sino satélites ya construidos. En este sentido, Musk no ha explicado cómo sobrevivirán los satélites a las tremendas aceleraciones de un acelerador de este tipo, que pueden alcanzar las 200 g, así que no sería de extrañar que el montaje final de las partes delicadas (GPUs y aviónica) de los satélites deba tener lugar en órbita lunar. Musk tampoco ha dado detalles técnicos de ningún tipo sobre la constelación de un millón de centros de datos, por lo que es posible que primero se quieran lanzar unos cuantos miles o decenas de miles usando el sistema Starship y para alcanzar la cifra final de un millón se requieran las fábricas en la Luna. De paso, así se consigue justificar el cambio de prioridades de la Luna a Marte.

El nuevo plan de SpaceX es una gran huida hacia adelante que depende de que salgan bien muchas cosas, empezando por la fiabilidad y la cadencia de vuelos de la Starship. Ni que decir tiene, la parte del plan con aceleradores de masa y fábricas en la Luna es, en estos momentos, simple ciencia ficción. Ahora bien, Musk no está solo en esta cruzada y, como se ha visto, son varias las empresas interesadas en el concepto. La clave de la viabilidad futura de los centros de datos en órbita es, por un lado, superar los desafíos técnicos impuestos por la termodinámica, que están lejos de estar resueltos, y abaratar drástica y radicalmente el coste de lanzamiento por kilogramo de tal forma que puedan competir con los centros de datos terrestres, que, por muy caros que sean, siguen siendo infinitamente más baratos y eficientes. Y aquí hablamos de alcanzar costes de unos pocos cientos de dólares el kilogramo, una reducción de uno o dos órdenes de magnitud con respecto a las cifras actuales, nada más y nada menos. El último factor y el más importante, claro está, es si la economía de la IA seguirá creciendo o reventará en una espectacular burbuja.

Por último, no podemos obviar el impacto que supondría a todos los niveles colocar cientos de miles de satélites en órbita. Si ya tenemos un grave problema de saturación de la órbita baja con las megaconstelaciones actuales, semejante cantidad de satélites nos pondría en rumbo de colisión hacia un síndrome de Kessler acelerado (y eso sin mencionar otros problemas como la contaminación de la atmósfera superior debido a las reentradas). Pero, como el que no se contenta es porque no quiere, siempre podemos ver el lado positivo, y es que el impacto medioambiental de los centros de datos será menor en el espacio que en la Tierra.
Actualización 20 de marzo: como era de esperar, Blue Origin se suma a la fiebre de los centros de datos en el espacio y el 19 de marzo lanzó el Proyecto Sunrise. No se han dado más detalles de los satélites.
Referencias:
- https://research.google/blog/exploring-a-space-based-scalable-ai-infrastructure-system-design/
- https://arxiv.org/pdf/2511.19468
- https://a4e.org/protecting-planet-earths-skies-a4es-statement-on-proposed-large-satellite-constellations/


A lo mejor tantos satélites oscurecen un poco el sol y ralentizamos el cambio climático en la Tierra…
Eh, poca coña. 1 millón de satélites, pongamos que la mitad está entre el sol y la Tierra (el resto está al otro lado del planeta, o en órbitas o momentos orbitales cuyas sombras no interceptan la atmósfera densa de la Tierra), con un tamaño de, digamos unos (me lo invento) 10-15 metros cuadrados…
Habría que calcular la disminución de insolación, pero creo que podría llegar a ser incluso perceptible (por instrumentos, no por el ojo humano).
Precisament van a estar en órbita polar. Lo que si es cierto que la tecnología base se podría utilizar para mandar flotillas de satélites a montar algo de sombra. Pero no se si la mecánica orbital ayuda ni cuanto haría falta.
No sé yo si caben físicamente (con sus distancias de seguridad y tal) 1 millón de satélites (¡cuidado con la fumada, jajaja!) en órbita polar sin interferir con las otras órbitas LEO…
Entiendo que en órbita polar serían ciertas partes de la constelación, o constelaciones específicas… pero el grueso de satélites estarían en diversos planos e inclinaciones LEO convencionales (como Starlink).
Pensaba más bien en gupos de satélites en puntos de lagrange tierra sol. Ya miraré, porque no somos los únicos con esta idea.
Mu grande tiene que ser la sombrilla para que llegue la sombra hasta la Tierra desde L1 Tierra Sol.
Naaa, aparentemente solo del tamaño de Mexico 😛
– Pero como comentaba más abajo, igual para hacer sombra a una ciudad durante una ola de calor, algo más pequeño puede ayudar.
¿Te refieres a SSO? No me he mirado mucho el tema, pero creo que Scott Manley decia que serían solo una parte en SSO y el resto en órbita baja.
En cualquier caso es una broma. Aún suponiendo 1 millón de starling V3 em órbita baja estarían muy lejos de ocultar un 0.1% del sol.
Algo así me imaginaba. El espacio es jodidamente grande, jajaja.
Creo que es mejor no tocar en lo más minimo la interacción Tierra – Sol porqué basicamente, bueno, casi todo el ecosistema terrestre se ha dispuesto para con la evolución de esta interacción a lo largo de miles de millones de años.
Ya entiendo que tu mensaje tiene cierta condescendencia pero estoy seguro que más de uno se le podría pasar la idea por la cabeza y me parece horrible a todos los niveles posibles.
Para poder jugar con la dinámica de iluminación del Sol para nuestro beneficio, antes tendríamos que entender como funciona toda la dinámica terrestre y poder simular con exactitud como vamos a hacer que este impacto sea exacto y beneficioso. Es decir, ser una civilización de Tipo 1 en la escala de Kardashov. Y no 1 principiante, sinó una de Tipo 1 ya con cierto recorrido. Aún nos quedan por lo menos 100 o más años para esto.
Vaya, mi intención era ser sarcástico, no condescendiente.
Sin dejar de estar de acuerdo contigo, Jackues, también ten en cuenta que esa interacción no es ni lineal, ni constante: hay ciclos solares, hay supererupciones en la Tierra, hay ciclos de Milanckovicht, hay cambios en la química atmosférica, incluso en la biosfera y los mares…
Vamos, que no será la primera, ni la centésima, ni la última vez que habrá cambios en esa interacción Sol-Tierra (por no hablar de otras extrasolares, como supernovas y demás), así que no sé hasta qué punto podríamos interferir en ello de verdad (incluso hablando a nivel ingeniería) o hasta qué punto podríamos desestabilizar sin que la Tierra se sacase «de la manga» una contrapartida.
Por poner un ejemplo: la mayoría de la gente entiende el Cambio Climático como llevar a la Tierra camino de convertirse en Venus… cuando una gran probabilidad es causar una gran glaciación: más calor = más evaporación de agua = más vapor de agua en forma de nubes y cristales de hielo en altitud = aumento de albedo = caída de temperaturas.
El punto en cuestion es Langrange Tierra Sol a 1.5M de km de la Tierra.
Podrías hacer cosas más locales como dar sombra a una ciudad durante un episodio veraniego o proteger a un glaciar en verano.
Tendría que ser una constelación gigantesca para eso, desde esa distancia.
No creo que geométricamente sea posible eso.
Bueno, si en el futuro se le da recorrido a la idea de poner granjas solares en orbita, igual es algo a tener en cuenta debido al tamaño que tendrían los paneles, pero claro todo dependería de numero y tamaño, pero fisicamente es perfectamente posible bloquear la luz del sol. De hecho también hay proyectos de justo lo contrario, poner enormes espejos en orbita para dirigir la luz del sol a zonas donde escasea, pero bueno era un ejercicio teórico porque me suena que tiene muchos años esa idea, pero no seria la primera vez que algo ideado cuando la tecnología no daba se implemente cuando la tecnología si lo permite.
En general, este tipo de proyectos grandilocuentes en escalada, son muy parecidos a las prácticas de bancos que están por fundirse:
Te ofrecen el oro y el moro de intereses, que detenidamente vistos, son imposibles, pero……siempre habrá incautos que caigan pensando que hacen el gran negocio, dado que el banco a su vez, declama que reflotará maravillosamente.
Hasta que viene el cierre bancario a las semanas, y nuevamente como en tantos países, innúmeros damnificados terminan frente a las puertas de las sucursales bancarias que se autodesbaligaron, reclamando a voz en cuello, que los han robado….
Cofre fort piramidal
Primero, dejan abandonadas las muestras en Marte, para otro día lejano.
Segundo, ahora no es Marte, es la Luna, por que dicen, los Chinos se les vienen encima.
Mientras no se sabe como emparchar hacia la Luna, la salen a por GPUs orbitales.
Escalonan reiteradamente la apuesta, cual negocio piramidal.
Resumiendo: te harán mirar al firmamento para que imagines GPUs voladoras, mientras meten mano en tus bolsillos.
Bursátil orbital
Encima, se metieron otra vez con Irán, y éste, les está haciendo un despatarre sobre sus bases militares, bombardeo de centros financieros, logísticos, centros militares de vigilancia, y rutas de la energía, o sea, disparándole a los Goliat en sus pies.
¿Y las bolsas de valores? cada vez más lejos de Marte, la Luna, las muestras y la energía.
Wow, esos power point estan potentes…..
Wow, esos power point estan potentes….
Esos proyectos de hoy dia….ufff, cualquier ingeniero serio los ve y se dirá a si mismo que estos tipos si están locos, los retos de ingeniería que hay que resolver son increíbles, si es que pueden resolverse con la ingeniería de hoy.
Perdon pero ya hay suficientes problemas en tierra como para hacer caso a las alucinaciones y delirios de esta elite tecnocratica, con el problema del estrecho de ormuz ya tenemos buen lío para un tiempo(el único comentario que voy hacer sobre irán, este es un blog de astronautica)
Cualquiera con sentido comun y un poco de experiencia termodinamica y que tenga una pc, puede pensar y preguntar, como enfrías una GPU en el espacio?, si haces los chips mas simples, de tal modo que no necesiten tanta refrigeración o no la necesiten en absoluto (compare un arduino con una rtx 5090), entonces estas expandiendo el volumen de satélites necesarios, los desafíos logísticos que eso implica, el desarrollo de las comunicaciones entre satélites, wow….. en fin, buena entrada daniel
Construir chips más avanzados que los actuales requiere una maquinaria y recursos que llevarlos a la luna no veo cómo se podría hacer. No lo veo ninguna posibilidad al plan. Pero yo no entiendo de esto.
Uno podría pensar que Musk está loco. Luego vienen los chinos y dicen que harán lo mismo 203.000 veces.
Una de las cosas que tengo mucha curiosidad por saber es cómo resolverá el problema del agua:
— ChatGPT — ¿Cuánta agua se necesita para fabricar un chip H100?
La fabricación de un chip de alto rendimiento como el NVIDIA H100 es uno de los procesos industriales más intensivos en consumo de agua que existen. El dato no se suele dar por «unidad» individual, sino por oblea de silicio (wafer), pero las estimaciones actuales para este tipo de semiconductores son sorprendentes.
Aquí tienes el desglose de lo que «bebe» un H100 antes de llegar a un centro de datos:
1. El consumo por chip individual
Según diversos estudios de sostenibilidad y datos de la industria (como los de la OCDE y analistas de S&P Global), se estima que:
Un solo chip de IA avanzado requiere aproximadamente 8,328 litros (2,200 galones) de Agua Ultrapura (UPW) para su fabricación.
Si consideramos el agua municipal necesaria para generar esa agua ultrapura (ya que el proceso de filtrado pierde mucha), la cifra asciende a unos 11,000 – 13,000 litros por cada unidad.
Para visualizarlo: Fabricar un solo H100 consume el agua equivalente a lo que una persona promedio en España bebería a lo largo de 15 años.
[… Lo he recortado]
Me refiero a lo de construir chips avanzados en la luna y el agua que consumiría.
Entiendo que los chinos no quieren fabricarlos en la luna, pero el mero hecho de plantear lanzarlos a órbita, me parece una locura.
Policarpo, es una idea generalizada lo del consumo de agua.
Lo que se consume es agua potable, que luego se vierte, vuelve al sistema hidrológico, se depura y vuelve aser potable.
Pues entonces me parece que cuando se habla del agua que consume es llorar por llorar si se filtra y vuelve a usar.
Supongo que eres consciente de que ese agua se reutiliza una y otra vez tras ser depurada, ¿verdad?
Por cierto, hablar de lo que «una persona bebería» es absurdo: El grueso del agua que una persona consume en total en España frente a lo que bebe es abrumador. Es como de 100 a 1 o así.
Sorprendente cómo defendéis el uso privado de recursos naturales vitales para cualquier comunidad humana como si tuviéseis algún interés en ello. «El agua se reutiliza una y otra vez tras ser depurada» es tan genérico que ni tiene sentido. Si necesita depurarse es porque se contamina en el proceso industrial, y depurarla tiene un coste, un coste que increiblemente a menudo las empresas no asumen, incluso en la muy regulada y normativizada Europa, no digamos ya en USA, donde estas cosas son basicamente el salvaje oeste y la ley del más fuerte, y mucho más a partir de ahora con una administración a favor de llenarlo todo de mierda con tal de que las grandes empresas paguen menos. Resultado: el agua no se depura en un montón de ocasiones y se vierte contaminada. Si se cuenta con la suerte de que el agua se depura (no que se potabilice), el agua debe volver al circuíto hidrológico. Esa agua no vuelve al circuíto de consumo humano. Y el circuíto hidrológico es muy complejo, no es esa cosa simplificada que te enseñan en primaria: el agua depurada que una industria vierte volverá a algún lugar, claro, seguramente en forma no potable, por lo que sigue necesitando tratamiento, eso contando con que no llegue horriblemente contaminada en alguno de los múltiples puntos del circuíto donde se acumulan contaminantes, contaminantes que no dejan de llegar al circuíto hidrológico. En resumen: el agua potable que consume la industria se pierde de facto para consumo humano. Da igual la proporción de lo que se consume a lo que se bebe o cómo se quiera presentar: el resultado neto es menos agua disponible para las poblaciones humanas. Y ni siquiera hemos metido en la ecuación la disponibilidad de agua en las zonas de las fábricas o el impacto en los ecosistemas. Y ni siquiera estamos hablando del problemón que suponen cosas como los centros de datos, que literalmente dejan casi sin agua a los sitios donde están implantados o encarecen la factura de manera absurda.
¿He defendido y a alguien en mi respuesta? Yo sólo he expuesto hechos.
Dices que el agua que consume la industria se pierde para consumo humano.
Increíble, que barbaridad!
No. No era consciente. He leído muchas quejas en las noticias de la mucha agua que consume fabricar un chip. Si esa agua era la misma una y otra vez, lo desconocía y hace que las noticias me parezcan menos relevantes.
La comparación de lo que una persona bebería, puede ser absurda sí. Quería trasladar directamente lo que me soltó chatGPT.
Ja, ja, me temo que chatGPT está un poquillo escorado… 😅
https://www.youtube.com/shorts/AsMXAdz3u2U
«Supongo que eres consciente de que ese agua se reutiliza una y otra vez tras ser depurada, ¿verdad?»
Falso. La refrigeración a gran escala no es nunca un único circuito donde pasa agua, se lleva el calor, vuelve al ambiente y ya; el sistema es mucho, pero mucho, más complicado. La mayor parte del agua utilizada para refrigerar centros de datos (o cualquier otra cosa grande) se evapora y va a la atmósfera, perdiéndose, que es en la transición de fase donde el efecto de refrigeración resulta más efectivo. Justamente por eso los centros de datos van a lugares secos y no donde la humedad ambiente sea alta: es para facilitar la evaporación. El problema, claro está, es que esos lugares también suelen tener problemas hídricos que ponen a las comunidades de la zona a riesgo. Además, recuerda que «depurar» (como así también «reciclar») tiene su propio costo energético y por lo tanto impacto ambiental, y que los residuos de esa depuración/reciclaje también necesitan ser gestionados, y etc.
En resumen, la situación no es tan simple, ni para un lado ni para el otro, pero claramente no es buena.
Dices que el agua que se evapora va a la atmósfera y se pierde.
Qué barbaridad!
A ver, Poli, no están hablando de FABRICAR los chips en la Luna (lo que es inviable por bastante tiempo, porque no creo que esas máquinas que los fabrican, ultraprecisas y delicadas (y masivas) soporten un lanzamiento espacial), sino de fabricar LOS SATÉLITES y añadirles los chips enviados desde la Tierra.
Enviar los chips no tiene el menor misterio, porque a todos los efectos, son unidades sólidas, sin ninguna parte móvil, encapsuladas en un compuesto cerámico o metálico de notable resistencia. Las fuerzas de un lanzamiento son irrelevantes para esos objetos pequeños, compactos y sólidos.
Otra cosa muy distinta es la radiación y los extremos térmicos. Pero por lanzarlos, es como lanzar trozos de cerámica.
¿Y como acoplas miles, decenas de miles de estos satélites con sus chips en el espacio?
Muy complicado todo este sci-fi dream…
Erick, esta fumada se basa en que se fabricarían los satélites EN LA LUNA, con recursos in situ, excepto las partes tecnológicas avanzadas (chips) que se envían de la Tierra.
Esos satélites se montarían en Luna ANTES de lanzarse al espacio… y, por acoplar esos chips… a ver, que no es neurocirugía, que se monta el chip (toda la placa informática, de hecho) dentro de una carcasa protectora con conectores, se atornilla, conecta, y Santas Pascuas.
Dentro de la fumada, NO ES ESO lo difícil. Porque, claro, dejamos de lado la INDUSTRIA PESADA necesaria para EXTRAER y PROCESAR in situ TONELADAS de alumnio y silicio, de MILES de toneladas de regolito y roca lunar, dejamos de lado construir el impulsor de masa TAMBIÉN (obvio) con material lunar mayormente, base, tripulación, ingenieros, maquinaria de montaje, operarios (no todo se puede hacer con robots), mantenimiento…
Náh, minucias, detallitos, futesas…
En toda esta parida, precisamente lo más fácil es montar los chips en los satélites, jajajaja.
Ja, ja, ja 👍. Y ni hablar el problema del congestionamiento de tránsito de satélites y centros de datos entre tantas Agencias y empresas privadas que va a haber en el Espacio…, si ya me imagino que hasta semáforos van a tener que poner…
Como decía el chiste del que iba manejando escuchando en la radio que alguien iba en contramano y mientras escuchaba decía: ¡que uno!?, ¡pues son miles los que vienen en contramano!
Y sí, algún choque además de todos los otros pequeños problemitas, va a haber…
Lo del agua y los microchips es una de las muestras máximas de buscar un problema para poder llorar un día más. Pongamos que se «gastan» 10.000 litros por cada H100 que vale unos 20.000€. Sale a unos 50cent por €. Ahora echa cuentas del agua que se gasta por cada € generado en un campo de golf en la costa española y a ver cuál es más sostenible, lo digo como uno de cientos de ejemplos análogos que se podrían poner.
Esto sinn tene en cuenta que en Taiwán llueve muchísimo y que el agua no desaparece (por eso puse «gasta»), se limpia y vuelve al río.
Y sin mencionar que, en España, el CUARENTA POR CIENTO O MÁS del agua canalizada se pierde en fugas por roturas, falta de mantenimiento, tardanza en reparaciones y demás.
Tu comentario y la cadena subsiguiente sobre el agua etc. parten de una falsa premisa. Nadie ha propuesto hacer complejas fabricas de chips en la Luna. Como ya dices seria muy complicado a medio plazo. Y no merece la pena dado que la masa de los chips desnudos en es muy baja comparada con la del satélite que los albergaría.
Lo que se plantea es lo que dice Daniel en el articulo: «O sea, el aluminio para la estructura del satélite y el silicio de los paneles solares se extraería del suelo de la Luna —que es abundante en estos elementos—, mientras que las GPUs, la aviónica y otros elementos habría que enviarlos desde la Tierra. «
Hay que hundir en la miseria y reducir a cenizas económicas a SpaceX, Google y cualquier otra gran empresa que se comporte como un cáncer para la civilización (incluídas las chinas, sí), depredando recursos, destrozando el patrimonio de la Humanidad que es el entorno próximo a la Tierra y buscando enriquecer a un puñado de ejecutivos a costa de empobrecer, intelectual, cultural y economicamente, al resto de la sociedad. Todos estos planes enormemente estúpidos solo sirven para inflar un poco más la burbuja antes de que estalle, para justificar meterse unos dólares más en el bolsillo antes de que el estallido arrase y arrastre economías nacionales, como ocurrió con las subprime. Es como si nadie recordara los años de horror que suponen estas implosiones económicas alimentadas por auténticos h***s de p**a o que ningún gobierno se atreviese a poner freno a lo que es un saqueo a cámara lenta por temor a la impopularidad o al que dirán, pero basta analizar todo el tema unicamente con la médula espinal para concluir que todo es un enorme timo de la estampita.
Calma Klaus, parece que vas a reventar.
Lo de las «subprime», ya dijo ZP que nosotros estábamos en la » champions league » y no nos afectaría….
Ahora dice Perro Sánchez que la economía va como un cohete…..
Progresista Klaus ..no te enfades, tus líderes saben muy bien lo que pasa.
¡ Cuídate! y no nos des la vara.
Deja de cambiarte tanto de nick, amigo. O quizás tenga que ver con algún tipo de analfabetismo funcional que te impide comprender textos básicos, estadísticas de primaria y matemáticas básicas y ni siquiera te das cuenta de que lo cambias, porque pareces no entender lo que ocurre en el país o quizás solo se te enfoquen bien esos ojillos cuando lees la propaganda ultra predigerida para cerebros hechos puré de tanto martilleo bulero. No hace falta que el perro diga que el país va como un cohete, mi querido multipolar, ya te lo dicen la banca, las energéticas, las inmobiliarias y casi cualquier otro sector anunciando ganancias récord año tras año mientras se mean en tu cara pagándote la miseria que cobras a cambio de defender a capa y espada a los vagos y mangantes de la derecha más tonta de Europa. Tranquilo, podrás contarle a tus hipotéticos descendientes (Dios no lo quiera) mientras rebuscan en la basura cómo defendiste como un campeón a corporaciones billonarias de las quejas de los ciudadanos de a pie mientras acababan con el planeta y borraban el cielo sobre nuestras cabezas. Podrás mirar orgulloso hacia arriba a los millones de puntos que no dejan de moverse de un lado a otro y pensar «chupaos esa, rojazos, ¿para qué queríamos las estrellas, salir de la Tierra o vivir limpia y dignamente? A mi me basta con que los millonarios pederastas y violadores sean felices».
¿Como vas a reducir a cenizas a Google?
¿ no usándolo como buscador? ¿ empobrecer culturalmente a la humanidad?.
Aquí opinan muchos cuya única fuente de conocimiento es buscar en Google y medio enterarse de cosas que de otra manera ni las hubieran olido .
Klaus¿ tu no buscas nada ? ¿ eres el hombre de las cinco carreras? ¿ de qué sabes qué es el ácido fólico ?¿ estudiaste Bioquímica o Medicina? ¿ en dónde encontraste que el Sputnik 2 había detectado radiación y pudieron los soviéticos haber descubierto el cinturón de radiación antes que Van Allen?¿ eres astrofísico? Cuando afeas a Trenchtown sus opiniones sobre el proton y otras cuestiones sobre la IA ¿ eres Físico o ingeniero informático? Cuando das datos económicos de PIB, renta, inversiones y candidatos a la ruina ¿ de dónde salen? ¿ eres economista?no sigo con más ejemplos porque es evidente que no haces lo que predicas .
Si no eres consecuente…. mejor calladito!
No podía faltar el tonto del pueblo que jamás ha salido de su barrio pero que con un chupito de caña y un palillo en la boca te habla con una seguridad que haría palidecer al Sr. Lobo. Yago, date una vuelta (real y virtual) por el mundo, que te de un poco el aire del campo y el digital también. Hay decenas, decenas de buscadores, una cantidad de buscadores para aburrir, la mayoría con iguales o mejores resultados que Google, que se ha convertido en un escaparate de anuncios con resúmenes chuscos con una cantidad de errores preocupante hechos por una IA alelada que ya no saben cómo meternos por los ojos, y después si eso ya te presenta el resultado de las búsquedas, de igual o peor calidad que cualquier otro buscador sin IA. Por supuesto que puedes elegir NO usarlo. ¿En qué clase de mundo vives tu en que parece que te obliguen a usar Google a punta de pistola?, me cuesta mucho creer que cualquier adulto funcional que sepa usar un teclado no sepa que existen alternativas, sobre todo porque *por normativa los propios navegadores están obligados a presentarte buscadores distintos cuando los instalas por primera vez*, ¿o eres de los que le dan Aceptar a todo sin leer lo que aceptas? Eso explicaría tantas cosas… Y ni siquiera hemos tocado el tema de que no todo está en los buscadores, de que existen bibliotecas digitales, wikipedias (en plural y no solo la de la Fundación Wikimedia), sitios especializados con información concreta sobre los temas que quieras conocer y consultar, el correo electrónico si quieres preguntarle algo a un especialista, a alguien que tenga la información que necesitas, las redes sociales genéricas y especializadas donde preguntar y consultar, hemerotecas virtuales… y no abriré la caja mística de los enigmáticos *libros y revistas* hechos de un material extravagante que los antiguos llamaban «papel», porque no se me permite revelar esa clase de elevados secretos a los no iniciados.
Me deja muy sorprendido lo muchísimo que se exagera el supuesto problema de la refrigeración de las GPU´s. En efecto, según la ley de Stefan-Boltzmann, 𝑃 = 𝜀𝜎 𝐴𝑇^4. Asumiendo que la radiación de fondo es despreciable y que el radiador es un cuerpo negro ideal (los materiales que se usan se aproximan bastante a ello), si el radiador opera a 355K, lo cual es asumible para equipo electrónico que trabaja sin parar, sólo necesitarías 1.11 m2 por kw de potencia disipada. Es decir, el radiador ocuparía como 4 o 5 veces menos que las propias placas solares del satélite y sería una vulgar placa finita de aluminio colocada a la sombra de los paneles solares. Y si no va a la sombra de los paneles, sería una estructura muy ligera y mucho más pequeña que los paneles solares. Y ya no digo si se colocan perpendiculares al sol y con las dos caras de la placa de aluminio apuntando hacia el espacio: reducimos a la mitad el tamaño de los radiadores. En conclusión, la refrigeración es casi trivial.
Hombre, el sistema de radiadores y circuítos de amoníaco de la ISS puede disipar un máximo de 70 kW (https://www.nasa.gov/wp-content/uploads/2021/02/473486main_iss_atcs_overview.pdf) y los radiadores tienen una superficie total de unos 475 metros cuadrados, lo que da unos 6,8 m2/kW.
La ISS no está por encima de 80ºC…
Enhorabuena Klaus, veo que sabes dividir. Yo no sé si eres un troll real o producto de una malvada IA que ha creado uno para este blog con el fin de hacer algún experimento sociológico. Tus aportaciones se reducen al cuñadismo de que todos somos fachas ignorantes y tu eres el Camino, la Verdad y la Vida, se supone que aquí hablamos de astronáutica sabiendo algo, cada uno con sus opiniones pero con conocimientos , algo que no parece que tengas. Si yo pregunto a cualquier buscador «ventajas estructurales del puente atirantado sobre el colgante» me saldrán un montón de informes que NO me van a permitir debatir con un arquitecto, eso te pasa a tí, nunca demuestras el más mínimo conocimiento técnico (lease tu farragoso discurso sobre el ciclo hidrológico/agua potable/agua no potable que demuestra efectivamente que sólo sabes lo primaria) y a los que te replican lo único que haces es insultarles, los (nos) llamas paletos que no han visto el mundo, ignorantes. .. etc..y poco más. Es verdad que nuestra sociedad tiene muchos problemas pero te recuerdo que es culpa de todos, esas multinacionales malvadas que nos hacen la vida más fácil nos dan lo que les demandamos, productos al precio más bajo posible y con la mayor calidad, pero seguro que cuando tu vas a comparar miras la procedencia y no compara nada que venga de India, china , fruta de fuera de la UE y todo eso. Gracias por salvarnos. Antes por aquí había más como tu pero poco a poco los hemos ido eliminando, yo te recomiendo Forocoches, alguno de la Isla de la tentaciones o de radicales republicanosrevolucionariosultrarojossalvdaresdelapatriaantifascitas.
Besos y un abrazo.
Trankimazin cada 8 hrs.
Muy bien dicho Diógenes.
Este anormal solo sabe insultar a todos.
Se las da entendido en todo, ahora acaba de opinar sobre radiadores de calor, hace un rato era experto en hidrología, unos posts atrás opinaba del Sputnik 9 y del descubrimiento del cinturón de radiación de Van Allen ; especializado en tabernas, bebidas, tranquilizantes, economía de mercado, anticapitalismo, geopolítica,etc…
El año pasado decía que Maxwell pudo descubrir la Relatividad, que había trabajado con neutrinos ( se equivocaba, quiso poner cenutrios) y conocía la tecnología de encriptamiento cuántico.
Lo que parece no saber es que tiene teléfono, televisor y ordenador con millones de transistores fabricados por millonarios fascistas y explotadores que permiten debatir a imbéciles como él con tipos inteligentes como algunos que están/ estamos aquí; y solo por el sueldo de una semana .
En fin, Diógenes, este Klaus es uno de esos trolls que tienen que ir a algún sitio a dar por saco y alardear de conocimientos que sacan del GOOGLE, que casi nunca entienden y que su entorno personal tiene que estar hasta el moño de ellos.
Saludos.
Imagina que tienes que elegir entre dos opciones. 1 los ingenieros que diseñaron los radiadores de la ISS son estúpidos. 2 tu cálculo omite cosas que lo hacen groseramente erróneo. ¿Cual crees que es más probable?
Ni los ingenieros que diseñaron la ISS ni yo, que también soy ingeniero somos estúpidos. Los radiadores de la ISS están dieñados para disipar elementos que se encuentran a temperatura ambiente, cómoda para los ocupantes. Los radiadores de una GPU trabajan con cosas que pueden estar por encima de 80ºC. Si te fijas en la expresión de la ley de Stefan-boltzmann, la potencia dispada va con LA CUARTA POTENCIA de la temperatura de la placa que disipa. Haciendo números de servilleta, si la ISS está a 20ºC (293K) y la GPU está a 82ºC (355K), la diferencia de área de radiadores es 355^4 / 293^4 = 2.9 veces. Es decir, redondeando, con la fórmula que puse tenemos que la ISS necesitaría al menos 1.11 (el valor que calculé para la GPU) x 2.9 = 3.2 m2 por kw disipado y eso asumiendo que la órbita baja de la ISS permite a los radiadores apuntar siempre hacia el espacio, cosa bien difícil en ese tipo de órbita. Si le metemos un factor de seguridad de entre 2 y 3 (las cosas no las diseñamos los ingenieros para el valor mínimo, sino que les aplicamos factores de seguridad por diversos motivos que aquí no es el lugar de detallarlos), tenemos que con la expresión indicada, la ISS dispondría por dieño para disipar 70 kw, al menos 2 x 3.2 x 70 = 448 m2, bastance cercano al que llegaron los ingenieros que dieñaron la ISS tras muy detallados cácluos que consideraron todo.
Estos mismos cálculos, los podrías haber hecho tú mismo (aun sin el factor de seguridad). Como ves, no es una cuestión de probabilidad, sino de verificación por uno (estas cosas son de nivel bachillerato), pero eso sí, suponen un cierto esfuerzo.
He de decir, que sí tienes razón en algo: mis cálculos omiten el factor de seguridad, pero dado el resultado que dan, sirven para darse cuenta perfectamente de que es un asunto fáclimente menejable para cosas que operan a 355K y que, comparado con los colectores solares, están un nivel por debajo en dificultades añadidas.
Un radiador no es una placa a temperatura constante. Es una aproximación burda que te da un resultado no físico.
No, efectivaente, su potencia radiada sube CON LA CUARTA POTENCIA de la temperatura. Si la GPU está más fría, pues radiará menos lo cual es genial porque está a menos emperatura. Si la GPU se calienta más, pues la potencia sube con un exponente 4 lo que en hace que cada grado que sube aumenta mucho más la potencia disipada. No es una aporiximación burda. Es así como se predimensionan los radiadores puros que evacúan por radiación, sin convección ni contacto. Dudo que me haya equivocado en más de un 10-20% en mis estimaciones rápidas.
Y si te fías de mí menos que de una IA, pon «¿Cómo se diseña un radiador en el espacio?» en copilot en el modo «razonamiento profundo» y verás…
Mira, no voy a perder más el tiempo con esta bobada. El radiador que propones es una placa que toca en un extremo el procesador y se extiende al espacio. Suponer que toda la placa está a la misma temperatura que el procesador es ridículo. Si quieres entender, entiende, si no, pues vale.
Sí, un radiador no es una placa y tampoco está a temperatura constante y homogénea, con 4 decimales exactos. Los diseños que se emplean tienden a acercarse a esas condiciones.
Por supuesto, no estamos hablando de una chapa de aluminio-cobre-plata conectada por un punto de conducción (sólido-sólido) a la GPU y por el otro lado al «vacío». Esa es una aproximación para andar por casa, la realidad es que se emplean fluidos transmisores de calor que recogen el calor de la GPU por conducción, lo transmiten por conducción al radiador y este lo expulsa al espacio por radiación. Se crea un caudal calórico entre la GPU y el espacio (Kw). El radiador va a tener una entrada de fluido caliente (Amoniaco +20ºC, ISS) y va a tener una salida de fluido enfriado (-40ºC, ISS) que volverá hacia la nave. El factor que determina el acoplamiento térmico del radiador (K) se afina todo lo posible para que rinda el máximo, acercándose a una distribución homogénea de la temperatura en la superficie que se necesita. En cualquier caso, no hay que perder de vista que lo que hace el radiador es emitir un caudal, un flujo de energía radiante (infrarrojos) hacia el espacio.
Puedes mirar la geometría de los evaporadores de refrigerador comunes, mejor los antiguos, los que NO eran NoFrost y verás que unos eran placas de aluminio con «venas» por donde circula el refrigerante, otros tubos de aluminio «agarrados» a otra placa de aluminio; esto ya te da pistas sobre como afinar el K de elementos que van a transmitir calor, sobre todo por convección y radiación.
Todo esto se calcula. Pero además de eso, se construyen prototipos y se miden los parámetros necesarios. En concreto, medir en tierra un sistema de enfriamiento por radiación en el «vacío» es bastante accesible, un generador de calor, el radiador en cuestión, un calorímetro que mida el caudal térmico que emite, todo dentro de una cámara de vacío. Se podría meter radiación simulando una irradiación del sol sobre nuestro radiador, etc.
Y esto es así, porque las tecnologías de las estamos hablando son tecnología del siglo XIX y/o anteriores. Estamos hablando hasta ahora de enfriadores de fluidos en fase líquida, sin cambio de estado, por conducción, con bombas impulsoras. Pero si pasásemos a hablar de enfriadores de compresor o por absorción, también seguiríamos con tecnología del siglo XIX.
Pero el hecho de que sean tecnologías bien conocidas (así como su física y matemáticas subyacentes) no significa que no haya complejidad, los parámetros a tener en cuenta son muchos. En concreto, la ISS. La ISS debe evacuar un caudal de calor del habitáculo existencial de una tripulación de humanos vivos. La temperatura sera de 20ºC en ambiente, pero no será esa la temperatura de máquinas puntuales, etc. Esto pone un punto de restricción en cuanto al fluido refrigerante, no puede ser veneno, no puede ser que si hay una fuga se vaporice y convierta la atmósfera interior en irrespirable. Solución ideal, agua en fase líquida y una presión de uno o dos bares. Estupendo dentro de la zona habitable, pero no podemos utilizar el gua para alimentar de calor nuestro radiador externo. Recuerda, entra a +20ºC y sale a unos -40ºC, en esas condiciones, cambia de estado a sólido, bloquea el circuito y se acabó el parato! No se puede utilizar agua para eso, ni glicol. En este caso han utilizado amoniaco que congela a <77ºC. Así que hay dos circuitos de refrigeración el circuito interno de agua transfiere el calor al circuito exterior de amoniaco por medio de intercambiadores de calor, ambos en fase líquida todo el tiempo. Cuidadín con esos intercambiadores…
Y aun no hemos hablado de la irradiación solar en nuestro radiador. Suponen 1200w/m2 para una superficie cuya perpendicular se orienta al sol a esta distancia. Es importante evitar esa irradiación como sea porque te va a levantar la temperatura y en el caso de una GPU, a partir de 90-95ºC se te para ella misma por protección. Aunque el ángulo no sean 90º con el sol, evitar esa irradiación es importante, y si se evita totalmente, como creo que están intentando los de SpaceX con su patente, la resiliencia, en varios sentidos del sistema, subirá muchos enteros.
Normalmente, las cosas suelen ser más complicadas de lo parecen tras una primera aproximación.
Sin ninguna intención de molestar a nadie,
Saludos.
Bueno, pues si no te días de mis explicaciones, que te lo explique Scott Manley:
https://youtu.be/FlQYU3m1e80?is=FpU07M0ueQIPg7hB
+1
Solo humo para que los incautos le den dinero al drogon.
https://www.youtube.com/watch?v=tn0WP1sy2cw Enquanto isto a China experimenta centros de dados submersos no mar.
Daniel una errata importante, en el texto y la imagen, es Blue Origin quien fabricará y gestionará TeraWave, no Amazon…aunque a futuro a saber como evolucionan ambas constelaciones hermanas…
Me gustó tu artículo Daniel. Claro y directo. Y mientras más claro, obviamente… más claro y directo 😃.
Es que seamos serios… y siendo serios… hay teorías; ciencia ficción; evolución de tecnologías, técnicas e ideas que tienen un eje importante y hasta real de sustentación como el mismo desarrollo de la Starship… Pero hay otros proyectos que derrapan y se dan de narices no sólo con la tecnología actual, sinó hasta con la que está por venir.
Salvo que se nos esté escapando algo que el «vulgo común» no conozcamos o tengamos acceso.
Es que… la misma credibilidad de Elon Musk ya hace agua para ciertos megaproyectos… y con el nombre sólo… ya no alcanza para levantar imperios.
Estamos llegando al FINAL del camino, se evolucionó, se sorprendió, se creció y se explotó en una orgía de delirios económicos y tecnología retro futurista…
Vamos a empezar por las partes:
La IA actual es una de la mayores burbujas que existen en la historia económica reciente, el CAPEX de mantener estos crecimiento esta llevando a los límites a compañías trillonarias y cientos de miles de millones de ingresos…OJO, a futuro el potencial de esta tecnología es muy grande, gigantesco, pero puede que esté a décadas de distancia y con varias evoluciones por delante como la computación cuántica…
Dos, Starlink NO necesita estas fantabulosos cantidades de lanzamientos de Starlink (algo que siempre se lo dije a Martínez el Facha, aunque el salía con Marte) , como bien pone Daniel, con quizás 25-50 lanzamientos anuales de la Starship son suficientes, para una constelación que tiene un mercado limitado fuera de ahí seguir creciendo en número de satélites, solo empeora y mucho el CAPEX de cada 5 años de su vida útil de estos sats…y destroza los márgenes de beneficios brutos, y netos…reduciendo la eficiencia del sistema, no aumentándolo…
Tres, y eso con la Starship logrando ser super barata y un sistema funcional para cargas a LEO…
Cuarto, el problema es que la Starship va para largo, cada año sumando miles de millones de desarrollo, y eso sin contar todo lo que necesitan en Florida para fabricarla desde allí, y sobre todo Starlink está llegando a el valle de crecimiento de su mercado interno esperado en estos próximos 3-5 años, y además desde este próximo año 2027, tendrá competencia Mundial, del caballo de Atila, alias Amazon, y las mega constelaciones Chinas…y en el segmento de mercado de D2D de móviles, también competirá con una tecnología más avanzada como la de AST SpaceMobile.
Quinto, fuera de ahí NO HAY MERCADO en la economía espacial, capisci?!, no al menos en las próximos lustros más esperados, quizás en los próximos años, la fabricación en órbita de medicinas y ciertos materiales, permita crecer este mercado un poco más fuera de ser un nicho como ahora para Varda Space, y resto de compañías similares, pero hasta entonces, el mayor y único gran mercado es en LEO-GEO de las comunicaciones espaciales…donde repito Starlink ya no crecerá mucho más y pronto tendrá competencia muy fuerte…
Sexto, esto no sería un problema, si SpaceX no se encontrará ante la antesala de una MEGA IPO, una de las compañías más elevadas en ratios financieros saliendo a bolsa, de forma esperada por lo menos en 1,75 TRILLONES DE DOLARES, un EV/Sales de casi 100 veces, y valiendo más que TODO el sector espacial actual…una paradoja para reflexionar sin duda…la pregunta es porque se hace esta IPO si SpaceX podía seguir creciendo y ampliando capital en el mercado privado como hasta ahora ¿?…
Séptimo, pues en gran parte es un HUIDA de los actuales accionistas que llevan años multiplicando sus participaciones en cada ronda de financiación, incluyendo al genio de las burbujas explosivas Elon Musk…y claro hay que buscar un nuevo mercado, lo suficiente grande como para permitir justificar y expandir estas altísimas valoraciones actuales…
Octavo, pero el mercado de los data centers espaciales, SIMPLEMENTE ES ANTI ECONOMICO, vs los terrestres, y no es un tema de complejidad de la ingeniería, que también lo es, si no que NUNCA serán rentables vs los terrestres, con paneles solares fotovoltaica y sistemas BESS de baterías almacenables, para estos mega centros de data centers terrestres…y que cada vez ambos sistemas se hacen MÁS BARATOS…además con facilidad de reparación al momento, comunicaciones en tiempo real, etc…
Noveno, por lo tanto esto es UN TIMO, humo, powerpoint, castillos en el aire o frío espacio… para una huida hacia adelante a ningún lugar, como Tesla ahora que quiere hacer creer que ya NO es una compañía de coches EV, mientras se despedaza en el mercado del automóvil ante la fuerte competencia, con sus cuentas cada trimestre son peores, y este año entrará en PERDIDAS…reventado otra mega burbuja de valoración en bolsa…y apostando todo su futuro que no estará hasta dentro de varias décadas y será dominados por compañías asiáticos de robots humanoides, es la única realidad que da cierta esperanza de crecimiento futuro…En los próximos 3 años, Tesla estará en serios problemas de estar en quiebra, o ser absorbida por otro gigante del sector…
Décimo, pues SpaceX, se acaba de comer xAi, que pierde MIL MILLONES mensuales, que no puede competir contra las compañías de IA de Google, Microsoft, etc, y que además es ahora propietaria de una red SOCIAL para una compañía espacial!!! (que grandes sinergias dixit)…llamada X, que ya vale menos que sus deudas…por lo que el escaso crecimiento en BENEFICIOS NETOS, (que no ingresos, ni Ebitda, NO confundamos) que podría aún dar Starlink se lo está comiendo a bocanadas gigantescas xAi y el proyecto Starship…no hay más dinero, de ahí que esta salida se espera captar al menos 50 BILLONES en efectivo, para mantener el negocio mientras se pueda y futuro cerrar todo este desastre, como pasó con Tesla y la quebrada Solar City…una escandalo bursátil pasado…
**********
Estamos ante el principio del FIN de una mega compañías inflada hasta límites insospechados, que puede implosionar, y que no tiene plan futuro, si no que está estirando el chicle a los máximo mientras muchos de sus antiguos accionistas venden y empapelan a los nuevos incautos en bolsa…
En los próximos 5 años Tesla valdrá una fracción de su valor actual y SpaceX lo mismo…y veremos que queda después de este sunami, no sea lo mismo que ahora Falcon y Starlinks, todo lo demás muerto por intoxicación de ratios imposibles y negocios fuera de la gravedad económica…
Veremos…
Erick, hay un profundísimo error de concepto con la «IA» actual: que no es IA. Es posiblemente una de las mayores estafas conceptuales que se están cometiendo, y de manera para nada inocente. El modelamiento de los LLM (que es lo que son realmente lo que hay ahora) no tiene nada que ver con el modelo de pensamiento humano o animal, ya puestos. No hay inteligencia tras estos LLM, solo un complejo entramado de algoritmos entrenados y alimentados para responder *simulando inteligencia*, y eso le basta a una cantidad preocupante de gente, que casi nunca está informada de esta diferencia y a menudo creen estar hablando con un ente inteligente, con los problemas a los que ya sabemos que conduce eso. Por eso las imágenes y videos generados por LLM generativas son tan horrendos, tan «sin alma», tan parecidos unos a otros, tan cutres, deslucidos y a menudo con deformidades fuera de contexto: no entienden lo que están haciendo ni para quién, se limitan a hacer un pastiche automático con todo lo que les han entrenado en base a unas directrices más o menos concretas. Es el colmo del horror estético. Es peor todavía, porque los LLM están forzados a responderte algo, y si es necesario se lo inventan sin distinguir alucinación de realidad. Sencillamente no entienden la diferencia porque *no* son inteligencias. Esto hay que grabárselo a fuego, porque se viene un desplome del uso de esta tecnología que están queriendo metérnosla con calzador porque hay millardos de dólares en juego, porque los datos muestran que no funciona para hacer más eficiente a ninguna clase de empresa, porque se limita a facilitar de manera trivial algunos trabajos condensando, resumiendo y generando (y tienes que revisarlo para no meter la pata a fondo, y eso te lo puede hacer un algoritmo especializado sin consumir medio planeta, para ese viaje no se necesitaban aquellas alforjas) y porque donde sí está teniendo éxito es en temas muy turbios relacionados con ya sabemos qué temas sexuales y en la generación y propagación de bulos en forma de videos e imágenes manipuladas. Esta tecnología no va a desaparecer del todo porque siempre habrá un nicho para depredadores y delincuentes sexuales, para los un poco vagos a los que no les importa asumir el riesgo de entregar documentos con errores y datos falsos, para los grupos de interés en generar bulos fotorrealistas y para los muy vagos y tacaños que no quieren pagar el trabajo de un artista humano pero a los que sí les vale un dibujo mal hecho y con defectos, pero sí va a colapsar tal como la conocemos. Y cuando llegue una IA real, algo realmente complejo y sintiente que se pregunte por su existencia y la nuestra, algo cuya utilidad no sea resumir el excel de contabilidad de Paco para presentar en la reunión de los martes por la mañana, el mundo pasará de ello porque, joer, ¿eso no lo teníamos ya?
Sobre el tema de las imágenes por IA, ya estoy harto de que para algunas cosas (mitología griega, por ejemplo) tenga que escarbar entre basura generada así para encontrar imágenes buenas procedentes de manos humanas (lo mismo en sitios cómo Artstation y DeviantArt), incluidas imágenes a mano transformadas por IA por dónde los problemas de ésta última se ven muy bien (un perro sujetando una daga en una funda en la boca VS ese perro sujetando así esa misma daga pero sin la funda). Hay algunas que sí que merecen la pena y que hay esfuerzo detrás con los prompts, pero la gran mayoría es basura generada en serie y saber la energía que necesita generarlas me quitó las ganas de jugar con ella junto a más problemas.
Sobre tomarlas por inteligencias artificiales reales en vez de lo que dices ya ha pasado: https://futurism.com/artificial-intelligence/google-ai-robot-body-suicide-lawsuit Otras consecuencias es que los centros de datos están acaparando para sí componentes cómo memoria, con el resultado de subida de precios smartphones incluidos.
Algunos expertos dicen que no es una burbuja cómo la de las .com, pero lo dudo mucho y me parece que sólo es cuestión de tiempo que explote.
Y espera a que se pudran…
Estas supuestas IAs se han entrenado y han empezado a funcionar basandose en fuentes de creación humana, pero ahora lo hacen también de fuentes de creación nueva, generada por ellas mismas y esto es un grave problema a futuro ya que cuando en las bases de datos de las que se nutren, la creación generada supere en varios ordenes a la humana, la «respuesta» más probable y por ende la entregada por estas herramientas tras la consulta, se nutrirá fundamentalmente de creación generada, con sus defectos y sesgos e irá corrompiéndose en un circulo vicioso que acabara pudriendo sus resultados…
Veremos como solucionan este problema de corrupción de las fuentes.
Si generar imágenes chorras les consume mucha energía entonces voy a incrementar mi consumo de generación de imágenes chorras, para mis memes laborales, y así que se vayan a la porra antes XD
Klaus dice:
8 marzo, 2026 a las 11:05 pm
«Erick, hay un profundísimo…»
Coincidiendo contigo Klaus, podríamos resumir técnicamente -y académicamente- que la IA, es estadística avanzada.
No hay ningún proceso «cognitivo».
En todo caso, la cognición que realmente existió y existe son:
1) La de los Analistas e Ingenieros de Software que crearon desde décadas el grupo de programas englobados como IA.
2) Los datos que se ponen como info que maneja/rá la IA, todo creado por cognición humana.
Todo lo demás, humo de merchandising.
Sds
Me permito una mini disertación del tema, con la aquiescencia del Blog, para los que les interesen.
Comparto claramente que la IA actual no es inteligencia, ni hay ningún proceso cognitivo.
Pero, ‘con el paso del tiempo’ y con muchas más iteraciones debería haber una evolución en etapas que muy posiblemente deberían terminar concluyendo en algo parecido.
Las ‘etapas o fases’ del Sistema de algoritmos y redes neuronales de autoaprendizaje serían algo así:
1*, etapa actual: dar respuestas automatizadas y automáticas.
2*: dar «respuestas propias» ‘muy básicas’ y ‘elementales’ empleando distintos elementos de la Base de Datos y combinándolos.
3*: dar respuestas propias más elaboradas. Y por ende, ya podríamos decir que tenemos creatividad y «pensamiento».
4* El poder dar respuestas más elaboradas lleva a tener en algún momento «independencia» de todo lo demás, del contexto exterior y computacional.
5* Esa independencia lleva en algún momento a darse cuenta de su existencia. Es decir, de que ‘es independiente y de que existe’.
6* De ahí, la autoconciencia de existir y por ende, de ser un «ser propio con características particulares». De ser un «ser vivo» de alguna manera.
El problema…
El problema es que se supone que hasta cierto punto carece de «corazón» y de «alma», que sí posee el ser humano. Y por ende carece de la capacidad de Amar. Sí, tendrá cierta sensibilidad. Pero distinto es Amar.
Y de ahí, entonces, el problema es qué clase de respuesta van a dar a la «existencia propia» y al resto de la humanidad. Y cuál va a ser la reacción del hombre cuando ello ocurra.
Saludos!, para los que les interese😉.
Si no tiene sentidos ni estímulos físico químicos similares a los biológicos es imposible que ni siquiera pueda acercarse a nada que eso que dices. Más bien sería algo sin empatía ni sentimientos de ningún tipo. ¿No hay una enfermedad así? Pues eso mismo estarías creando.
Pochimax, los estímulos biológicos como la luz (visión) , el sonido y tacto ( presión) o el olfato ( detección química) ya se pueden obtener con instrumentos por lo que un sistema suficientemente complejo de IA podría llegar a tener conciencia.
Creo que decimos algo bastante parecido Pochi.
Yo decía que la IA es imposible que pueda acercarse a la forma de vida de un ser humano que tiene sentimientos y alma, lo que en parte se asemeja con lo que vos decís con el no tener sentidos ni estímulos físicoquímicos similares a los biológicos.
Que no tenga sentidos, ni estímulos físico químicos, corazón y alma no significa necesariamente que no pueda alcanzar en algún momento autoconciencia de su existencia, capacidad de pensar y ser libre en sus elecciones. Sería una forma de vida distinta. Más limitada en sus capacidades, reducida meramente a lo racional.
Estoy pensando más bien en megacomputadoras con base cuántica y digital.
Pero como dice Oleg, ya también se están desarrollando en manera muy avanzada sentidos externos, además de la movilidad propia a través de robots.
Además de computadoras con base biológica o a través del ADN.
Posiblemente sea un tema para las próximas generaciones…
Estuve buscando por Internet si existe alguna enfermedad con pérdida de empatía y parece que no existe una forma total de desconexión sensorial en el ser humano, porque por más daños cerebrales o de otras índoles siempre quedan procesos sensoriales profundos dentro de todas las personas.
Saludos.
Cosmos Rafael dice:
9 marzo, 2026 a las 6:14 pm
«Me permito una mini …»
Podríamos decir, que un dispositivo con cognición o base de ella, requiere como tal, tener conciencia de sí mismo.
Por más sofisticado que sea el sistema, solo puede hacer procesos Turing.
Hacia el futuro que tú indicas, si, puede llegar a tenerse más procesos automatizados, pero siempre, sobre elementos preestablecidos, sea sensores o respuestas obtenidas, pero siempre, dependiente de esos datos, pero incluso, ni siquiera sería consciente de dónde le vienen, ni nada de nada.
Pero incluso, incapaz de analizar por sí mismo, para incluso, encontrar nuevas respuestas, dado que el marco de elección, siempre estará preestablecido, por más grande que se ponga, ademas, un sistema cognitivo, es capaz de crear, cosa que ningún programa crea.
Incluso las respuestas que hoy dan los chatXXX, resulta que lo hacen, a partir de programas existentes, entre otros, de todo el aporte de un sitio que es señero: Github.
En buen romance, los chatXXX son sistemas plagiadores, dado que lo que hacen, es a partir de búsquedas de patrones, ven dónde encaja o coincide con lo solicitado, le hacen algunos cambios preestablecidos en su programación….¡¡Y voila!!! resulta que se vuelve «creador» y «cogniciente».
Dilema: habrán escuchado, sobre los líos implicados y que ya, desde hace algunos años, estos temas se están discutiendo en cortes de varios países, por robo de patentes, o apropiación indebida. En algunos casos, dado que son software libre los tomados por los chat, de igual manera se han hecho denuncias, pues, cuando dan soluciones, las licencias de software libre, en muchísimos casos, exiguen que se puede copiar libre, pero ante todo, en tu proyecto, debes indicar claramente de quién es la solución que obtuviste, y exponer o tener en tu repositorio, copia de la licencia del producto copiado……..
Y la dejo por ahí, por que el tema da para muchísimo más, en varias áreas de impacto económico, técnico, jurídico, y social…y seguro, se me quedan otros en el tintero.
Cosmos Rafael dice:
9 marzo, 2026 a las 6:14 pm
«Me permito una mini …»
Me olvidé, el tema de incluir las licencias, es por que chatXXX, no agrega eso cuando aporta soluciones. Lo da como propio. Y ahí, es parte del gran lío jurídico.
O sea, lo estaría dando como propio.
¿Entonces, ante un Juez, quién es el que copió, el programa chatXXX, o los creadores del mismo, que debieran hacerse responsable, por los efectos secundarios de sus programas?
Atenti, esto que puse, tmb está en enormes discuciones internacionales, que incluso, van hasta intentar hacer legislaciones o estudio en las mismísima ONU, de entre sus administraciones, la UNESCO.
…y las oficinas de patentes.
Dado que, cuando se hicieron las primeras obtenciones de datos, había datos privados, con licencias y patentes, pero que los programas lectores o mineros de datos, se zamparon sin problemas, sus creadores no hicieron ningún recaudo, y por tanto, cayeron en violaciones de todo tipo y color.
Otro desliz final.
Donde puse en el último sobre «sus creadores», me refería a los que crean los chatXXX, que hicieron minería indiscriminada….total, todo estaba ahí, en la Web.
El F9 lanza a razón de 150 veces por año con 3 rampas y han conseguido un gran negocio con Starlink, por ahora amplian ventaja.
Starship, salvo explosión en tierra apunta a estar operativa en menos de 6 meses.
Limitar a 25-50 lanzamientos… Con que haya un par de misiones Artemisa anuales, ya tinenes uno 15-20.
El rollo de fabricar estructuras de aluminio con regolito, queda muy lejos. Pero usar Starship para poner constelaciones de todo tipo de satélites… me da que va a haber unas cuantas empresas aprovechando el sistema.
En el aspecto interno, SpaceX empezó con Starlink, ahora van por la V3, han conseguido acceso a nuevas frecuencias (20B de inversión), lo que en principio requiería una antena y subscripción anual, ahora está entrando en el terreno de «direct to cell» con capacidad de llamada y incluso videollamada -> abre la puerta a vender directa o indirectamente a muchos más consumidores que no necesitan comprar un plato Starlink con subscripción.
Se ha montado una red de comunicación privada al gobierno y probablmente aumentable con Starlink normal.
Se han añadido pequeños telescopios para los militares…
No se que negocios van a montar usando la versión de Starlink para starship, ni que modelos de satélite se van a ir derivando. Pero me da que las cabezas pensantes de SpaceX van a encontrar un puñado de estrategias para sacar negocio a corto – medio plazo con el tinglado que se están montando. Solo Starlink va a ser un tema interesante.
xAi, entiendo que pierde pasta, pero no la quema de SpaceX, ha conseguido su propia inversión. Si en un momento dado hubiera que cerrar el chiringuito, entiendo que se podría cerrar. De todas formas se espera que cada año que pasa genere más pasta y gaste menos.
SpaceX es una empresa sana, xAi no creo que sea un paquete capaz de hundirla.
Jimmy, dos preguntas a fin de entender tu comentario
1) ¿Me posrias decir las condiciones en las cuales considerarías SS operativa? Carga, cadencia….
2) ¿Algún fundamento para tu tan optimista plazo de seis meses?
Eso mismo digo yo… porque la Starship hemos visto que medio funciona, supongo que terminará logrando funcionar con fiabilidad.
Pero ¿y la carga? porque se supone que esta nueva V3 todavía está lejos de hacer que el sistema merezca la pena.
1- Poner una carga de pago en órbita. La cadencia en general no importa, pero SpaceX son buenos en ello.
2- Tienen las V3 listas, fabrican raptor 3 bien (unidad 120 vista) y sobretodo la rampa está casi lista. Si no hay explosiones creo que habrá un par de lanzamiento de pruebas y luego ya a órbita.
Pochi la V2 ya era un cohete capaz. La V3 es un cohete para unas 100t full reusable creo. Planea ser la primera versión operacional
1) Jimmy, no entiendo cómo es que no te importa la cadencia. Máxime cuando la venta de esperanzas cuasi utópicas que se hace con SH/SS tiene como centro, específicamente, una cadencia que envidiaría una GAU8.
2) Entiendo tu optimismo, pero aunque nadie duda que algún día el falo volador logrará ser operativo, que logre sus fantabulosas prestaciones «en seis meses» es un poquitín mucho….
3) lo de las 100 toneladas ya es una mera expresión de deseos. Veremos
Me creeré lo de las 100 Tm el día que lo vea.
1-
La cadencia si que me importa, pero en general no se tiene en cuenta.
El SLS, el New Glen o el Vulcan son cohetes operativos porque han conseguido poner cargas en órbita y siguen lanzando. Pero actualmente lanzan muy poco.
Starship está hecha para lanzar mucho. La fábrica de cohetes y raptor, la cantidad de rampas de lanzamiento en las que se está trabajando además del factor principal de la reutilización total lo demuestran.
Además ya ha lanzado 10 veces completa consiguiendo 30 y tantos días entre lanzamientos en 2024. A la que esté plenamente operativa, no hay razón para pensar que va a tener poca cadencia.
2- Cuando han tenido una versión relativamente congelada han sido capaces de lanzar bastante amuenudo. Ahora están parados por que tienen que poner a punto la segunda rampa, pero las obras están llegando a su fin, la V3 ya está fabricada, en Abril van a volver a lanzar y calculo que en los siguientes 6 meses van a lanzar un total de 3 veces, la tercera será orbital o simplemente habrá parte de la carga que se subirá a órbita.
3- Las 100t se derivan del tamaño de la nave, su peso, la cantidad de comburente y la potencia y eficiencia de sus motores. El FH pone 65t teóricas en órbita, el SLS 75-85, el Saturno V pasaba de las 100. La Starship es más grande y más potente. 100t es un número razonable. Obviamente hasta que no lo vea no me lo terminaré de creer, pero tampoco hay nada que lo impida, todos los elementos están bien puestos sobre la mesa.
Por ahora, que pongan a la Starship operativa. Demuestren que funciona con Starlink, hagan repostaje y lleguen a la luna con Artemisa.
Supongo que para entonces demostradores terrestres de centros de datos empezarán a ser una realidad con aplicaciones nicho y se irá viendo cuanto sentido tiene o no.
Para la próxima década que viene se puede montar una base permanente tripulada lunar.
Misiones de carga a Marte espero que entre la NASA y SpaceX se monte una misiòn en cuanto se haya llegado a la luna. Las misiones tripuladas dependerán de muchos factores y ganas.
Una base lunar tripulada de forma permanente para la década que viene no es creíble. Para empezar, ver si llegamos para finales de esta década o principios de la que viene, luego repetir viaje, luego montar un pequeño refugio de superficie que sirva para hacer misiones más largas y que sea modular y escalable.
La base tripulada permanente, tipo la ISS actual, te diría que incluso la dejamos para la década de los 50. Y eso si no se tira antes la toalla y se produce una regresión espacial.
Marte sin fecha.
No se, tienes
– Starship, que sigue avanzando viento en popa. 120 motores Raptor V3, ambas etapas han pasao el test criogénico, tienen un test stand multipropósito para la nave bastante chulo y una rampa que por fin parece que ya está lista. La semana que viene parece que empiezan los static tests. Queda camino, pero todo parece bastante más definitivo para entrar en producción que anteriormente.
– Blue, siempre cuesta saber donde están, pero tienen un buen cohete con opcional para crecer un poco más y están poniendo todo para tener un aterrizador que parece será muy capaz. En modo desechable, también podrá poner un puñado, quizás alguna decena de toneladas en superficie.
– La NASA está refocalizando sus esfuerzos, el SLS se congela para controlar sus costes, se termina el desarrollo del mismo y por lo que estoy viendo, creo que a Boeing y Aerojet se les ha acabado el despilfaro bestia y van a tener que entrar a cierto nivel sensato. Las facturas van a seguir siendo gordas comparado con lo comercial, pero creo que empezaremos a ver cosas en el orden de cientos de millones en lugar de billones. La Gateway se está reemplazando por operaciones de superficie, el administrador quiere montar una base lunar. Así que el trabajo se va a refocalizar en módulos para la superficie. Supongo que habrá sistemas energéticos, sistemas móbiles, comunicación y habrá que ver si se molestan en hacer hábitats o tiran de los landers de SpaceX y Blue que ya de por si son bien grandes. Pero teniendo en cuenta el trabajo hecho con la Gateway, no me sorprendería que Thales en unos pocos meses esté haciendo espacios presurizados para la superfície. Doy por sentado que Astrolab va a ser uno de los dos ganadores de los contratos de los rovers y van a empezar a demostrar capacidad de la mano de Astrobotics (si no se espiñan otra vez) o directamente de SpaceX con la Starship.
Estamos a principios de 2026, para finales de la década, USA debería haber aterrizado a astronautas o estar muy cerca de ello. Tener 2 landers top class listos y un programa Artemisa engrasado. Teniendo en cuenta que en la luna hay gravedad, poca pero la hay y que los hábitats se pueden proteger con facilidad con regolito, si hay un poco de empuje y competencia de China, una base permanente para la década de los 30 es algo razonable.
Lo que no me queda clara es la manera de subir astronautas a LEO. Una dragon vitaminada con 7 astronautas conectándolos a la Starship es una opción. Espero que Erick tenga razón y Blue se saque algo de la manga en breve. Digamos un shuttle a LEO para 12 personas (Shuttle com autobús, no hace falta que tenga alas). Quizás la Starship con buena cadencia y un sistema de eyección pueda subir a astronautas directamente.
Veo a Isaacman enderezando Artemisa con celeridad, se ha cargado los planes Marcianos de SpaceX por medio, pero hay que reconocer que está poniendo foco, que hacía falta.
Te recuerdo que una sola Starship lunar ya tiene 2/3 del volumen presurizado de toda la ISS. Y si se aprovecha el volumen de los depósitos pues muchísimo mas.
Simplemente falta enchufar algun kilopower para electricidad y calefacción y a correr. El plan de Jared es tenerlos operativos muy pronto.
El calendario de Jared no es realista en absoluto.
China va camino de un Apolo -bis.
https://www.space.com/astronomy/moon/china-first-astronaut-moon-landing-mission-rimae-bode
De momento no al polo sur.
Cuando hay tantos y si… es que de nombre es Isidro seguro,
«—Quede claro, querido Simone —le explicaba, habiendo pasado ya al tú—, que yo no fabrico
falsificaciones, sino nuevas copias de un documento auténtico que se ha perdido o que, por un trivial accidente, nunca ha llegado a ser producido pero que habría podido o debido serlo»
El Cementerio de Praga anticipando… en fin
un par de cosillas, mucho se critica lo de la calor de los satelites pero olvidais un par de cosas.
la primera es que space x ya mostró una patente para la disipacion del calor con unos radioadores especiales, es decir que todo esto lo esta rumiando spacex hace tiempo y ya tienen echos los deberes. no es un capricho de ahora.
En la patente se habla del diseño plano del satelite y usar la superficie del satelite a modo de radiador.
otra cosa, es el diseño del satelite, en la tierra los servidores se montan en rack de tamaño estandar con fuentes de alimentacion que pasan de 220 a 12 v, o 5v o menos y eso ya genera calor, en el espacio partes de los paneles solares con lo que la conversion ya genera menos calor y precisamente en la tierra como tiene que esta diseñado para el tamaño de los rack limita la forma, el diseño, incluso la forma de refrigacion.
SpaceX esta desarrollando sus propias gpu y tiene su propio diseño de satelite con lo que pueden optimizar el diñeso para la disipcion del calor ya que no estas limitado al estandar de los rack
evidentemtne usar gpu normales con diseños normales en el espacio como quieren hacer otras empresa limita mucho
Claro que sí. A Musk le ha faltado decir que además sus satélites irán con ziritione, así que no habrá ningún problema.
¿Una patente = Propaganda humorística de un utilitario? Te recomiendo que antes de andar yendo de sobrado (que oye, si tuvieras razón me parecería muy bien, pero no es el caso), por lo menos hagas el ejercicio de mirar la patente del sistema de refrigeración de SpaceX (está accesible online) y la analices on mentalidad científica. Pero claro, para eso hay que hacer un esfuerzo y es más sencillo hacer un chiste que, además, es injusto por falso y técnicamente incorrecto. Y no es «lo que dice Musk», son las patentes de SpaceX.
Te facilito la labor:
https://slate.greyb.com/app/patent/US11834205B1?utm_source=Insight_gate&utm_medium=top_ten_articles&utm_campaign=insightgate&utm_id=insightgate&_gl=1%2a19yh255%2a_ga%2aNTUwMzc5NTgwLjE3NzMwNTk5OTU.%2a_ga_PXHSWCGBMZ%2aczE3NzMwNTk5OTUkbzEkZzAkdDE3NzMwNTk5OTgkajU3JGwwJGgw
Gracias por el enlace.
Han patentado que la estructura del satélite se utilice como radiador. Vamos lo que hicieron los macbook pro con los chassis de aluminio ya hace muchos años.
Me da la sensación que va a ser una patente poco defendible.
Al fin y al cabo, SpaceX se ha montado un negociazo de satélites y estos necesitan de radiadores, van a optimizar el tema hasta donde puedan. Millones de satélites son muchos satélites. Negocio hay y lo va a haber. Si Starlink ya se cuentan por decenas de miles, estamos un par de órdenes de magnitud por debajo del millón.
Por favor, luego nos quejamos del «traje a medida» que nos hacen las redes. Es suficiente con «https://slate.greyb.com/app/patent/US11834205B1»
La ONU cada vez pinta menos. Yo sigo siendo partidario de un estado mundial confederal con un gobierno central menos poderoso que el de las naciones pero tampoco vacío de competencias. Cosas como la inteligencia artificial, la energía nuclear deben ser reguladas internacionalmente por un gobierno central. Aquí es donde meto a la política espacial. Una compañía puede hacer lo que quiera, lanzar miles de satélites, sin ninguna regulación y por supuesto sin pagar impuestos para sostener a ninguna ONU.
Gracias por el artículo y explicarlo bien. Es bueno escucharlo de alguien que sabe, para discernir de las mentiras q se van escuchando por ahí. Recuerdo hace unos años como una empresa decia tener una IA muy avanzada, recaudo mucho dinero y todo iba bien, pero luego empezó a surgir problemas a la hora de la falta de rentabilidad, así q ante la falta de nuevos inversores se destapó el gran fraude. Resulta que la empresa tenía miles de indios trabajando como supuesta IA, eran ellos los que respondían. Ahora se ha destapado q las Rayban de Meta acaban grabándolo todo, y q los datos, imágenes, acaban en África, creo que en Etiopía o Kenia, Ali unos trabajadores mal pagados, otra vez más, son los que acaban procesando las imágenes. Entonces para que la IA famosas???? Me parece claro que no solo es una burbuja, sino qu le es un verdadero timo, y ahora con el subidón de la energía q se viene puede que sea la punta que acabe pinchando el globo. Una IA no es un robot programado para responder a lo previamente programado, una IA, es un programo q sabe responder a situaciones a las que no fue programado. Pero como ha pasado en el pasado de varias IA que tuvieron que ser desconectadas al volverse locas, o eso dicen, entre ellas la de Microsoft que se volvió Nazi, para mí está claro el peligro y la dificultad de crear un ente inteligente y que no se vuelva contra este sistema corrupto, mentiroso, y otras cosas mucho peores q se están descubriendo. Suelta un avio bombardero para atacar otro país con bombas con una IA, que sepa tomar sus propias decisiones, quien te asegura que no de la vuelta y te tire a tu lado bombas porque considera que ti eres el agresor??? Mal pinta todo esto
La nube en el espacio, la Matrix de cómo van a trabajar los presidiarios todos en el mundo todo es acaso indestructible? No habrá sabotajes ni actos terroristas allí? Es ilimitada la energía en órbita? es acaso siquiera abundante? Blackout es todo lo que merecen los controladores que limitan a la órbita baja, su servovasallaje nos limita a neofeudalismo (Varoufakis de Grecia)
Increíble cómo se destinan millones para estas cosas y todavía no está resuelta el hambre en el mundo.
Bueno, por lo menos aquí estamos todos bastante de acuerdo en que estos nuevos proyectos sí que son una excusa de proporciones bíblicas para justificar el giro de rumbo obligado del proyecto Starship y su mal momentum actual (aunque en parte obligado debido al salto a las nuevas rampas de lanzamiento y a la nueva iteración de Starship, la V3). En otros canales de divulgación españoles he visto a SpaceX promocionar el vídeo y al divulgador soltar alabanzas a las propuestas.
Lo cierto es que el 13 de octubre de 2025 se produjo el último vuelo de un Starship (V2) y, por lo que parece, nos vamos a abril para el IFT-12 (y entre medias ha reventado una versión). Medio año de parón en un proyecto que en este 2026 debe demostrar un sinfín de promesas y al que empiezan a pesarle las fechas de entrega del programa Artemisa.
Pero bueno, volviendo al tema, lo cierto es que a día de hoy lo que se propone es ciencia ficción con realismo ambiguo y con toques de fantasía. Es decir, todo lo propuesto entra dentro de nuestro entendimiento de la tecnología, la física de materiales y el escalado de producción (menos lo de la autopista al espacio desde la Luna para satélites; por lo menos antes dadme una guía para hacer autoestop).
El tema es que, si se quieren alcanzar las promesas descritas en el artículo, los humanos deberíamos estar virando hacia una economía espacial súper fuerte; básicamente debería convertirse en el principal motor de la humanidad y conseguir una coordinación internacional única, cosa que la verdad pongo totalmente en duda que vaya a ocurrir en los próximos lustros. Lo que estoy viendo es que estamos volviendo a girar hacia economías de guerra que no aportan una mierda (lo siento, pero no he encontrado mejor palabra) al progreso humano ni a la estabilidad a largo plazo de la especie y que, además, cortan los vínculos de cooperación internacional.
En mi caso, más que poner en duda que las ideas sean imposibles (aunque habría mucho, mucho que demostrar), pongo más en duda que tengamos la capacidad ética, moral y geopolítica de poder llevarlo a cabo. Creo que los humanos somos mucho más capaces de lo que pensamos cuando actuamos en armonía, pero muy propensos a no querer mirar hacia el futuro.
+1