¿Podrías ser este el verdadero motivo de los continuos retrasos del 64DD?

En una entrevista en 1998 para la revista Digital Héroes Yoshio Hondo, el jefe de relaciones públicas de Nintendo de la época, comenta que el 64DD está listo, pero que están a la espera de que las ventas de N64 despeguen ya que según sus estimaciones necesitaban un mínimo de 6 millones de consolas en Japón para que lanzar el 64DD con juegos tuviese sentido (spoiler, al final de su vida N64 solo alcanzó 5,54 millones de consolas en Japón, si sacaron en 1999 el cacharro fue o por cabezonería, o por orgullo)

7 Me gusta

Qué coño es ese bicho

El origen de Animal Crossing.

Entonces nunca estuvo listo

1 me gusta

Un lector de discos magnéticos.

Iban a salir juegos en cartucho + diskete para suplir la carencia extrema de espacio de los cartuchos.

Peeero el 64DD sólo tenía hasta 64MB por cartucho, por lo que aún haciendo todo esta mareada y gasto de dinero, sólo doblarías el espacio del cartucho más grande (RE2 ocupa 64MB)

N64 se diseñó para vendértela en partes, la consola base primero, y luego le pondrías la expansión de RAM y el lector de disketes para completarla :no_mouth:

2 Me gusta

Y 20 años despues, nintendo te saca una rom que se ve peor que la version original corriendo en un hardware de hace dos décadas.

Nintendo nunca cambia

6 Me gusta

La idea del 64DD era ofrecer disquetes de 64MB que serían más baratos que usar un cartucho del mismo tamaño, de hecho según la entrevista del vídeo la idea de Nintendo era sacar también disquetes en blanco que la gente pudiese grabar con juegos en las tiendas, y tras los distintos leaks de Nintendo se vio que según la documentación se permitía disquetes de 256MB, es decir, 4 veces el tamaño del cartucho de RE2, por lo que de haber salido bien en ventas N64 y haber sacado a tiempo el 64DD muchos juegos juegos que salían con recortes de cinemáticas o sonido podrían haber salido sin muchos problemas en la consola.

2 Me gusta

Disquetes gordos con una fracción del espacio de un cd, aunque al menos permitían guardar datos más allá de unos kb de una memory card.

Otra brillante idea de nintendo.

Sí, pero sin olvidar que meterle la mitad de RAM de base le dividía el ancho de banda, que ya era un cuello de botella, dividiendo a la mitad el rendimiento al usar (obligatoriamente) antialiasing y filtro de texturas.

Además respecto al diseño de silicon graphics, en vez de usar SDRAM que era la buena y no sumaba latencia por cada chip en serie porque iba en paralelo, racanearon usando la mierda de rambus, que tuvieron los cojones de vender como una mejora. Eso le disparó la latencia, que también era un cuello de botella por ser unificada y la interfaz lenta entre la CPU y el casi SOC (era SOC menos la cpu)

Silicon quería revisar la baja velocidad de ese puente pero hubiera retrasado la consola planeada para el 95… no sabían que se iría al 96.

Una cagada detrás de otra es lo que fue esa consola. Y quizá lo más grave fue no tener una unidad de cd como complemento el día uno, estilo 64dd o mega cd. Eso le cerró la puerta a muchos multiplataformas.

Todos esos problemas y además cambiar a un modelo de cpu peor que el que planeaba silicon graphics hizo que el primer devkit fuera más del doble de potente que la consola, jodiendo a los desarrolladores y retrasándolo todo.

1 me gusta

Además sumale Nintendo retrasando el 64DD hasta conseguir las 6 millones de N64 para no repetir los errores de SEGA. Y cierto, no los repitieron, estaban haciendo otros nuevos.

Entre eso y SEGA con la idea del 64x para convertir Saturn en una consola “similar” a N64 normal que SONY campase a sus anchas con su primera consola.

1 me gusta

a veces pienso cómo cambiaría la historia modificando la hoja de ruta de cada consola 2 años hacia arriba o hacia abajo, pillando a tiempo los grandes saltos o evitando los sobrecostes de la novedad y luego sacando algo pulido (por ejemplo los 2 años entre n64 y dreamcast fueron un mundo de diferencias), y sobre todo por el tick tock.

el caso opuesto a dreamcast fue la snes respecto a megadrive, ahí fue nintendo nintendeando buscando ahorrar costes. y la idea original de que la cpu fuera un motorola 68.000 como el de megadrive (y neo geo) al final nada, fue compatible con el clon del 6502 de la de nes, la del apple del 87 creo, para no volver a reprogramar en lo posible y tirar de frecuencia, sólo aprovechando la nueva gpu y sonido y ram. nintendadas.

si la megadrive hubiera salido en el 90 hubieran pillado un salto tick tock y salido con el doble de ram, gpu mejor que la de snes y cercana o igual a la de neo geo (89 y creo que con el nodo anterior), y si además sega hubiera hecho el experimento de tener ventilación activa en la cpu (como en consolas como ps2 en adelante, creo que antes no se hacía), megadrive hubiera sido una neo geo en casa, y seguramente con más botones en el mando de salida por copiar el de snes aunque fuera a última hora añadiendo los conocidos x y z =L, R y select.

Entonces la hoja de ruta de sega hubiera apuntado al 96 en vez de al 94, seguramente sí hubieran aceptado el proyecto de nintendo 64 a silicon graphics (que estos revisaron por sugerencias de sega), y no hubieran hecho las racaneadas de nintendo, sacándola con toda la ram planeada (el expansion pack) de tipo sdram, y sin recortar el modelo de cpu, y al no apuntar al 95 s.g. hubiera revisado la interfaz cpu-semiSoc, y al apuntar al 96 con otro nodo la cpu sabrían que iba a costar menos. Y no hubieran forzado el AA ni bilineal.

esos 2 años de ventaja para ver cómo evolucionaba la cosa con el mega cd y acumular catálogo, y 2 años haciendo que el 32x sirviera de algo, hubieran impedido que perdieran credibilidad.

el coste de la consola haría que fuera planeada para cartuchos, pero tendría un mega cd el día 1. a sega le chinchaba ken kutaragi (diseñador de psx) diciéndoles que ellos tenían integración vertical, que cancelaran saturn y sacaran sus juegos en psx, que les iba a costar un tercio más que a ellos cada consola. así que les hubieran tomado la palabra con otro mega cd tras asentarse el anterior, evitando el coste del cdrom.

Final fantasy 7 se hubiera parecido más al ocarina (como la demo técnica de n64), y no hubiera tenido cinemáticas ni bso orquestada, pero el 8 se hubiera hecho para el mega cd de sega 64.

dreamcast hubiera salido en 2001 para tener un salto de nodo respecto a ps2, como le pasó a gamecube y xbox.

microsoft tanteó el terreno con dreamcast haciéndole el s.o. y herramientas, así que xbox se hubiera retrasado a 2.003 (otro salto de nodo) y hubiera salido con 128 mb en dual channel, duplicando el ancho de banda para aguantar 720p, y soportando directx 9 por hardware (y si no me equivoco eso implica directx9c, que era el nivel de api de ps3 pero por open gl)

entre la api y la resolución (por vídeo compuesto) hubiera aguantado un año extra fácil (respecto a los 4 de la primera xbox). entonces en 2.008 hubiera salido la sucesora 360, un salto de nodo después de ps3, con el doble de ram (que iban muy cortas para texturas y lightmaps la 360 y ps3, y bethesda dando por culo con los saves), y ese año las gpus de nvidia pegaron un subidón de los que se dan cada mucho tiempo coincidiendo factores, y es la gpu que hubiera estrenado. CUDA/open CL/GPGPU incluído.

Sega se hubiera hecho third con pc y xbox del mismo modo que ms le tocó a la puerta poniendo millones para recibir cosas como los shenmue y jet set radio, al verse sega luchando contra sony, nintendo y microsoft se hubiera cagado, pero no sería por estar arruinada. aunque sí le hubiera pasado factura el fin de los arcades.

shenmue hubiera estado diseñado para la potencia de n64 x2, reduciendo costes y saliendo un año antes de la sucesora, o antes, en el 99 precisamente por ser un desarrollo más rápido y barato gráficamente.

el misterio es qué hubiese sido de nintendo sin el hardware de silicon graphics. snes vendía muy bien, sólo estaban asustados del cdrom, 3do, la posible entrada de NEC con consola propia, y luego sony al romper el acuerdo. pero snes aguantaba.

tal vez n64 hubiera llevado un SH2 con nodo del 96 y mayor frecuencia, pero no 2 para no complicar a los programadores, una gpu voodoo que lo petaba en el 96, y hubiera salido en el 97. para entonces seguramente ya tendrían compilador de C y API de bibliotecas para el SH2, un problema que tuvo saturn al principio (y les empujó hacia microsoft y directx).

con ese ciclo de vida gamecube podría haber apuntado a 2.002 o 2.003 más probablemente (por nodo y por abaratarse a 1/4 los chips respecto a ps2, y también abaratarse el dvd)

3 Me gusta

Te ha faltado decir que si se hubiese dado todo esto, Squaresoft nunca hubiera hecho la pelicula de Final Fantasy en el 2001, ya que hubiera estado haciendo videojuegos y nunca hubiera entrado en quiebra para posteriormente unirse a Enix y bajando el nivel general de las dos empresas, y ahorrandonos algunos disgustos

1 me gusta

No se yo, Nintendo le tenía pánico al CD, cuando aún estaban con el SNES PlayStation su idea era que los CD, en la línea de lo que haría SONY con el UMD, fuesen en carcasas de plástico protectoras

Y dicen las malas lenguas que así podían incluir sus CIC anticopia como parte del mecanismo del CD para frenar la piratería, pero lo mires por donde lo mires huele a que es bastante más caro que usar el CD “a pelo”

También como curiosidad, lo de los 64bit de N64 maravillosa jugada de Marketing, si, la CPU es de 64bit, pero en juegos solo usa instrucciones de 32bit, las de 64 solo se usan para las comunicaciones con el 64DD :rofl:

2 Me gusta

había mucho hype con el cd, pero a miyamoto no le gustaba por los tiempos de carga y quitar ram a los juegos para hacer buffer.

a lo que le tenía pánico el presidente de nintendo era a NEC, y por eso lo usaron como proveedor para n64. nec podría haber sido igual o peor que sony. en un año metían en i+d más dinero del que ganaba nintendo en un año (hasta el año noventaypico).

esa es otra, los chips de nec estaban con un nodo de retraso y la frecuencia era un 20% menor en sus chips de ram. y la n64 lo tenía todo sincronizado, no era como en un pc, así que eso también capaba todo el sistema. al menos creo que la diferencia de frecuencia se debía al nodo. pero también explicaría que al tener la mitad de densidad usaran rambus en vez de sdram (creo que esta era de philips o panasonic) y la mitad de chips, para no salirse del presupuesto, usar a nec e incluso ahorrar por no ser la ram nueva.

1 me gusta

Lo de que el presidente en aquel entonces, Hiroshi Yamauchi, le tuviera miedo a NEC normal, ya le chantajearon cuando diseñaron la Game Boy para que usase sus pantallas de mierda en lugar de las de la empresa Citizen, la cual acabaría creando la pantalla de la Game Gear y la Nomad :clap:

no fue un chantaje, incluso el presidente llegó a cancelar la game boy por la pantalla putapénica.

los ingenieros se encabezonaron y siguieron en secreto con ello hasta enseñarle una versión mejorada con la nueva pantalla que acababa de salir. no recuerdo si de nec o de citizen. esa sí tenía suficiente contraste y dio luz verde. no los crujió por desobedecer.

era ligeramente menos putapénica y como apple = nintendo pues la religión de fans se la compró en masa porque tenía el logo de nintendo.

lo de las pilas era insistencia del diseñador de game boy, quería autonomía, y eso era un problema con las pantallas de nomad.

Si y no, Nintendo casi tenía cerrado un acuerdo con Citizen, y según salían del despacho de Yamauchi entraron dos representantes de NEC y después de dos horas cuando salieron las órdenes eran usar la tecnología de NEC y darles la patada sutilmente a Citizen.

Su “solución” fue decirles que tenían en mente algo más grande que Game Boy y que necesitarían sus carísimas pantallas LCD a color e incluso mandarles fichas de diseño falsas con el diseño y supuestas especificaciones de la consola, y para echar más sal en la herida cuando en Nintendo vieron la Game Gear vieron que gran parte de las ideas y conceptos de la consola falsa que le enseñaron a Citizen estaban ahí, pero obviamente se hicieron los tontos al respecto.

eso descarta lo de que fuera por la autonomía que siempre se ha dicho.

pero eso no fue un chantaje, lo que había era una enorme diferencia de precio, que era casi la misma tecnología de los relojes casio de dos mil pesetas (12€)

sin embargo luego vio que era un desastre de pantalla y directamente canceló la consola, como decía, hasta que le enseñaron la nueva pantalla de cristal líquido con más contraste y dio el ok.

si fuera un chantaje nunca hubiera echado el candado.

Esto es algo que no he entendido nunca… ¿Por qué las revistas de su época y tal siempre decían que Perfect Dark tenía 512 megas si en los cartuchos solo cabían 64 megas?

Y de RE 2 también lo leí, y de Majora… Recuerdo perfectamente como en las previews decían varías veces que Majora tendría el doble de megas que Ocarina que tenía 128.

Citizen pedía 1300¥ por la pantalla en blanco y negro (nada de verde) y 3900¥ por la misma pantalla a color, NEC le cobraba a Nintendo entre 1500 y 1700¥ por pantalla.

Aparte que algun acuerdo oscuro tenían que tener ya que también le fabricaban a Nintendo los combos de TV + NES/SNES o más reciente las cámaras de la 3DS.

@sagadazaki en aquella época median la capacidad de los cartuchos en Mb, en lugar de MB, ya que 8Mb=1MB, de ahí que un cartucho de 512Mb se queda en 64MB. Algo similar hacen las compañías de Internet que miden la velocidad en Mb, pero tú PC/Consola lo muestra en MB.

1 me gusta