1080p y 30 fps estables

Digital Foundry analiza la demo de Killzone: Shadow Fall

Digital Foundry analiza la demo de Killzone: Shadow Fall

No sé si a vosotros os pasó lo mismo, pero el vídeo de Killzone: Shadow Fall que vimos en el evento de Sony me sorprendió más bien poco. Sí, todo se veía muy bien, pero si me llegan a decir que se trataba de un juego de esta generación, me lo hubiese creído sin problemas.

Sin embargo, yo soy un completo zote en lo que tiene que ver con cuestiones técnicas, así que me fiaré de la gente de Digital Foundry que ha estado analizando minuciosamente la demo del juego. La principal conclusión es que el juego se verá a 1080p y, si nada cambia, irá a 30 frames por segundo, sin bajar de esa cifra en ningún momento, pero lejos de los deseados 60 frames por segundo que nos hubiese gustado tener en esta generación.

Dicen también que el volumen de la geometría en pantalla, los efectos y la iluminación suponen un salto importante respecto a lo que hemos visto en la actual generación, aunque se sorprenden del uso de algunos trucos muy básicos para aliviar la carga de la CPU de PS4. Si os interesa el aspecto técnico de los juegos, en Eurogamer.net tenéis todos los detalles.

  1. Lockeric

    30 fps de MIERDA? Espero que sea porque es una alfa en un kit de desarrollo…

  2. dega

    Lockeric dijo:
    30 fps de MIERDA? Espero que sea porque es una alfa en un kit de desarrollo…

    THIS.

    Aunque se veia bastante fluido, 30 fps para una consola de next gen pues NO.

  3. Nolgans

    ya lo dijeron que kz4 iba a 1080p y 30 frames, tb solo usa 2gb de ram y esta hecho con los kit no finales que tiene una «GPU menos potente», dicho hace nada por un desarrolladore

    los kits finales empezaron a llegar a FINALES de ENERO de este año! para que os agais una IDEA de lo que habran podido usar la play4

    si con esto alguien DUDA que k4 ira a 60frames cuando este terminado va aviado

    ahora actualizo INFORMACION OFICIAL dada por sony

    que me da la RAZON en TODO lo que e dicho anterior mente

    la play4 trae una hd7870xt ultimas que han salido, pero que en vez de ir a 1ghz van a 800mhz, da un rendimiento BASE un poco menor que una hd7870xt

    las XT son una VERISON mejorada de las hd7870 tare mas nucleos de renderizdo

    otra: se decia que era una APU de portatil, sony dice que la base es uan APU que amd utilizara para portatiles, solo que cambiada y mejorada y en vez de usar una GPU de prtatil usan una GPU NORMAL, esa es una de las modificaciones

    aqui teneis parte del TEXTO traducido

    «Veamos, GCN, la arquitectura que se utiliza la serie de GPUs con nombre en código «Southern Islands» es la usada en la gpu de PS4, está equipado con una gpu con 18 unidades de computo GCN, cada una de ellas es un procesador escalar de punto flotante de 32bits, con 4 pares de conjuntos de 16sp (stream o shader procesor), la APU de PS4, estará equipado con un conjunto total de 1152sp que nos lo da el siguiente calculo 16 x 4 x 18 = 1152sp. Esta gpu pertenece especificamente a la serie Radeon HD 7800 y se encuentra en rendimiento entre una hd7850 (1024sp) y el de una hd7870 (1280sp) por lo que se consideraria una version recortada de esta ultima y funcionando a una menor frecuencia (la gpu de PS4 funciona a 800mHz y el nucleo de una hd7870 de ultima hornada funciona a 1GHz )»

    cuando dice ultima ornadda de las hd7870 se refiere a las ultimas hd7870xt que tiene mas nucleos de renderizado

    «PS3 tiene una potencia de computo 224 GFLOPS.
    Y por ende haciendo un calculo teorico comparativo si la GPU en PS4 da 1,84 TFLOPS, esta entrega aproximadamente ocho veces el rendimiento de la GPU en comparación con PS3. »

    comparativa de potencia vs play3 vs play4

    224 Gfops vs 1,84 Tflops

    la memoria ya sabemos, eso ni se comenta ya, o hace falta explicar la diferencia play3 vs play4 en tema memoria?

    o sea CONFIRMA TODO lo que YO! decia, hay mas en la entreista, pero no esta traducido, y solo e cojido este extracto de lo que e leido, habla mas tb de la jaguar CPU y sus mejoras frente a la version pc etc etc

    a ver si traducen mas

    espero que os guste esta informacion dicha por sony

  4. Aurum

    Es que saltar de 30 a 60 frames no es moco de pavo. Además de que vamos a estar siempre igual, 30 frames con más calidad gráfica o 60 con menos. Los desarroladores decidirán si esa fluidez merece la pena para sacrificar efectos que podrían añadir si el juego funcionase a 30 fps.

  5. Nolgans

    +1@aurum

    ————————–

    en fin que me pongan negativos por la informacion que traigo, solo porque NO guste que TENGA razon , da PENA de la gente que me pone el negativo, rezare unas plegaria por estas personas

    jajajajajaj

    yo siempre digo, el tiempo da la razon a quien la tiene, y yo nunca digo mentiras o me invento cosas, siempre cuando hablo es porque tengo uma base de donde me informo, + – seria y fiable

    saludetes y ala a ponerme mas negativos que asi me dais mas la razon 😉

  6. Nolgans

    basicamente esta es la GPU que trae play4

    http://www.pccomponentes.com/sapphire_radeon_hd_7870_ghz_edition_2gb_gddr5.html

    pero en vez de 1ghz va 800mhz y en vez de 2gb gddr5 trae 8gb gddr5

  7. Leonighart

    Yo sigo sin entender por qué se ve mejor un video a 60fps que a 30fps si el ojo humano sólo aprecia 24fps… Pero lo cierto es que es una realidad.

    EDIT: de hecho estoy empezando a dudar si no eran sólo 18fps los que ve el ojo humano…

    Ah, tampoco entiendo que sentido tiene votar negativo el doblepost de @nolgans, eso ya es de heaters.

  8. Jack Wade

    Querido @nolgans… CANSAS.

    Un único apunte, la ‘h’ del verbo haber existe, las tildes existen y Killzone 4 muy probablemente irá a 30 fps en su versión final.

  9. Wolverjim

    alplayer dijo:
    @nolgans

    A ver si te enteras hombre de dios que los 8 GB no son sólo de la gráfica, si no también de la Ram, es la memoria global del sistema, tanto de la GPU como de la RAM, que te crees que la PS4 monta una gráfica de 8 GB jajaja

    No se cuánto dedicarán a sistema y cuánto a juegos, pero ahí está la clave, y deja de ser tan sonyer por dios, da asco

    Se dicen que ya han hallado carne de caballo en la RAM de PS4. Carne de caballo a 30fps…

  10. Klaus Daimler

    El principal uso de los 60f no era precisamente el 3D? O Sony ya no va a seguir dando la lata con esto? Ei que a mi bien por cierto

    @alplayer @jack_wade
    Le estais diciendo que no se entera a un tio que cree que el sida es un invento y que en la antartida hay una selva tropical. Creeis que es capaz de leerlos?

  11. Jack Wade

    @leonighart

    Aquí tienes un buen artículo al respecto: http://bit.ly/YRdbRt

    Para ver diferentes ejemplos de tasas de refresco: http://bit.ly/e9KfSi

  12. ManuMair

    Nolgan, está ya la gente hasta el mismo colgajo de entre las piernas de decirte que los 8GB de RAM no son de la gráfica, que son compartidos, pero tu a lo tuyo.

  13. tecnical

    Leonighart dijo:
    Yo sigo sin entender por qué se ve mejor un video a 60fps que a 30fps si el ojo humano sólo aprecia 24fps… Pero lo cierto es que es una realidad.

    EDIT: de hecho estoy empezando a dudar si no eran sólo 18fps los que ve el ojo humano…

    Ah, tampoco entiendo que sentido tiene votar negativo el doblepost de @nolgans, eso ya es de heaters.

    El ojo humano “distingue” hasta los 60fps. Los 24fps son debidos al alto coste inicial que suponía en los principios de la industria del cine las bobinas, entonces después de ciertas pruebas, llegaron a la conclusión que los fps mínimos para una experiencia aceptable eran los 24, eso no significa que el ojo no pudiera distinguir más (para ejemplo el Hobbit 48fps y hay opiniones buenas y malas, pero se nota la diferencia). A partir de los 60fps la mejora o la percepción de mejora se pierde.

  14. csz

    Leonighart dijo:
    Yo sigo sin entender por qué se ve mejor un video a 60fps que a 30fps si el ojo humano sólo aprecia 24fps… Pero lo cierto es que es una realidad.

    EDIT: de hecho estoy empezando a dudar si no eran sólo 18fps los que ve el ojo humano…

    Ni 18 ni 24 ni nada, el ojo humano (el cerebro humano, mejor disho) no sabe de fps, olvida esa fórmula mágica, el tema es más complicado que todo eso.

    Bueno, es complicado entenderlo, porque en la práctica es muy fácil, ponte el mismo juego a 30 y 60 y experimenta tú mismo si hay o no diferencia.

  15. Leonighart

    Jack Wade dijo:
    @leonighart

    Aquí tienes un buen artículo al respecto: http://bit.ly/YRdbRt

    Para ver diferentes ejemplos de tasas de refresco: http://bit.ly/e9KfSi

    Vale, creo que lo he entendido… más o menos.

  16. Rustgladiator

    @nolgans

    Siempre me ha parecido brutal, el como te expresas y tal, y soy muy fan . Pero tio , afloja un punto con la prepotencia , o con tener o no razon, que la play 4 va a ser un pepino, estoy mas que de acuerdo, que para comprar un pc y tener que estar a los 2 años actualizandole cosas, para que vaya a full, me compro la play 4 y estoy 8 años jugando sin preocupaciones es algo que ya se , y por culo al pc. Pero aun asi no te exites tanto con tener razon.

    Ojo que tienes tu razon y no te la quito, pero no tienes que demostrar nada a nadie, el tiempo da y quita razones.

    Es mi opinion.

    Nolgans forever XD

  17. Napo2k

    Nolgans dijo:
    en vez de 2gb gddr5 trae 8gb gddr5

    Como dice @alplayer, los 8 GB de memoria son unificados para todo el sistema, no son sólo memoria gráfica. Eso quiere decir esos 8GB de memoria irán destinados a más cosas a parte de almacenar texturas. Mucho ojito porque son cosas muy distintas.

    nolgans dijo:
    PS3 tiene una potencia de computo 224 GFLOPS.
    Y por ende haciendo un calculo teorico comparativo si la GPU en PS4 da 1,84 TFLOPS, esta entrega aproximadamente ocho veces el rendimiento de la GPU en comparación con PS3

    Columpiada… Básicamente lo que acabas de hacer es comparar velocidad de procesamiento de GPU con velocidad de procesamiento de CPU. Peras con manzanas. Churras con merinas.

    Extraído de aquí y de otros sitios que enlazo más adelante.

    La GPU de la PS3 es tal que así

    GPU: RSX @550MHz
    1.8 TFLOPS floating point performance
    Full HD (up to 1080p) x 2 channels
    Multi-way programmable parallel floating point shader pipelines

    Con lo cual, la diferencia en velocidad de proceso (que no es, en absoluto, el cuello de botella) es prácticamente inapreciable. Casi podríamos decir que, en la práctica, el procesador gráfico de ambas consolas es el mismo.

    Por otro lado, la CPU de la PS3 es tal que así (Wikipedia, especificaciones técnicas del chip CELL, de IBM):

    PlayStation 3’s Cell CPU achieves a theoretical maximum of 230.4 GFLOPS in single precision floating point operations and up to 100 GFLOPS double precision using iterative refinement for the solution of linear equations.

    Y todavía no se sabe cuál es este rendimiento teórico de la CPU de la PS4 ya que, hasta donde conozco, no ha aparecido nada al respecto. Si me equivoco, por favor, házmelo saber. Es muy probable que cuando den el dato, se refieran a las operaciones en punto flotante de precisión simple, porque será un número mayor, y ya sabemos todos que esto va de medirse la chorra a ver cuál es más grande.

    Así pues. Donde hay un salto MUY grande es en la memoria RAM, que pasa a tener una velocidad ostensiblemente mayor que en la presente generación, amén de haberse muchiplicado (xD). Esto no hace que la CPU vaya más rápido per se (tendrá la frecuencia de reloj que sea), si no que lo que permite es que lea y escriba datos más rápido.

    Tú, @nolgans, que siempre dices que argumentemos y eso, ahí tienes. También por curiosidad, ¿puedes enlazar al texto ese que has traducido con la info que ha dado Sony? El de

    Veamos, GCN, la arquitectura que se utiliza la serie de GPUs con nombre en código «Southern Islands» (…)

  18. Arthok

    @rustgladiator
    Se le permitiría si de verdad tuviese razón, pero es que no tiene, porque todo lo que pone es siempre leído de otras páginas webs, de rumores y datos de otra gente =/
    Es lo que mayormente molesta de su actitud. Y muchas veces ni sabe que significa todo eso, y suelta burradas en plan gráfica PS4 > GTX Titan (almenos en memoria).
    Eso, y que escribe horriblemente mal.

  19. Sephirot's blade

    Cuatrocientos núcleos, tropocientos gigas de RAM, memoria ultrarápida y mil mierdas en vinagre para seguir viendo los juegos a 30 frames?

    http://www.youtube.com/watch?v=nwLoqH6fA4M

  20. Rustgladiator

    Personalmente.las faltas de ortografia me dan igual, una persona puede ser sabio sin ni siquiera saber escribir ( mis abuelos por ejemplo) no voy de hipter histérico con eso. Es mi opinión . Pero si ya se pone pesado con datos locos, aunque sigo pensando que ahora mismo prefiero una ps4 que un pc que luego se te queda corto con los años

  21. AdrianXunkeira

    PS4 es un pepino pero lo mostrado…mehh…

    Me impresiona bastante más The Last of Us en conjunto que cualquier cosa de las vistas en la presentación. Sony haría bien parando su lanzamiento en PS3 y sacarlo de salida en PS4.

  22. Preacher (Baneado)

    Los fps no venden juegos, los gráficos sí. Los 30 fps van a seguir siendo el estándar, esto es así, y me alegro de que personalmente a mí me importe un carajo. Mientras la imagen sea estable y no se caiga por debajo de los 30 a mí me da igual que el framerate sea 35, 40, 50 o 500. Más me molesta el tearing o la hoja de sierra, la verdad.

  23. nu_kru

    @nolgans
    a lo que tu llamas una 7870 bajada de vueltas, supone que tiene un 30% menos de potencia en bruto, mas parecida a una 7850 que a una 7870 (1.84Teraflops vs 2,4Teraflops)

    Luego si se investiga un poco, uno se da cuenta porque han incluido memoria gddr5 en vez de ddr3, que casualmente esta es muchisima mejor para las cpu ya que la latencia es tremendamente menor, mientras que en gddr5 la latencia es bastante mas alta a cambio de un ancho de banda mas grande, cosa que beneficia a las graficas a la hora de machacar datos en paralelo.

    Como se ha demostrado en las apus de amd, el ancho de banda es un factor importantisimo, que juega directamente con el rendimiento sacado, lo cual es lógico ya que sino estarías haciendo un cuello de botella tremendo en la parte gráfica.

    Luego por otro lado parece estar la solución de durango, que parece ser que incluira ddr3, a cambio de tener 32 megas esdram, la cual es brutalmente rápida (un ciclo de latencia)

  24. Lockeric

    Killzone Shadow FAIL.

    Se ha hecho ya la broma?

  25. marcmago

    mi unico analisis del juego fue «esto ya lo he jugado», y los graficos los veo bien sobretodo cuando se ve toda la ciudad desde el helicoptero.

  26. timofonic

    @nolgans

    Sólo te quiero decir una cosa, con mi más profundo y puro amor hacia tí…

    CÁLLATE, GILIPOLLAS

    Suicídate o búscate una vida, o monta una secta holística y así nos quitas a unos cuantos gilipollas de encima (cuando consigas que te donen sus pertenencias y se suiciden, aunque no creo que seas lo suficientemente inteligente como para lograrlo).

  27. METALMAN

    @leonighart

    Hasta donde yo tengo entendido, el ojo humano es capaz de distinguir 60 imágenes por segundo (aún inconscientemente, digamos que las podríamos detectar una a una), eso no quita que la sensación de velocidad o suavidad sea mayor en 80 o a 120 (aunque nuestro cerebro no pueda separarlas en tiempo real, percibe más imágenes y más sensación de fluidez, menos parpadeos entre imagen e imagen.)

    Si en Pc juegas a algún título que rule a más de 60 imágenes después de jugar a otro que solo funcione a 60, en el primero te va a dar más sensación de fluidez al girar la cámara, aunque no vas a poder percibir si funcionaba a 60 a 80 o a 120……no puedes contabilizarlo, pero si percibirlo (llegará un momento en el que ni el ojo ni el cerebro puedan diferenciar velocidades, pero no se cual es el tope real). A 30 imágenes existe un efecto de ghosting (al girar rápido dejamos estela de la imagen anterior) que no percibimos a 60 (o se percibe en un grado mucho menor).

    Un saludo!

  28. 1130cc (Baneado)

    [quote=»Nolgans»]

    Tío, creo ke no te enteras de la misa la mitad…..No es que te voten «negativo» por la veracidad o no de tu información……ES QUE ESTAN HASTA LOS HUEVOS DE LEER TUS JODIDAS TROLLADAS….

    PD: Eres tan inteligente ke se ríen de tí día sí y día también y no te enteras…..44 tacos por el retrete…..Aún no lo pillas???

  29. 1130cc (Baneado)

    Joder, como no voy a ser jugador de consolas si mi PC no mueve sikiera bien el Angry Birds…!!! xDDD

  30. Arthok

    @timofonic
    Ahí te has pasado, tío. Una cosa es reirnos de las tonterías, otra insultar porque si =/

  31. Roibot

    timofonic dijo:
    @nolgans

    Sólo te quiero decir una cosa, con mi más profundo y puro amor hacia tí…

    CÁLLATE, GILIPOLLAS

    Suicídate o búscate una vida, o monta una secta holística y así nos quitas a unos cuantos gilipollas de encima (cuando consigas que te donen sus pertenencias y se suiciden, aunque no creo que seas lo suficientemente inteligente como para lograrlo).

    Vale, nolgan es un cargante, pero que yo sepa no ha insultado nunca a nadie de esa manera. Eres un impresentable: -1

  32. IronicSonic

    marcmago dijo:
    mi unico analisis del juego fue «esto ya lo he jugado».

    Esto.

    Aunque tengo de que la experiencia en vivo si será de impresión

  33. Leonighart

    @metalman

    Sí, debí de entenderlo mal al profesor cuando lo explicó en clase. Lo mencionó sólo como una anécdota sobre que a la mayoría de los perros se la trae al pairo la tele. Lo que debió decir es que, el cerebro humano percibe como video a partir de Xfps, mientras que los perros lo hacen a 7x o más y por eso a los perros no les interesa la televisión, porque no ven video, sino una sucesión de imágenes sin demasiado interés.

    Sí, tiene mucha pinta de ser eso.

  34. timofonic

    @Roibot dijo:

    timofonic dijo:
    @nolgans

    Sólo te quiero decir una cosa, con mi más profundo y puro amor hacia tí…

    CÁLLATE, GILIPOLLAS

    Suicídate o búscate una vida, o monta una secta holística y así nos quitas a unos cuantos gilipollas de encima (cuando consigas que te donen sus pertenencias y se suiciden, aunque no creo que seas lo suficientemente inteligente como para lograrlo).

    Vale, nolgan es un cargante, pero que yo sepa no ha insultado nunca a nadie de esa manera. Eres un impresentable: -1

    @Arthok dijo:
    @timofonic
    Ahí te has pasado, tío. Una cosa es reirnos de las tonterías, otra insultar porque si =/

    ¿Sabes lo que os digo a lo de lo políticamente correcto? Que os den, antes nadie se la cogía con papel de fumar y tenía muchísimo más estilo. Ahora esto parece una Meristation descafeinada.

    No insulto porque sí, se insulta a un completo gilipollas que es tolerado para proliferar el más puro amarillismo en la web. Así que tan gilipollas me parece él como quienes lo toleran.

    Prefiero ser un impresentable a ser un capullo que aguanta a semejantes personajes, así nos va el mundo. Mucha tolerancia, pero toleramos a los imbéciles que vienen a tocarnos los cojones y hacer todo mal o soltar gilipolleces. Tenemos los políticos y compañeros que nos merecemos.

    Seguid así, con la idiotez esta de los votos negativos, con tolerar a cualquier estúpido y sin reaccionar ante la enorme cantidad de mierda que os sueltan. Vais a acabar igual que ellos o peor aún, lobotomizados perdidos.

    AnaitGames, tú antes molabas.

  35. Arthok

    @timofonic
    Ahora mismo estás siendo más estúpido tu que @nolgans =/ No se como lo ves.

  36. Roibot

    @timofonic Es muy gracioso oírte hablar de estilo mientras dices esas memeces. Impresentable, insisto.