Foros

¿El uso de la GPU M1 resta valor al grupo de memoria?

METRO

majormike

Poster original
15 de mayo de 2012
  • 31 de enero de 2021
Hola,

¿Cuánta memoria RAM ocupa el M1 del grupo de memoria para ejecutar la GPU?

Quiero conseguirlo para la producción musical y estaría contento con 16 gigas, pero no estoy seguro de cuánta memoria usa la GPU, especialmente con una pantalla externa.

warp9

8 de junio de 2017
  • 31 de enero de 2021
Solo requiere unos pocos megabytes para ejecutar una pantalla, pero las GPU también se utilizan para aprendizaje automático, matrices de píxeles y cálculos especializados. Realmente depende del software que esté utilizando.

Mire a su alrededor en las preferencias y vea si puede detectar la configuración de la GPU. Por ejemplo, Photoshop puede hacer un uso intensivo de las GPU, pero también se puede desactivar.
Reacciones:blindado EN

Wizec

30 de junio de 2019


  • 31 de enero de 2021
Para jugar a 1080p con una configuración de gráficos alta o muy con AA encendido, necesitará una memoria de video de 4GB a 6GB

¿Cuánta memoria de video (VRAM) necesita para juegos en 2021?

Descubra cuánta memoria de video (VRAM) necesita en una tarjeta gráfica para jugar con diferentes resoluciones y configuraciones de gráficos para los últimos juegos AAA de hoy en día. La memoria de video o VRAM es una DRAM (RAM dinámica) de alta velocidad que se usa en tarjetas gráficas discretas o tarjetas de video. Esta es una memoria intermedia, solo ... graphicscardhub.com
si no está jugando, probablemente solo unos pocos cientos de MB, dependiendo de la resolución y la profundidad de color de su monitor. Sin embargo, una vez que llega a 4K y millones de colores, puede aumentar mucho, incluso para tareas como la navegación web:

El único problema potencial que encontramos fue durante las pruebas de navegación web 4k donde nuestro registro mostró que las tarjetas de video usaban hasta 1.260 MB de memoria de video. Para poner esto en perspectiva, esto es aproximadamente 3 veces más memoria de video que se habría usado si hubiéramos realizado las mismas tareas en un monitor de 1080p.

Requisitos y uso del monitor 4K

Las pantallas 4k tienen aproximadamente cuatro veces la cantidad de píxeles que una pantalla estándar de 1080p, lo que da como resultado una gran mejora en la calidad de la imagen. Pero dado que la tecnología aún es relativamente nueva, hay muchas preguntas y malentendidos sobre lo que necesita para ejecutar un monitor 4k. Con el fin de... www.pugetsystems.com Última edición: 31 de enero de 2021
Reacciones:Tagbert LOS

leman

Oct 14, 2008
  • Feb 1, 2021
majormike said: Hi,

¿Cuánta memoria RAM ocupa el M1 del grupo de memoria para ejecutar la GPU?

Quiero conseguirlo para la producción musical y estaría contento con 16 gigas, pero no estoy seguro de cuánta memoria usa la GPU, especialmente con una pantalla externa.

No me preocuparía por esto. Todos los sistemas reservan algo de memoria para hacer frente a las funciones básicas, M1 no se diferencia demasiado de las máquinas Intel en este aspecto. La GPU no canibalizará su RAM. Sin mencionar que su software de producción musical probablemente use la GPU para realizar el procesamiento. METRO

Modernape

21 de junio de 2010
  • Feb 1, 2021
La GPU M1 no tiene RAM asignada como las máquinas Intel, donde la GPU tendría quizás 1,5 GB reservados que, por lo tanto, la CPU no podría usar. Si no está utilizando la GPU con tanta fuerza, tendrá la mayor parte de la RAM disponible para la CPU.
Reacciones:mds1256 y LeeW LOS

leman

Oct 14, 2008
  • Feb 1, 2021
Modernape dijo: La GPU M1 no tiene RAM asignada como las máquinas Intel, donde la GPU quizás habría reservado 1.5GB que la CPU por lo tanto no podría usar. Si no está utilizando la GPU con tanta fuerza, tendrá la mayor parte de la RAM disponible para la CPU.

¿Cómo sabes esto? METRO

Modernape

21 de junio de 2010
  • Feb 1, 2021
leman dijo: ¿Cómo sabes esto?
Arquitectura de memoria unificada m1 soc - Búsqueda de Google
Reacciones:mds1256, chabig y consumeritis LOS

leman

Oct 14, 2008
  • Feb 1, 2021
Modernape dijo: Arquitectura de memoria unificada m1 soc - Búsqueda de Google

¿Cómo se supone que respalda la afirmación que está haciendo? Lo que estoy preguntando es: ¿tiene alguna evidencia objetiva o una referencia a una fuente que presente evidencia objetiva de que la asignación de memoria de la GPU funciona de manera diferente en las GPU de Intel y Apple? Ambos usan una arquitectura de memoria unificada con caché de último nivel compartida entre CPU y GPU. M1 definitivamente reserva algo de memoria para uso de GPU, aunque no estoy seguro de cuánto. METRO

Modernape

21 de junio de 2010
  • Feb 1, 2021
Leman dijo: ¿Cómo se supone que respalda la afirmación que está haciendo? Lo que estoy preguntando es: ¿tiene alguna evidencia objetiva o una referencia a una fuente que presente evidencia objetiva de que la asignación de memoria de la GPU funciona de manera diferente en las GPU de Intel y Apple? Ambos usan una arquitectura de memoria unificada con caché de último nivel compartida entre CPU y GPU. M1 definitivamente reserva algo de memoria para uso de GPU, aunque no estoy seguro de cuánto.
Vaya, debes haber leído esos artículos rápidamente. Oh espera. No los leíste, ¿verdad?
Reacciones:mds1256, jerryk y chabig LOS

leman

Oct 14, 2008
  • Feb 1, 2021
Modernape dijo: Vaya, debes haber leído esos artículos rápidamente. Oh espera. No los leíste, ¿verdad?

Estoy bastante seguro de haber leído los más relevantes. También he estado haciendo análisis técnicos y evaluaciones comparativas de bajo nivel de la GPU M1 desde que obtuve mi unidad en diciembre. Esa es también la razón por la que pregunto, tal vez haya alguna información técnica nueva por ahí de la que aún no estoy al tanto. C

chabig

Sep 6, 2002
  • Feb 1, 2021
Tu pregunta es imposible de responder. Es como preguntar cuánta memoria usa TextEdit. Todo depende de lo que estés haciendo. La CPU y la GPU comparten la RAM según sus necesidades, lo que cambia de un momento a otro.

Aquí hay una referencia de Apple:

Explore la nueva arquitectura del sistema de las Mac de silicona de Apple - WWDC20 - Videos - Desarrollador de Apple

Descubra cómo las Mac con silicio de Apple ofrecerán ventajas modernas utilizando la arquitectura System-on-Chip (SoC) de Apple. Aprovechando un unificado ... developer.apple.com
Cita,
La integración de todo en un solo chip le da al sistema una arquitectura de memoria unificada.

Esto significa que la GPU y la CPU funcionan en la misma memoria. Los recursos gráficos, como texturas, imágenes y datos de geometría, se pueden compartir entre la CPU y la GPU de manera eficiente, sin gastos generales, ya que no es necesario copiar datos a través de un bus PCIe.

Krevnik

Sep 8, 2003
  • Feb 1, 2021
leman dijo: Estoy bastante seguro de haber leído los más relevantes. También he estado haciendo análisis técnicos y evaluaciones comparativas de bajo nivel de la GPU M1 desde que obtuve mi unidad en diciembre. Esa es también la razón por la que pregunto, tal vez haya alguna información técnica nueva por ahí de la que aún no estoy al tanto.

Los chips Intel para computadoras de escritorio y portátiles no usan UMA, usan memoria compartida. En Intel, la GPU debe tener asignada una porción de RAM particionada para su uso. La CPU no puede acceder a la partición asignada a la GPU y viceversa. Por lo que aún necesita copiar datos entre las particiones.

Toda la diferencia entre la memoria unificada y la memoria compartida es la falta de particiones. La GPU y la CPU pueden acceder al mismo bloque de memoria. En comparación con Intel, ofrece dos beneficios específicos:

1. Sin tener que preasignar RAM para usarla como memoria de video, no tiene que lidiar con límites específicos para la memoria de video (los 1.5GB mencionados anteriormente) y puede equilibrar más fácilmente entre la demanda de CPU y GPU.
2. No necesitar copiar búferes significa algunos ahorros de RAM mensurables, menos presión sobre el ancho de banda de la memoria y un pequeño aumento de latencia.

Estos beneficios son una de las razones por las que las consolas de juegos utilizan UMA. Los ahorros de memoria y latencia ayudan a mantener bajos los costos en el GDDR que necesitan.
Reacciones:blindados y jdb8167 LOS

leman

Oct 14, 2008
  • Feb 1, 2021
Krevnik dijo: Los chips Intel para computadoras de escritorio y portátiles no usan UMA, usan memoria compartida. En Intel, la GPU debe tener asignada una porción de RAM particionada para su uso. La CPU no puede acceder a la partición asignada a la GPU y viceversa. Por lo que aún necesita copiar datos entre las particiones.

La documentación de Intel no está de acuerdo con usted.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Por lo que voy a recargar, Intel ha estado usando memoria unificada desde al menos Sandy Bridge, tal vez antes. Puede haber algunas restricciones, no estoy 100% seguro. Última edición: 1 de febrero de 2021
Reacciones:AAPLGeek T

el equipaje

Jul 29, 2011
  • Feb 1, 2021
majormike dijo: quiero conseguirlo para la producción musical y estaría contento con 16 gigas, pero no estoy seguro de cuánta memoria usa la GPU, especialmente con una pantalla externa.
A menos que alguien informe con lecturas de presión de memoria de una máquina M1 de 16 GB que ejecute algo cercano a su carga de trabajo prevista, nadie lo sabe. La 'producción musical' es una pieza de cuerda para comenzar (el uso de RAM depende completamente del tipo de instrumentos virtuales y complementos que esté utilizando). Algunas aplicaciones de música tienen interfaces de usuario bastante elaboradas, y ejecutar un par de pantallas de alta resolución necesitará más RAM asignada al video, especialmente si está utilizando modos escalados donde todo se procesa en un búfer interno y luego se reduce la resolución.

Lo más probable es que un M1 no solo haga su trabajo, sino que lo haga más rápido porque es más eficiente en todos los aspectos y lo que pierde en las rotondas, gana en los columpios, y ha habido muchas demostraciones de Youtube que muestran que ejecuta un shedload de pistas e instrumentos de Logic Pro.

Sin embargo, la suposición segura es que si su flujo de trabajo realmente necesita más de 16 GB en Intel, al menos lo necesitará. beneficio desde más de 16 GB en Apple Silicon y sería mejor esperar a que salgan los sistemas Apple Silicon de gama alta. Incluso si un M1 puede en la actualidad Supere un Intel iMac de gama alta o un MBP de 16 ', en seis meses le van a dar una patada en la cara: esta extraña pausa en la que las Mac de nivel de entrada aparentemente superan en rendimiento a las más caras no durará largo - Apple no puede permitirse que continúe o afectará las ventas de Mac de gama alta.

Dicho esto, debes estar seguro de que realmente necesita toda la memoria RAM en su Intel Mac en primer lugar (mire la presión de la memoria).

En cuanto a la RAM de video, es casi seguro que el M1 sea mejor que un MacBook o Mini con gráficos integrados Intel. Vs. un iMac que solamente tiene una GPU discreta con 8GB + de VRAM, es más difícil de decir.

(Además, debe verificar cuidadosamente si todos los complementos, controladores, etc., que necesita son compatibles con Big Sur todavía, y mucho menos con el M1 ...)

Modernape dijo: Vaya, debes haber leído esos artículos rápidamente. Oh espera. No los leíste, ¿verdad?

Decirle a alguien que se 'pase a Google' de manera efectiva no es particularmente útil cuando Internet está lleno de información falsa y especulaciones infundadas. Todo lo que he visto de Apple ha sido extremadamente vago, más marketing que información técnica, y se redujo a 'La memoria unificada es más rápida porque los datos no tienen que copiarse entre dispositivos', lo que no dice nada sobre cómo se asigna la RAM. Todo lo que obtienes con una búsqueda en Google son muchos sitios de tecnología que especulan con los mismos datos limitados de Apple. La posibilidad de que la VRAM equivalente se asigne 'a pedido' es una especulación muy plausible, pero a menos que alguien pueda señalar la Documento de Apple eso detalla eso, es especulación.

La realidad parece ser esa memoria unificada es más eficiente, pero cómo Más eficiente es difícil de probar y difícil de aislar de las otras ganancias de rendimiento del M1 (... que puede parecer mucho menos impresionante cuando aparecen Apple Silicon Macs de gama alta).

Muchas de las cosas de YouTube parecen provenir de personas que no entienden la diferencia entre 'Memoria usada' y 'Presión de memoria' o 'Intercambiar usada' e intercambiar índice - o está buscando una aceleración relacionada con la RAM en flujos de trabajo que no agoten la RAM en un sistema Intel ...
Reacciones:blindados y mszilard

mi7chy

Oct 24, 2014
  • Feb 1, 2021
Krevnik dijo: Toda la diferencia entre la memoria unificada y la memoria compartida es la falta de particiones. La GPU y la CPU pueden acceder al mismo bloque de memoria. En comparación con Intel, ofrece dos beneficios específicos:

1. Sin tener que preasignar RAM para usarla como memoria de video, no tiene que lidiar con límites específicos para la memoria de video (los 1.5GB mencionados anteriormente) y puede equilibrar más fácilmente entre la demanda de CPU y GPU.
2. No necesitar copiar búferes significa algunos ahorros de RAM mensurables, menos presión sobre el ancho de banda de la memoria y un pequeño aumento de latencia.

Intel dice lo contrario con asignación dinámica y búfer de copia cero. Mi lista de BS ignorados es cada vez más grande.

https://www.intel.com/content/www/us/en/support/articles/000020962/graphics.html

https://software.intel.com/content/...uffer-copies-on-intel-processor-graphics.html Última edición: 1 de febrero de 2021
Reacciones:AlumaMac, leman y AAPLGeek

thedocbwarren

10 de noviembre de 2017
San Francisco, CA
  • Feb 1, 2021
Creo que esto podría ayudar: https://developer.apple.com/videos/play/wwdc2020/10632/

Esto explica el método de renderizado común con dispositivos móviles, consolas y GPU de bajo consumo. Es por eso que necesita menos memoria que las dGPU. El renderizado de mosaicos ha sido una forma de manejar 3D en mosaicos más pequeños y escanear cambios, etc. Se ha realizado durante años en la consola, así como en las tabletas más nuevas (iPad).

Dado eso, no se corta y se seca la cantidad de memoria que usa para texturas y enrojecimiento. Es diferente a cómo funcionan las dGPU con framebuffers.

theluggage dijo: A menos que alguien informe con lecturas de presión de memoria de una máquina M1 de 16 GB que ejecute algo cercano a su carga de trabajo prevista, nadie lo sabe. La 'producción musical' es una pieza de cuerda para comenzar (el uso de RAM depende completamente del tipo de instrumentos virtuales y complementos que esté utilizando). Algunas aplicaciones de música tienen interfaces de usuario bastante elaboradas, y ejecutar un par de pantallas de alta resolución necesitará más RAM asignada al video, especialmente si está utilizando modos escalados donde todo se procesa en un búfer interno y luego se reduce la resolución.

Lo más probable es que un M1 no solo haga su trabajo, sino que lo haga más rápido porque es más eficiente en todos los aspectos y lo que pierde en las rotondas, gana en los columpios, y ha habido muchas demostraciones de Youtube que muestran que ejecuta un shedload de pistas e instrumentos de Logic Pro.

Sin embargo, la suposición segura es que si su flujo de trabajo realmente necesita más de 16 GB en Intel, al menos lo necesitará. beneficio desde más de 16 GB en Apple Silicon y sería mejor esperar a que salgan los sistemas Apple Silicon de gama alta. Incluso si un M1 puede en la actualidad Supere un Intel iMac de gama alta o un MBP de 16 ', en seis meses le van a dar una patada en la cara: esta extraña pausa en la que las Mac de nivel de entrada aparentemente superan en rendimiento a las más caras no durará largo - Apple no puede permitirse que continúe o afectará las ventas de Mac de gama alta.

Dicho esto, debes estar seguro de que realmente necesita toda la memoria RAM en su Intel Mac en primer lugar (mire la presión de la memoria).

En cuanto a la RAM de video, es casi seguro que el M1 sea mejor que un MacBook o Mini con gráficos integrados Intel. Vs. un iMac que solamente tiene una GPU discreta con 8GB + de VRAM, es más difícil de decir.

(Además, debe verificar cuidadosamente si todos los complementos, controladores, etc., que necesita son compatibles con Big Sur todavía, y mucho menos con el M1 ...)



Decirle a alguien que se 'pase a Google' de manera efectiva no es particularmente útil cuando Internet está lleno de información falsa y especulaciones infundadas. Todo lo que he visto de Apple ha sido extremadamente vago, más marketing que información técnica, y se redujo a 'La memoria unificada es más rápida porque los datos no tienen que copiarse entre dispositivos', lo que no dice nada sobre cómo se asigna la RAM. Todo lo que obtienes con una búsqueda en Google son muchos sitios de tecnología que especulan con los mismos datos limitados de Apple. La posibilidad de que la VRAM equivalente se asigne 'a pedido' es una especulación muy plausible, pero a menos que alguien pueda señalar la Documento de Apple eso detalla eso, es especulación.

La realidad parece ser esa memoria unificada es más eficiente, pero cómo Más eficiente es difícil de probar y difícil de aislar de las otras ganancias de rendimiento del M1 (... que puede parecer mucho menos impresionante cuando aparecen Apple Silicon Macs de gama alta).

Muchas de las cosas de YouTube parecen provenir de personas que no entienden la diferencia entre 'Memoria usada' y 'Presión de memoria' o 'Intercambiar usada' e intercambiar índice - o está buscando una aceleración relacionada con la RAM en flujos de trabajo que no agoten la RAM en un sistema Intel ...

dmccloud

Sep 7, 2009
Anchorage, AK
  • Feb 1, 2021
Leman dijo: ¿Cómo se supone que respalda la afirmación que está haciendo? Lo que estoy preguntando es: ¿tiene alguna evidencia objetiva o una referencia a una fuente que presente evidencia objetiva de que la asignación de memoria de la GPU funciona de manera diferente en las GPU de Intel y Apple? Ambos usan una arquitectura de memoria unificada con caché de último nivel compartida entre CPU y GPU. M1 definitivamente reserva algo de memoria para uso de GPU, aunque no estoy seguro de cuánto.

x86 NO usa memoria unificada para la RAM del sistema. UMA se refiere a la configuración de RAM en el sistema, no a la memoria caché de la CPU. Con la plataforma x86, el sistema divide la RAM en una sección de CPU e iGPU. Para la iGPU, el sistema generalmente asigna alrededor de 2 GB para las operaciones de la GPU, lo que significa que solo 6 GB están disponibles para la CPU. Para las operaciones en las que los datos deben ser manipulados tanto por la CPU como por la iGPU, se copian dos veces a través del bus del sistema en la RAM (una vez por partición), luego el sistema tiene que reconciliar los dos conjuntos de datos una vez pasados ​​de la RAM, que agrega tiempo de procesamiento adicional. Con la configuración UMA que usa el M1, tanto la CPU como la iGPU pueden acceder a la RAM del sistema completo simultáneamente (es decir, no hay particiones de la RAM entre la CPU y la GPU). Esto significa que los datos solo se copian en la RAM una vez, y ya que todos Las operaciones pueden suceder simultáneamente, no hay gastos generales asociados con la conciliación de dos versiones de los mismos datos una vez que se devuelven a la CPU desde la RAM.
Reacciones:blindados y chabig

dmccloud

Sep 7, 2009
Anchorage, AK
  • Feb 1, 2021
leman dijo: La documentación de Intel no está de acuerdo contigo.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Por lo que voy a recargar, Intel ha estado usando memoria unificada desde al menos Sandy Bridge, tal vez antes. Puede haber algunas restricciones, no estoy 100% seguro.

Una cosa de la que debe darse cuenta es que el uso que hace Intel del término 'UMA' es engañoso. Para los propósitos de Intel, simplemente cambiaron el nombre de Intel HD a UMA, pero no realizaron cambios en la arquitectura subyacente. Por otro lado, el enfoque de Apple es esencialmente lo que AMD ha estado tratando de hacer durante años con el desarrollo de su tecnología Infinity Fabric para las CPU de la serie Ryzen. Aquí hay una explicación relativamente simplificada de por qué el enfoque de Apple no es el mismo que el de Intel:

La memoria del procesador M1 es un grupo único al que puede acceder cualquier parte del procesador. Si el sistema necesita más memoria para gráficos, puede asignarla. Si necesita más memoria para el motor neuronal, también. Aún mejor, debido a que todos los aspectos del procesador pueden acceder a toda la memoria del sistema, no hay impacto en el rendimiento cuando los núcleos de gráficos necesitan acceder a algo a lo que antes accedía un núcleo de procesador. En otros sistemas, los datos deben copiarse de una parte de la memoria a otra, pero en el M1, se puede acceder a ellos instantáneamente.

Incluso la mención de 'asignación' anterior es engañosa y un artefacto de la plataforma x86. Dado que el UMA de Apple no divide la RAM entre la GPU y la CPU, no existe una asignación real de RAM entre la CPU y la GPU.

Con las Mac M1, la memoria ya no es lo que solía ser

Apple ha cambiado la forma en que se usa la RAM en una computadora. Y es hora de cambiar nuestra forma de pensar.
Reacciones:blindados, chabig y mds1256

Krevnik

Sep 8, 2003
  • Feb 1, 2021
dmccloud dijo: Una cosa que debes tener en cuenta es que el uso que hace Intel del término 'UMA' es engañoso. Para los propósitos de Intel, simplemente cambiaron el nombre de Intel HD a UMA, pero no realizaron cambios en la arquitectura subyacente.

Seré honesto, Leman y Mi7chy (a pesar de la actitud descarada) señalan buenas fuentes de que Intel al menos admite copia cero y tamaño de partición dinámico.

Incluso si no es cierto UMA como usted afirma, parece que, según los documentos que he leído hasta ahora, al menos puede dedicar páginas de memoria para que se usen para copia cero, lo que espero que haga algunos trucos interesantes para hacer el misma página RAM disponible para ambos lados.

La pregunta que tengo y espero que los documentos respondan una vez que tenga más tiempo es cómo se manejan esas páginas con más detalle y qué tipo de integración tiene que hacer el sistema operativo para aprovechar esto al máximo. Pero incluso con esa respuesta, si las API del sistema operativo tienen que indicarle a la GPU cómo administrar las páginas, ¿cuánta optimización ha hecho Apple allí?

leman dijo: La documentación de Intel no está de acuerdo contigo.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Por lo que voy a recargar, Intel ha estado usando memoria unificada desde al menos Sandy Bridge, tal vez antes. Puede haber algunas restricciones, no estoy 100% seguro.

Bien, se ha demostrado que mi comprensión de la arquitectura de GPU de Intel está desactualizada. De hecho, no debería haber grandes diferencias en ese caso.

Tenía entendido que todavía había algunas particiones fijas, pero parece que Google está sacando a la luz artículos antiguos sobre esto, lo que me llevó por el camino equivocado.

thedocbwarren dijo: Creo que esto podría ayudar: https://developer.apple.com/videos/play/wwdc2020/10632/

Esto explica el método de renderizado común con dispositivos móviles, consolas y GPU de bajo consumo. Es por eso que necesita menos memoria que las dGPU. El renderizado de mosaicos ha sido una forma de manejar 3D en mosaicos más pequeños y escanear cambios, etc. Se ha realizado durante años en la consola, así como en las tabletas más nuevas (iPad).

Dado eso, no se corta y se seca la cantidad de memoria que usa para texturas y enrojecimiento. Es diferente a cómo funcionan las dGPU con framebuffers.

Tengo entendido que después de volver a leer el video (han pasado unos meses desde la última vez que lo vi) es que esto no necesariamente afecta la cantidad de memoria de video que se necesita tanto, sino más bien la presión ejercida sobre el ancho de banda de la memoria.

Todavía necesito X MB para una textura de un tamaño determinado y X MB para el búfer de fotogramas en cualquier diseño. Sin embargo, TBDR reduce la frecuencia con la que necesita acceder a (V) RAM, especialmente en situaciones en las que necesita realizar varias pasadas. * Podría * reducir un poco los búferes intermedios, pero eso supone que los búferes intermedios son una contribución notable en comparación con los otros búferes en uso. Tenía entendido que el búfer de retroceso en sí mismo se usaba como búfer intermedio, por lo que soy un poco escéptico de que se puedan obtener grandes ganancias allí. Dibujar con textura parece ser común en estos días, por lo que podría haber más de lo que esperaba, asumiendo que todos estos escenarios se pueden hacer a nivel de mosaico, en lugar de una textura. Última edición: 1 de febrero de 2021

dmccloud

Sep 7, 2009
Anchorage, AK
  • Feb 1, 2021
Intel todavía divide la CPU y la RAM de la GPU, por lo que debe copiar los datos del lado de la CPU al lado de la GPU y viceversa (la sección en negrita es el enfoque de Apple, la sección en cursiva es la de Intel):

Profundicemos en el último punto, la memoria en chip. Con el M1, esto también es parte del SoC. La memoria en el M1 es lo que se describe como una 'arquitectura de memoria unificada' (UMA) que permite que la CPU, la GPU y otros núcleos intercambien información entre sí y con memoria unificada, la CPU y la GPU pueden acceder a la memoria simultáneamente en lugar de copiar datos entre un área y otra . Erik continúa ...

Durante mucho tiempo, los sistemas informáticos económicos han tenido la CPU y la GPU integradas en el mismo chip (el mismo chip de silicio). En el pasado, decir 'gráficos integrados' era esencialmente lo mismo que decir 'gráficos lentos'. Fueron lentos por varias razones:
Se reservaron áreas separadas de esta memoria para la CPU y la GPU. Si la CPU tuviera una parte de los datos que quisiera que usara la GPU, no podría decir que aquí tuviera algo de mi memoria. No, la CPU tuvo que copiar explícitamente toda la cantidad de datos en el área de memoria controlada por la GPU.


La parte relativa a los 'sistemas informáticos económicos' es lo que Intel utiliza hasta el día de hoy para los gráficos integrados. Eso no ha cambiado independientemente de cómo Intel llame a su arquitectura.


Por qué el chip M1 de Apple es tan rápido: explica un desarrollador | Experto en producción

Es posible que se haya preguntado por qué el chip Apple M1 es tan rápido. En este artículo, aprendemos de un desarrollador sobre lo que hace que, incluso estas Mac de nivel de entrada, sean tan rápidas. www.pro-tools-expert.com
Johnny Srouji abordó esto directamente durante la WWDC:

'acceder a los mismos datos sin copiarlos entre varios grupos de memoria'

M1 de Apple: una mirada más cercana al chip dentro de las últimas Mac

En el evento de Apple denominado 'One More Thing', la compañía ofreció a los espectadores un recorrido virtual por el chip M1 y sus 16 mil millones de transistores. www.techrepublic.com
Reacciones:chabig y thedocbwarren

thedocbwarren

10 de noviembre de 2017
San Francisco, CA
  • Feb 1, 2021
Seguro que está desactualizado. Estoy aún más horrorizado por el hecho de que ahora venderán (a los OEM) versiones discretas del Iris Xe. Cada vez más se difunde de la arquitectura. Un desastre.
Krevnik dijo: Seré honesto, Leman y Mi7chy (a pesar de la actitud descarada) señalan buenas fuentes de que Intel al menos admite copia cero y tamaño de partición dinámica.

Incluso si no es cierto UMA como usted afirma, parece que, según los documentos que he leído hasta ahora, al menos puede dedicar páginas de memoria para que se usen para copia cero, lo que espero que haga algunos trucos interesantes para hacer el misma página RAM disponible para ambos lados.

La pregunta que tengo y espero que los documentos respondan una vez que tenga más tiempo es cómo se manejan esas páginas con más detalle y qué tipo de integración tiene que hacer el sistema operativo para aprovechar esto al máximo. Pero incluso con esa respuesta, si las API del sistema operativo tienen que indicarle a la GPU cómo administrar las páginas, ¿cuánta optimización ha hecho Apple allí?



Bien, se ha demostrado que mi comprensión de la arquitectura de GPU de Intel está desactualizada. De hecho, no debería haber grandes diferencias en ese caso.

Tenía entendido que todavía había algunas particiones fijas, pero parece que Google está sacando a la luz artículos antiguos sobre esto, lo que me llevó por el camino equivocado.



Tengo entendido después de volver a leer el video (han pasado algunos meses desde la última vez que lo vi) que esto no necesariamente afecta la cantidad de memoria de video que se necesita tanto, sino más bien la presión ejercida sobre el ancho de banda de la memoria.

Todavía necesito X MB para una textura de un tamaño determinado y X MB para el búfer de fotogramas en cualquier diseño. Sin embargo, TBDR reduce la frecuencia con la que necesita acceder a (V) RAM, especialmente en situaciones en las que necesita realizar varias pasadas. * Podría * reducir un poco los búferes intermedios, pero eso supone que los búferes intermedios son una contribución notable en comparación con los otros búferes en uso. Tenía entendido que el búfer de retroceso en sí mismo se usaba como búfer intermedio, por lo que soy un poco escéptico de que se puedan obtener grandes ganancias allí. Dibujar con textura parece ser común en estos días, por lo que podría haber más de lo que esperaba, asumiendo que todos estos escenarios se pueden hacer a nivel de mosaico, en lugar de una textura.

dmccloud

Sep 7, 2009
Anchorage, AK
  • Feb 1, 2021
thedocbwarren dijo: Seguro que está desactualizado. Estoy aún más horrorizado por el hecho de que ahora venderán (a los OEM) versiones discretas del Iris Xe. Cada vez más se difunde de la arquitectura. Un desastre.


El Iris Xe no es más que un iGPU Intel UHD renombrado (que a su vez fue renombrado como Intel HD). Es como si estuvieran tratando de presentar un Chevelle como un automóvil nuevo con solo volver a pintar el exterior ...

thedocbwarren

10 de noviembre de 2017
San Francisco, CA
  • Feb 1, 2021
dmccloud dijo: El Iris Xe no es más que una iGPU Intel UHD renombrada (que a su vez fue renombrada de Intel HD). Es como si estuvieran tratando de presentar un Chevelle como un automóvil nuevo con solo volver a pintar el exterior ...
Tan cierto, no puedo creer que incluso estén haciendo tarjetas discretas de estos también para la 11a generación.

robco74

22 de noviembre de 2020
  • Feb 1, 2021
Si realiza algún tipo de creación musical, la RAM debería estar más abajo en su lista de preocupaciones al considerar las nuevas Mac M1. Big Sur hizo grandes cambios en los conductores. Verifique primero con todos los fabricantes de sus equipos para asegurarse de que sean compatibles con Big Sur y Apple Silicon. No todos lo hacen todavía.
Reacciones:duervo Q

quarkysg

Oct 12, 2019
  • Feb 1, 2021
leman dijo: La documentación de Intel no está de acuerdo contigo.

https://software.intel.com/sites/de...tel-Processor-Graphics-Gen11_R1new.pdf#page19
¿Parece describir solo la iGPU Gen 11? ¿Se aplica también a las iGPU de generaciones anteriores?