domingo, 31 de diciembre de 2017

Los diez mejores sitios de comercio binarios google maps


Haga clic en las imágenes a continuación para verlas en pantalla completa y use las flechas para navegar por el área. Google Street View, debe verificar InsantStreetView. Cuentas binarias para ti Incluso se puede acceder desde el navegador web en su dispositivo móvil. ¿Por qué no explorar algunos de los mejores lugares de la Tierra con Street View? Este material y otro contenido digital en este sitio web no pueden reproducirse, publicarse, transmitirse, reescribirse o redistribuirse en su totalidad o en parte sin el permiso previo por escrito de PUNCH. Aplicación Google Street View que puedes usar. Puede usar la solicitud para editar segmentos de carretera para sugerir que se revise una nueva ubicación y posiblemente se agregue en algún momento en el futuro. Puede hacer clic en eso para verlo en pantalla completa para que pueda moverse y comenzar a explorar.


Pegman, eso significa que Street View no está disponible para esa ubicación. El sitio de Instant Street View es excelente si desea ver una ubicación específica de inmediato, pero si ya sabe cómo usar Google Maps, entonces no es difícil cambiar a Street View desde allí también si la ubicación que desea ver tiene sido fotografiado por el equipo de Street View. Entonces conectaste la dirección de tu casa y no obtuviste nada. Considere volver a consultar dentro de unos meses para ver si su casa o una dirección particular se ha agregado a Street View. Si lo que escribe es demasiado vago, aparecerá una lista desplegable de opciones como ubicaciones sugeridas que coincidan con su entrada. Algunas áreas rurales todavía están siendo mapeadas. Las imágenes de 360 ​​más cercanas a él aparecerán a continuación.


Comience por acceder a Google Maps navegando a google. Google Maps como una forma de contribuir, para que pueda ayudar a los usuarios a ver más de lo que quieren ver en esos lugares. Cuando encuentre el lugar correcto, puede usar el mouse para hacer clic y arrastrar para cambiar la dirección, y use las flechas de la parte inferior para moverse hacia atrás, hacia adelante o hacia los lados. Solo podemos enviar, en este caso, cuatro, que es el valor anterior para esta ventana de congestión. Así que este es el único valor que ha cambiado, por lo que en este caso, solo enviaría este par de valores clave, que es genial. Déjame cerrar la conexión. Las velocidades están aumentando.


Este es el gráfico que es el gráfico clave que hizo que Google comenzara a pensar seriamente sobre este tema y realmente comenzara a trabajar en SPDY en 2009, supongo, o en 2008, incluso. Fue como, obtener este recurso, número de versión. Afortunadamente ahora tenemos algo de automatización para mucho de eso, pero todavía conozco personas que lo hacen a mano, lo cual es algo triste. Más recientemente, se ha actualizado en el último año a 10 paquetes. Oh, esto que recibí pertenece a esa corriente. Esto es algo que debemos hacer mucho para optimizar. Solo enviamos 20 kilobytes. Esta es otra oportunidad realmente interesante para que los servidores hagan un trabajo más inteligente, e intermediarios también, en términos de cuáles son los algoritmos correctos para realizar el desalojo de estos encabezados, y así sucesivamente.


TCP Slow Start es una característica, no un error. Si sigues todo eso, eso tiene que ocurrir dentro, bueno, idealmente en milisegundos. Google está tratando de descubrir cómo hacemos que nuestro producto sea rápido en los dispositivos móviles. Luego enviamos la solicitud. Esto ni siquiera es tu servidor real. En realidad, déjame volver. Después de eso, en realidad solo lo extendimos.


Eso también tiene costos negativos. Tuviste que reiniciar todo. Si saturamos todos nuestros enlaces, podemos excavar otro túnel y poner más fibra; podemos unir los diferentes enlaces y obtener más rendimiento. Comparado con lo que estábamos construyendo hace cinco o incluso diez años, hoy la web se ve completamente diferente. HTTP no es lo suficientemente rápido. El tipo básicamente te da qué tipo de marco se está comunicando aquí. Simplemente termina la conexión. Entonces estas son las limitaciones actuales.


Esta es una frontera completa de desempeño que creo que no mucha gente está prestando atención hoy. A principios de este mes, tuvimos una sesión de prueba de interoperabilidad en Hamburgo. Nos gusta escribir cosas geniales. Primero debemos abrir la conexión TCP, que es SYN y SYN ACK. ¿Qué pasa si tengo esos tres activos en un caché? ¿Cuántas personas aquí están familiarizadas con Slow Start? Estamos limitados a 6 conexiones. Todas las cosas deben manejarse en HTTP, que es como debería haber sido para empezar.


Básicamente debe haber un mecanismo para averiguar dónde se encuentra actualmente y qué torre le está prestando servicio actualmente. Entonces es una mierda El cliente Java, usted envía la solicitud al servidor, el servidor puede enviar múltiples respuestas a su cliente y usted puede hacer cosas inteligentes con él. Y una vez al año, básicamente, realizamos un análisis de cuál es el tiempo promedio o mediano de carga de la página en el dispositivo móvil frente al escritorio. Afortunadamente, como mencioné, la implementación de 4G y LT, por una vez, Norteamérica está liderando el despliegue de esto. Así que la mayor parte del cambio en esta latencia no está representada en todo el mundo. Entonces construyen ese mapa y luego comienzan a empujar estos activos a futuros clientes. Tenemos el mejor rendimiento. América del Norte, lo cual es una buena noticia para nosotros aquí.


¿Y si pudiera enviarle las tres solicitudes a la vez? Entonces, realmente envía todos estos pares de valores clave al servidor. Primero, necesitamos hablar sobre cómo funciona TCP. SPDY, eliminamos toda esa lógica. Y esta es solo la última latencia de tu milla con DSL. Varias secuencias pueden fluir a través de una única conexión TCP, que es lo mismo que decir que varias solicitudes pueden fluir a través de una conexión TCP. Y algunas de esas cosas han funcionado y han sido excelentes, y algunas de ellas no. Tiempo TLS, que toma otro par de viajes redondos. Así que el avión de control, la idea aquí es, primero, antes de que puedas enviar algo desde tu teléfono móvil, en realidad tienes que hablar con una torre para obtener permiso para enviar datos.


Entonces abortamos la conexión, lo cual es una mierda. ¿Es esto un cambio tan grande? Google, por supuesto, ha estado usando SPDY desde hace años. Cada flujo, el cliente y el servidor, cada vez que crean una secuencia, declaran una ID en ella, como 1, 3, 5, 7, 9, etc. Sabemos que tenemos problemas en la capa HTTP. Envía el paquete a la puerta de enlace de servicio y la función de la puerta de enlace de servicio es averiguar dónde se encuentra en la red móvil. Porque como tecnólogos nos gusta resolver cosas. Nueva York a Londres.


En cada solicitud, solo alternas esos bits. Lo cual creo que es una sorpresa para muchas personas, incluidos los ingenieros. Tenemos a Japón liderando el paquete. Esto va a funcionar. Registramos cómo se construye la página, como la cantidad de archivos JavaScript, CSS, etc. Entonces, lo que termina sucediendo es que terminamos abriendo muchas de estas conexiones TCP, y nunca usamos la actual, o con frecuencia, debo decir, nunca. Este esfuerzo en realidad es anterior a enero de 2012.


Básicamente, esta compañía ha descubierto que, hey, hay operadores en Nueva York, hay operadores en Londres que se preocupan por la latencia. Entonces, haces eso. Todas las optimizaciones anteriores, como posicionar sus datos más cerca del usuario, aún se aplican. Cada una de esas conexiones TCP tiene un búfer de memoria, que es bastante costoso en muchos casos. Uno mantiene un número par. Conexión TCP, esto es en vano, esto es completamente inútil. ¿Qué hemos hecho en la última década? MessagePack tiene su propia capa RPC.


Hay dos partes de esto. Luego hay un identificador de flujo. Pero el primero no está terminado. Pero ya sabe que el cliente, o el servidor en este caso, ya tiene todos estos valores de una solicitud anterior. Entonces este es el crecimiento exponencial. Internet rápido como un todo. Entonces, eso tiene sentido, ¿verdad? Esta es exactamente la razón por la cual los WebSockets funcionan a través de un TLS para dispositivos móviles y otros casos y se dividen para muchos clientes, especialmente en dispositivos móviles, cuando se ejecutan a través de HTTP de vanilla.


Oye, anteriormente estaba dando servicio a la solicitud de JavaScript, pero la solicitud de JavaScript tiene una prioridad más alta. Pero luego se descubrieron un par de ataques en su contra, básicamente problemas de seguridad. Nuestra latencia de última milla es x milisegundos. HTTP es originalmente que comenzamos con un protocolo muy simple. Dos, en realidad tiene implicaciones negativas en el uso de la memoria. Entonces, ¿cómo funciona el push, los CDN y el caché intermedio? Uno mantiene un número impar. Así que eso le dice que si quiere agotar su conexión y actualizarla y comprar la publicidad más nueva y más rápida ofrecida por su proveedor local, su página no se cargará más rápido.


¿Qué tipo de mierda es, verdad? Desea comprimir los datos, etc. Entonces, podemos enviar hasta 15 kilobytes de datos, lo que representa una mejora significativa con respecto al valor anterior, que era de tres o cuatro paquetes. Así que esto está completamente automatizado, que es lo bueno de eso. Una vez que conoces la longitud, puedes averiguar el tipo. Queremos preservar lo que tenemos. Entonces estos son los tipos de cosas que necesitan ser arreglados en la capa del servidor.


Pero, básicamente, la mayoría de los países están cerca o muy por encima del límite de cinco megabits por segundo. Acabamos de decir que mire, solo analice la maldita cosa. Obtener solicitud por ejemplo. Fue solo literalmente una línea. Rechoncho o algo más dentro de una compañía. Entonces podemos enviarle 15 kilobytes de datos, luego tenemos que hacer una pausa. Esto fue definitivamente una sorpresa incluso para nosotros cuando realizamos estos experimentos. Básicamente comienza una negociación con una torre local.


Si cavas profundamente, te mostrarán estos números allí. Conexión TCP, ¿cómo califica el límite o controla la asignación de recursos entre esos flujos? Si va por encima de eso, significativamente por encima de eso, por encima de un segundo, básicamente pierde el contexto. Instancia de MME que es básicamente como una base de datos de usuario. Entonces, ¿cómo hacemos que el cambio sea lo más transparente posible? Pero si controlas tanto el cliente como el servidor, hazlo. Permítanme fragmentar eso en diez dominios diferentes. Esto es una gran cosa.


Y como viste anteriormente en las diapositivas de Akamai que te mostré anteriormente, la mayoría de las personas, un promedio en los EE. UU., Supera los cinco megabits por segundo. Por lo tanto, la idea básica con HTTP pipelining es que, de manera predeterminada, HTTP no proporciona multiplexación en el sentido de que envíe una solicitud y debe bloquear y esperar hasta que obtenga la respuesta. Así que hoy, en realidad a partir de julio de 2013, tenemos el primer borrador de implementación. Esto es solo algo con lo que tenemos que lidiar. Solo queremos utilizar una conexión TCP porque, de hecho, es la mejor forma de obtener el mejor rendimiento. Entonces todo eso necesita ser reemplazado. El archivo JavaScript, que es crítico, porque lo necesitamos para representar la página, y tenemos un par de activos de imagen, que no son críticos. Y si hace los cálculos aquí, descubrirá que una solicitud promedio es de aproximadamente 14 kilobytes por solicitud.


Desde el principio, ¿qué estamos tratando de resolver? Entonces envía el paquete desde la red externa. Para mantener al usuario involucrado, la tarea debe completarse en 1000 milisegundos. Ahora lo que puedes hacer es enviar una solicitud desnuda. Entonces, básicamente, ¿cómo hacemos que HTTP funcione mejor con TCP? Mira, ¿por qué es este problema? Queremos tener todo rápido.


Oye, seis solicitudes en paralelo. Puede obtener una mejora en su calidad, pero su página no se cargará más rápido. Enviamos la solicitud Las torres transmiten la señal. JavaScript para entregar aplicaciones más inteligentes ahora. Eso también requiere un poco de fontanería y arquitectura en términos de cómo entregar eso al cliente. Nuestras páginas son mucho, mucho más grandes que eso. Simplemente mantendremos una constante y simplemente aumentaremos el ancho de banda y veremos cómo eso afecta el tiempo de carga de la página.


Entonces, una vez más, esto es algo en lo que los desarrolladores web y los desarrolladores de servidores deben pensar detenidamente, por ejemplo, ¿cómo aprovechamos esta nueva característica que nunca antes habíamos tenido en HTTP? Estamos terraformando la tierra entre Nueva York y Chicago para construir enlaces más rápidos. ALPN agrega un mecanismo en la negociación de TLS en el que puede negociar el protocolo de la aplicación que desea utilizar durante el protocolo de enlace. Dijimos, mira, las solicitudes HTTP son caras, especialmente las pequeñas. Se pierde el paquete TCP de dinero. Bueno, entonces puedes cancelar la transmisión. El servidor debe ser inteligente.


Nueva York y vuelta en 43 milisegundos. Y los servidores de Google, tratamos de ubicarlos lo más cerca posible de todos los ISP por esta razón exacta. Oye, tengo una transmisión de video y tengo esta transmisión. Cada cuadro puede tener un número de banderas personalizadas que define cada marco. Nos gustaría ver que mejore. Toma todo el JavaScript, complétalo en la aplicación. Entonces, hay algunos ejemplos interesantes de gente innovando en este espacio. ¿Cuáles son los recursos que debe impulsar?


Pero luego también Facebook, Twitter y otros comenzaron a recogerlo. Solo podemos hacer estas solicitudes. Entonces, finalmente, incrusta los encabezados. Oye, este es un archivo de JavaScript. Conexiones HTTP al cliente. Entonces estas son las estadísticas. JavaScript y CSS e imágenes. Entonces, la buena noticia es que es un poco más pequeño en dispositivos móviles, por lo que estamos optimizando para dispositivos móviles, pero no obstante.


Ilya Grigorik es un ingeniero de rendimiento web en Google, donde pasa sus días y noches en la optimización de la pila de la web e impulsa la adopción de las mejores prácticas de rendimiento. La optimización TLS, TLS es crítica porque un saludo de TLS es realmente muy costoso. Al menos, aclaramos mucho del almacenamiento en caché. ¿Es un marco de encabezado o un marco de datos o algo más? Entonces, estos sprites en realidad ocupan bastante memoria en los dispositivos móviles, lo que en realidad es un problema para muchos dispositivos móviles. Es un problema. En enero de 2012, teníamos Chrome, teníamos Firefox que lo soportaba.


Anonimizamos todos esos datos. Entonces mi teléfono está durmiendo en este momento. Pero el otro que creo que también sorprende a mucha gente es la ejecución más lenta. Pero si tienes un intermediario, también puede ser inteligente al respecto. La mayoría de los clientes en la mayoría de los idiomas, especialmente, en realidad, los clientes HTTP predeterminados son terribles. El portal de servicio no tiene idea. Sabemos que esto funciona. Así que espero que ya te haya convencido de que la latencia es, de hecho, un problema.


Esto es literalmente una charla en sí misma, pero solo quédate conmigo. Hoy hacemos muchos trucos interesantes, pirateos, si quieres llamarlos así, en el navegador para probar el tipo de juego del sistema y averiguar qué solicitudes enviamos porque tenemos un número limitado de solicitudes, etc. Queríamos renderizar nuestra página en un segundo. Queremos preservar el ecosistema y hacerlo lo más perfecto posible, idealmente para migrar. Si envío la solicitud de imagen primero, ¿los recuperaré rápidamente? El resultado final de todo esto es en realidad, bueno, aplicaciones más simples. Y específicamente el hecho de que tenemos un despliegue muy fuerte de redes 4G en América del Norte.


Tenemos que hacer la conexión de socket. Si hace clic en un botón, queremos responderle en 100 milisegundos. La parte de rendimiento de TCP se vuelve aún más importante en muchos aspectos, por lo que definitivamente debe actualizar sus kernels de Linux, asegúrese de tener la última ventana de TCPU o control de congestión en su lugar. Oh, las redes móviles son tan impredecibles. Simplemente ha sido estable, lo cual no es bueno. Podemos escribir la especificación, pero los servidores deben ser más inteligentes. Flujos de actualización HTTP, si están familiarizados con WebSocket.


Pero, por supuesto, uno de los problemas aquí es que el servidor debe ser inteligente al respecto. Ellos son los dos componentes de la velocidad. La única razón por la que existe es para evitar esta limitación, que los proveedores de navegadores imponen intencionalmente para decir que demasiadas conexiones realmente te lastiman, bien, porque causa congestión. Cada año, usamos Google Analytics. Y nuestras páginas no son una sola solicitud. En realidad, Microsoft ha desarrollado una implementación de servidor, por lo que Chrome y Firefox estaban probando contra el servidor de Microsoft. Simplemente sabe que, en general, esta persona parece estar en el área de San Francisco.


Así que todo ese tipo de en una imagen simple aquí. ¿Cómo funcionan las redes móviles? Esa comunicación con la torre en realidad lleva desde cientos de milisegundos hasta segundos. Entonces FCC, en los últimos años, ha estado haciendo un informe o un estudio anual, que finalmente ha comenzado a capturar algunos de estos datos. Básicamente, el límite teórico es de 35 milisegundos. Esto es solo una nueva solicitud. Lo cual es un poco triste El flujo de salida desde su dispositivo es un poco más simple. Pero luego miras la latencia.


En algún momento, la pérdida de dinero del paquete ocurrirá, momento en el que reiniciaremos este algoritmo. Queremos obtener el mejor rendimiento de una única conexión TCP. Mountain View el día de hoy. Parte del pensamiento, al menos ahora, es que los CDN pueden estar proporcionando este impulso. Nunca, jamás anunciarían tal cosa. Actualmente, la web se basa básicamente en este modelo, que es secuencial, y nuestro único trabajo es simplemente abrir conexiones múltiples. Sin límite, solo cinco megabit por segundo de umbral aquí. Así que estos son los datos de 2007 hasta, básicamente, el comienzo de 2013, y se puede ver que hay una fuerte tendencia hacia, básicamente, aumentar el rendimiento o el ancho de banda en todo el mundo.


Entonces, este proyecto cuesta alrededor de medio billón de dólares. Entonces, la mejor parte de esto, estos gráficos en realidad están comparando 2012 a 2013. Dos, queremos abordar el bloqueo del jefe de línea. Resulta que, en realidad, en gran parte, explica la variabilidad que mucha gente experimenta con alta variabilidad de latencia. Tenemos 31 bits de espacio prioritario reservado para eso, por lo que puede ser muy sofisticado, si lo desea, en la forma de priorizar este tipo de cosas. Y el ancho de banda es importante para cosas como videos de Youtube y videos de alta definición, te gusta ver Netflix, ¿qué tienes? Entonces, ¿por qué esto afecta a HTTP en particular? La red nos salvará, el 4G. Comienza con un megabit de rendimiento, y la página se carga en aproximadamente tres segundos.


Entonces este es un gran problema en el móvil. Optimizaciones de rendimiento de TCP realizadas desde entonces. Y cómo su servidor implementa la lógica de cuándo incrementar esa ventana depende completamente de usted. Oh, este usuario está bajo ataque. Esto solo crea más y más latencia. Entonces, cuando se conecta a un servidor, abriremos hasta seis conexiones paralelas, lo que significa que podemos transportar, a lo sumo, seis solicitudes en paralelo, u obtener seis respuestas en paralelo. Podemos continuar aumentando el ancho de banda, pero la latencia es un problema.


Se requieren varias pasadas para hacerlo, por lo que debe prestar atención al tamaño de su certificado; debe optimizar el tamaño de sus registros. Hace que transferir estos metadatos sea muy, muy eficiente. Podemos mantenerlo bien. Entonces simplemente incrementamos esos. Los núcleos de Linux han actualizado sus CWND para comenzar con 10 paquetes. Entonces, las formas TCP son muy, muy importantes. Déjame guiarte a través de esto.


Luego, el último es, por supuesto, favorito de la multitud, recursos en línea. Estos son una especie de núcleo, estas son las mejores prácticas que predicamos que todo sitio debería hacer. Queremos tener una conexión TCP, que tiene la tubería abierta de par en par y podemos enviar tantos datos como podamos. Entonces en realidad tiene que enrutarlo en la red externa. En redes 3G, en las redes 3G de la antigua generación, literalmente toma unos segundos hacer eso. Queremos mejorar la latencia percibida por el usuario final. Mantén eso como algo separado porque eso te ayudará. Y todo esto es solo para enviar un solo paquete TCP.


Tenemos que esperar hasta que llegue todo el archivo y solo entonces podemos comenzar a ejecutar ese archivo. Ese número ha sido actualizado. El equipo de Chrome y el equipo de Make the Web Faster en Google. JavaScript, que parece tonto. TCP Slow Start en pocas palabras. Sus servidores tendrán que mantener menos conexiones TCP, lo cual es un gran problema para las personas que están ejecutando servidores que tienen que manejar una gran cantidad de conexiones TCP. Esto es solo un paquete TCP para enviar una notificación.


Este es un gran problema general en la web. En primer lugar, tenemos el control y la evitación de la congestión TCP, y específicamente tenemos esta característica llamada TCP Slow Start. Por lo tanto, este es solo un costo de inicio único cuando su teléfono ha estado inactivo. Básicamente lo que sucedió fue en 2008, 2009, en Google, miramos este estudio de latencia y ancho de banda. Entonces, otro componente que a menudo se olvida es la latencia. La latencia es tan variable. Los servidores deben respetar las prioridades.


Entonces esta es una charla completa por sí misma. Entonces, queremos estar aquí. El servidor puede intercalar los marcos y puede usar una conexión TCP para entregarlos en paralelo. Sabemos eso, y sabemos que la latencia es importante para los traders donde cuentan los nanosegundos. Ayudará a que nuestros clientes sean más rápidos. Tiene una amplia experiencia en tecnología, incluida la experiencia en la gestión de su propia empresa de alojamiento de Internet. En primer lugar, una conexión TCP. Y a lo largo de la vida de la conexión, construyes este espacio de encabezado y básicamente puedes ser muy eficiente en la forma de codificar y decodificar este tipo de cosas.


De hecho, agregamos esta característica llamada pipelining. Solo buscan cadenas en el flujo de bytes y simplemente las intercambian. Así que mucho tráfico de usuarios está migrando a teléfonos móviles, algo que vemos en gran cantidad en Google. Tiene una sola conexión y puede dividir todas esas solicitudes y respuestas en marcos individuales. Pero el problema con la pérdida de dinero del paquete es que cuando eso sucede, reducimos el tamaño de la ventana, la ventana de congestión, en muchos casos, bastante significativamente. Desafortunadamente, una de las cosas que no ha funcionado es la canalización de HTTP. Lo primero que lee es la longitud del marco, y en ese punto, sabe exactamente lo que necesita hacer para analizar esto.


Google Analytics recopila datos de tiempos de navegación, que son básicamente los datos de tiempo real del usuario de los clientes cuando acceden a su página. La transmisión de video no puede dificultar la saturación de mi enlace, pero quiero limitarlo a esta cantidad de rendimiento. Definitivamente hay solicitudes más grandes para cosas como imágenes, pero la mayoría de los otros activos que descargamos son muy pequeños, y los descargamos a través de muchas conexiones. TCP está optimizado para transferencias masivas y largas de datos, mientras que gran parte de nuestro tráfico real es corto y explosivo. El cliente abre múltiples solicitudes. Entra en el operador de telefonía móvil, y el operador de telefonía móvil básicamente tiene un enrutador global, que es la pasarela de paquetes. Entonces estos son los objetivos de alto nivel para el protocolo.


Habrá soporte comercial para este tipo de cosas. Se actualiza en la base de datos del usuario, la base de datos del usuario regresa a la puerta de enlace de servicio, la puerta de enlace de servicio puede reenviar el paquete a la torre real, la torre lo entrega a su teléfono. Para eso tenemos SPDY. Enviamos ocho kilobytes, y luego enviamos el resto. Entonces, hay muchas cosas que podemos hacer en este espacio. Esa solicitud se bloqueará durante un tiempo prolongado y las otras dos también estarán bloqueadas. Entonces, antes que nada, uno de los grandes desafíos que tenemos hoy en la web es hacer las cosas más rápido.


Las especificaciones originales en realidad dijeron que usted envió un paquete. Por lo tanto, todo esto lleva mucho tiempo, y lo que generalmente termina sucediendo es, si se hacen los cálculos para HTTP Archive, volviendo a lo original que miramos. Esto es solo en términos de encabezados HTTP, que es significativo. Pero el cambio no va a suceder de la noche a la mañana. Especialmente en el caso si tiene tiempo de procesamiento del servidor y otros. Hay pancartas pegadas por todas partes. Y el número interesante aquí es, por supuesto, esto: 86 y 57; entonces 86 solicitudes. Recibimos un reconocimiento.


Tenemos clientes que podemos rev. Así que este ha sido nuestro truco de la década. En realidad, hay múltiples problemas en múltiples capas. Archivo CSS o JavaScript. Porque de lo contrario, solo creará más y más contención o más bloqueos. Originalmente en SPDY, en realidad comenzamos con solo gzip directo. Incurrimos en el tiempo de procesamiento del servidor. Esta es solo la última latencia de milla.


Yendo de extremo a extremo, tenemos la búsqueda de DNS. Archivo CSS y otras cosas Servidores necesita ser más inteligente. Antes éramos como 2x en comparación con el escritorio versus el móvil. Entonces el control de flujo te permite hacer eso. Porque resulta que tenemos que ajustar nuestros protocolos para que sean mejores para evitar este problema. Entonces, ¿cómo elegimos este número? Entonces este es un experimento muy simple que creamos. Algunas de las oportunidades y algunas de las cosas que aún están en curso y que se deben hacer, servidores más inteligentes.


Entonces este es un tipo de escenario optimista. Acabamos haciendo un par de viajes de ida y vuelta, que son muy caros. Este tipo de cosas debe ocurrir en la capa de enrutamiento y en todas las otras capas dentro del sistema. El servidor puede hacer eso y la pregunta es ¿cómo se negocian las ID de transmisión? No requiere conexiones múltiples, por lo que queremos eliminar la necesidad de tener un cambio de dominio. Sharding, de muchas maneras, ayuda a los clientes que tienen más ancho de banda, que son sus clientes de escritorio, pero perjudica a las personas con conexiones más lentas, como los teléfonos móviles, porque causa congestión y causa más retransmisiones. Eso rompe el protocolo de maneras espectaculares.


Entonces la eficiencia es en realidad una gran preocupación de optimización aquí. La TCP debe perder dinero para que TCP funcione correctamente. El ancho de banda realmente importa allí, y la buena noticia es que realmente podemos obtener más ancho de banda. Por ejemplo, la implementación actual de nGenx no respeta las prioridades. Tu video se transmitirá mejor. Las cosas se están volviendo más rápidas. Entonces este es este gráfico aquí.


Así que el tiempo de carga de la página aquí es en milisegundos. Entonces termina su conexión TCP allí mismo en el PGW, y el PGW en realidad mira un montón de reglas, como, ¿debería reenviar el sitio del tráfico, etc. Entonces trabajo en Google como dice la diapositiva. Esta infraestructura se va a construir. Puede ver que en 2013, la latencia, especialmente en dispositivos móviles, ha disminuido significativamente. Eso te dice aproximadamente la cantidad de conexiones que abrimos. Esto es muy importante para mí, así que sirve esto con una prioridad más alta que la imagen, que te envié previamente. Entonces, si construimos un cable más corto, literalmente, hay un montón de cables allí, pero si tomamos una ruta ligeramente más directa entre estas ciudades, específicamente 300 millas más cortas, entonces podemos ahorrar unos cinco milisegundos de latencia.


Clientes HTTP en el pasado. Nos gusta hacer las cosas rápido. Así que, básicamente, en ese momento se estaba convirtiendo en un estándar de facto y dijimos, mira, debería haber una especificación más formal al respecto. Hubo casos, informes en el momento, cuando se llegó al colapso de la congestión que algunos paquetes tomarían literalmente un día para llegar a la otra persona en el otro extremo. Rendimiento web, trato resuelto. Pero el resto del mundo es básicamente plano. Debido a que puede tener un caso patológico, o puede tener un archivo de imagen que tarda mucho tiempo en generar, como un minuto, y luego todas sus solicitudes se acumulan detrás de él. ¿Los enrutadores escuchan esto o solo los servidores? Tenemos restricciones en la capa TCP.


Luego está la descarga de contenido real. Sería bueno si pudiéramos obtenerlos rápido, pero debería poder mostrar texto primero. Entonces, si tiene datos de más de 16 kilobytes, simplemente los dividirá en múltiples marcos de datos. Entonces, por ejemplo, Akamai tiene un sitio agradable, Akamai IO, donde básicamente puedes ingresar y escribir cualquier país y mirar el ancho de banda promedio, al menos como lo ve Akamai. Los datos de Google, pero nuestra teoría, y creo que tenemos buenas razones para creer que esta es la razón por la cual esto es cierto, es que esto está dominado por América del Norte. Al principio, básicamente elegimos el último borrador de SPDY y lo utilizamos como base. Ayudará a que el servicio sea más eficiente y, de hecho, reducirá la latencia para muchos usuarios.


Para que pueda optimizar, puede obtener el mejor ancho de banda y también puede obtener el mejor rendimiento. Usted envía una solicitud. Así que vamos a variar estas dos cosas de forma independiente. LT Advanced, que es el verdadero 4G, si se quiere. Luego está CSS y HTML. El control de flujo es algo interesante. Página HTML, y realmente debería dividir sus paquetes de JavaScript, ¿verdad? Entonces enviamos cuatro kilobytes.


Luego lo recupero. Pero en realidad puedes abrir transmisiones desde ambos extremos. Entonces eso apesta, y eso apesta porque ya estamos dentro de un pequeño factor constante de la velocidad máxima. Enviarlo al servidor. Puede hacer lo que necesite para generar esas tres respuestas, y luego simplemente nos envía los datos de tres respuestas. Resulta que una página promedio termina hablando con 15 hosts distintos en la web hoy, que es bastante grande. Así que todo esto es para decir que vamos a seguir viendo mejoras en el ancho de banda.


En la práctica, esto es lo que termina sucediendo con mucha frecuencia. Podemos hacer un cable más corto entre dos puntos finales. Llegamos a una ventana de, por ejemplo, 45 kilobytes o 60 kilobytes, y nos detenemos allí. ¿Cómo lo resolvemos a nivel de protocolo? Y esto resulta ser un gran desafío en los dispositivos móviles, donde solo el envío de una solicitud puede tomar en el orden de un segundo. Tuvimos muchos sitios grandes Debería resultar en una entrega más rápida. ISP, básicamente el cuadro POP en el ISP.


¿Cómo determinas eso? Tenemos que hacer una solicitud HTTP. Podemos mantener nuestro código modular.

No hay comentarios:

Publicar un comentario

Nota: solo los miembros de este blog pueden publicar comentarios.