martes, 25 de marzo de 2008

La red podría sufrir una congestión TCP similar a la de 1986

Uno de los posibles factores es la red P2P y su tráfico de datos

Ya ocurrió en 1986 cuando solo había conectados unos 30000 equipos a la red, esta se sobrecargó. La pila de protocolos existentes en la que se basaban las comunicaciones entre máquinas no podía soportar la congestión de paquetes TCP que circulaban en ese momento, y las comunicaciones empezaron a fallar. El problema persistió hasta que en 1987 Van Jacobson programó un parche para el protocolo TCP que solucionó el problema. El parche ralentizaba el flujo de la transmisión a la mitad en cuanto se detectará pérdida de paquetes. Este medida parecía funcionar, equilibrando el flujo de datos, así que se aplicó a todas las maquinas de entonces. A día de hoy, el algoritmo creado por Van Jacobson sigue funcionando tras 20 años... al menos hasta ahora.

Según los expertos, el efecto "congestión TCP" podría ocurrir de nuevo debido en parte a la filosofía P2P de intercambio de archivos. Esta vez de una forma más sutil, pues la red a simple vista sigue funcionando. Sin embargo el problema a día de hoy sería mucho más grave que en el 86. En la actualidad las consecuencias de ese "parón" de Internet podrían ser desastrosas.

Bob Briscoe, jefe del "BT Network Research Centre" está trabajando a marchas forzadas para crear algún parche para el TCP que ayude a paliar este riesgo. Ya tiene una primeriza solución que han bautizado como el "weighted TCP" pero por lo visto afectaría negativamente al flujo de datos de la red P2P. Los defensores de esta red de intercambio de archivos no están de acuerdo con el parche de Bob Briscoe... claro

Más información (En inglés)

¿No será esto un plan de la SGAE para cerrar la redP2P? ;)

No hay comentarios:

Uno de los posibles factores es la red P2P y su tráfico de datos

Ya ocurrió en 1986 cuando solo había conectados unos 30000 equipos a la red, esta se sobrecargó. La pila de protocolos existentes en la que se basaban las comunicaciones entre máquinas no podía soportar la congestión de paquetes TCP que circulaban en ese momento, y las comunicaciones empezaron a fallar. El problema persistió hasta que en 1987 Van Jacobson programó un parche para el protocolo TCP que solucionó el problema. El parche ralentizaba el flujo de la transmisión a la mitad en cuanto se detectará pérdida de paquetes. Este medida parecía funcionar, equilibrando el flujo de datos, así que se aplicó a todas las maquinas de entonces. A día de hoy, el algoritmo creado por Van Jacobson sigue funcionando tras 20 años... al menos hasta ahora.

Según los expertos, el efecto "congestión TCP" podría ocurrir de nuevo debido en parte a la filosofía P2P de intercambio de archivos. Esta vez de una forma más sutil, pues la red a simple vista sigue funcionando. Sin embargo el problema a día de hoy sería mucho más grave que en el 86. En la actualidad las consecuencias de ese "parón" de Internet podrían ser desastrosas.

Bob Briscoe, jefe del "BT Network Research Centre" está trabajando a marchas forzadas para crear algún parche para el TCP que ayude a paliar este riesgo. Ya tiene una primeriza solución que han bautizado como el "weighted TCP" pero por lo visto afectaría negativamente al flujo de datos de la red P2P. Los defensores de esta red de intercambio de archivos no están de acuerdo con el parche de Bob Briscoe... claro

Más información (En inglés)

¿No será esto un plan de la SGAE para cerrar la redP2P? ;)

Compartelo: | | | Agregar a Google | | |

0 comentarios