El papel de las redes descentralizadas en un mundo hiperconectado con abundancia de datos

Cuando se trata de almacenamiento de datos informáticos, puede parecer que nos estamos quedando sin números. Si tiene la edad suficiente, es posible que recuerde cuando el almacenamiento de disquetes se medía en kilobytes en la década de 1980. Si es un poco más joven, probablemente esté más familiarizado con las unidades de memoria USB denominadas en gigabytes o discos duros que contienen terabytes en la actualidad.

La huella de datos insondable de la humanidad

Pero ahora estamos produciendo datos a un ritmo sin precedentes. Como resultado, vamos a necesitar ser capaces de captar números tan grandes que parezcan casi más allá de la comprensión humana. Para tener una idea del nuevo reino en el que estamos entrando, considere esto: la firma de inteligencia de mercado IDC estima que la creación y el consumo global total de datos ascendieron a 59 zettabytes en 2020, es decir, 59 billones de gigabytes en dinero antiguo.

Sin embargo, si bien el volumen total de datos existentes se encuentra ahora en una escala casi insondable, la tasa a la que está creciendo es aún más sorprendente. En 2012, IBM calculó que el 90% de los datos del mundo se habían creado en los dos años anteriores. Desde entonces, el crecimiento exponencial en el volumen de datos global ha continuado a buen ritmo y la tendencia parece que continuará. De hecho, IDC proyecta que durante los próximos tres años, la humanidad creará más datos que durante las tres décadas anteriores.

La pregunta obvia es: ¿Que ha cambiado? ¿Por qué de repente estamos produciendo muchos más datos que nunca? Por supuesto, los teléfonos inteligentes son parte de la historia. Todos ahora llevan efectivamente una computadora móvil en el bolsillo, empequeñeciendo el poder de las computadoras de escritorio de generaciones anteriores. Estas máquinas están constantemente conectadas a Internet y reciben y transmiten datos continuamente, incluso cuando están inactivas. El adulto estadounidense promedio de la Generación Z desbloquea su teléfono 79 veces al día, aproximadamente una vez cada 13 minutos. La naturaleza siempre activa de estos dispositivos ha contribuido a la avalancha de nuevos datos producidos, con 500 millones de tweets nuevos, 4.000 terabytes de publicaciones en Facebook y 65.000 millones de mensajes nuevos de WhatsApp lanzados al ciberespacio cada 24 horas.

Los teléfonos inteligentes son solo la punta del iceberg

Sin embargo, los teléfonos inteligentes son simplemente la manifestación más visible de la nueva realidad de los datos. Si bien podría suponer que las plataformas de video como Netflix y YouTube constituyen la mayor parte de los datos globales, de hecho, la participación total de los consumidores asciende solo a aproximadamente el 50%, y se prevé que este porcentaje disminuya gradualmente en los próximos años. Entonces, ¿qué compone el resto?

Recibe +8€ por Crear tu Cuenta Recibe +8€ por Crear tu Cuenta

El auge del Internet de las cosas y los dispositivos conectados ha ampliado aún más nuestra huella de datos global. De hecho, el crecimiento interanual más rápido se está produciendo en una categoría de información conocida como datos integrados y de productividad. Esta es información derivada de sensores, máquinas conectadas y metadatos generados automáticamente que existen detrás de escena, más allá de la visibilidad de los usuarios finales.

Tomemos los vehículos autónomos, por ejemplo, que utilizan tecnologías, como cámaras, sonar, LIDAR, radar y GPS, para monitorear el entorno del tráfico, trazar una ruta y evitar peligros. Intel ha calculado que el vehículo autónomo promedio que utiliza las tecnologías actuales producirá cuatro terabytes de datos por día. Para poner eso en perspectiva, un solo vehículo producirá un volumen de datos cada día equivalente a casi 3.000 personas. Además, será de vital importancia que estos datos se almacenen de forma segura.

Por un lado, será útil para programar intervalos de servicio y diagnosticar problemas técnicos de la manera más eficiente. También podría usarse como parte de un sistema descentralizado para coordinar el flujo de tráfico y minimizar el consumo de energía en una ciudad específica. Finalmente, y probablemente lo más importante a corto plazo, será esencial para resolver disputas legales en caso de lesiones o accidentes.

Los vehículos autónomos son solo una pequeña parte de la historia general. Según McKinsey & Company, el porcentaje de empresas que utilizan tecnología IoT ha aumentado del 13% al 25% entre 2014 y 2019, y se prevé que el número total de dispositivos alcance los 43.000 millones para 2023. Desde IoT industrial hasta ciudades inteligentes enteras, la economía del futuro tendrá un número enormemente mayor de dispositivos conectados que producirán datos potencialmente muy sensibles o incluso críticos.

¿Se vislumbra el final de la Ley de Moore?

Hay dos factores a considerar, y ambos apuntan a la creciente utilidad de las redes descentralizadas. En primer lugar, si bien tenemos más datos que nunca para abordar los desafíos globales, como el cambio climático, la inestabilidad financiera y la propagación de virus en el aire como COVID-19, es posible que nos estemos acercando a un límite técnico difícil en términos de cuánta información puede Ser procesado por computadoras centralizadas en tiempo real. Si bien los volúmenes de datos han crecido exponencialmente en los últimos años, la potencia de procesamiento no ha aumentado al mismo ritmo.

En la década de 1960, el cofundador de Intel, Gordon Moore, acuñó la Ley de Moore, que establecía que a medida que el número de transistores en un microchip se duplica cada dos años, la potencia informática aumentará al ritmo correspondiente. Pero el propio Moore admitió que no se trataba de una ley científica; fue más una observación estadística transitoria. En 2010, reconoció que a medida que los transistores se acercan al tamaño de los átomos, la potencia de procesamiento de las computadoras alcanzará un límite técnico en las próximas décadas. Después de eso, se pueden agregar más núcleos a los procesadores para aumentar la velocidad, pero esto aumentará el tamaño, el costo y el consumo de energía del dispositivo. Por lo tanto, para evitar un efecto de cuello de botella, necesitaremos encontrar nuevas formas de monitorear y responder a los datos.

El segundo factor a considerar es la ciberseguridad. En un mundo cada vez más interconectado, millones de nuevos dispositivos están conectados. Los datos que proporcionan influirán potencialmente en cosas como cómo se controlan las redes eléctricas, cómo se administra la atención médica y cómo se gestiona el tráfico. Como resultado, la seguridad perimetral, la seguridad de los datos que residen fuera del núcleo de la red, se vuelve primordial. Esto representa un desafío complejo para los expertos en ciberseguridad, ya que las diferentes combinaciones de dispositivos y protocolos brindan nuevas superficies de ataque y oportunidades para intrusiones de intermediarios.

Aprendiendo de las redes en la naturaleza

Si el procesamiento centralizado es demasiado lento e inseguro para las futuras economías abundantes de datos, ¿cuál es la alternativa? Algunos expertos han estado buscando inspiración en el mundo natural, argumentando que deberíamos pasar de un modelo de arriba hacia abajo a uno de abajo hacia arriba para monitorear y responder a los datos. Tomemos como ejemplo las colonias de hormigas. Si bien cada hormiga individual tiene una inteligencia relativamente modesta, colectivamente, las colonias de hormigas logran crear y mantener redes complejas y dinámicas de senderos de alimentación que pueden conectar múltiples nidos con fuentes de alimento transitorias. Lo hacen siguiendo algunos comportamientos simples y respondiendo a estímulos en su entorno local, como los rastros de feromonas de otras hormigas. Sin embargo, con el tiempo, la evolución desenterró instintos y comportamientos a nivel individual que producen un sistema que es altamente efectivo y robusto a nivel macro. Si un sendero es destruido por el viento o la lluvia, las hormigas encontrarán una nueva ruta, sin que ninguna hormiga individual sea consciente del objetivo general de mantener la red.

¿Y si esta misma lógica pudiera aplicarse a la organización de redes informáticas? De manera similar a las colonias de hormigas, en una red blockchain, muchos nodos de poder de procesamiento modesto pueden combinarse para producir un resultado global mayor que la suma de sus partes. Así como los instintos y el comportamiento son cruciales por naturaleza, las reglas que gobiernan cómo interactúan los nodos son críticas para determinar qué tan exitosa será una red para lograr metas a nivel macro.

Alinear los incentivos de cada actor descentralizado en una red de beneficio mutuo tomó miles de años para que la naturaleza dominara. No es de extrañar, por lo tanto, que también sea un desafío difícil para los diseñadores humanos de redes descentralizadas. Pero si bien las mutaciones genéticas de los animales son esencialmente aleatorias en términos de su beneficio potencial, tenemos la ventaja de poder modelar y diseñar incentivos a propósito para lograr objetivos generales comunes. Esto estaba en la vanguardia de nuestras mentes: el objetivo era eliminar todos los incentivos perversos para los actores individuales que erosionan la utilidad y la seguridad de la red en su conjunto.

Al diseñar cuidadosamente las estructuras de incentivos de esta manera, las redes descentralizadas pueden fortalecer en gran medida el grado de seguridad perimetral. Así como la red de búsqueda de caminos de una colonia de hormigas continuará funcionando incluso si una sola hormiga se pierde o muere, las redes descentralizadas son igualmente sólidas, lo que permite que la red siga siendo completamente funcional incluso cuando los nodos individuales fallan o se desconectan. Además, ni un solo nodo necesita procesar o comprender todos los datos en su totalidad para que la red en su conjunto pueda responder a ellos. De esta manera, algunos investigadores creen que podemos crear una estructura de incentivos económicos que detecte y responda automáticamente a los desafíos comunes de manera descentralizada.

Conclusión

El volumen de datos que estamos produciendo se está disparando y nuestra capacidad para monitorearlos y responder a ellos mediante redes informáticas centralizadas se está acercando a sus límites. Por esta razón, las redes descentralizadas se adaptan de manera única a los desafíos futuros. Queda por hacer mucha investigación, pruebas y experimentación, pero se ha demostrado la solidez y utilidad fundamentales de la tecnología subyacente. A medida que avanzamos hacia un mundo hiperconectado y con abundancia de datos, las redes descentralizadas podrían desempeñar un papel importante para obtener el máximo beneficio económico y social del Internet de las cosas.

Los puntos de vista, pensamientos y opiniones expresados ​​aquí son solo del autor y no necesariamente reflejan o representan los puntos de vista y opiniones de Cointelegraph.

Stephanie Entonces es economista, analista de políticas y cofundador de Geeq, una empresa de seguridad blockchain. A lo largo de su carrera, ha aplicado la tecnología dentro de sus disciplinas especializadas. En 2001, fue la primera en utilizar el aprendizaje automático en datos de ciencias sociales en el Centro Nacional de Aplicaciones de Supercomputación. Más recientemente, investigó el uso de procesos de redes distribuidas en el cuidado de la salud y la seguridad del paciente en su rol de profesora principal en la Universidad de Vanderbilt. Stephanie se graduó de la Universidad de Princeton y la Universidad de Rochester.