Tarea desempeñada en mayor medida por el documentalista que, lejos de ser una figura en riesgo de desaparición dentro de los medios, puede ver incrementada sus funciones a partir de las necesidades del profesional del periodismo. En cualquier caso, sigue existiendo un fuerte componente de la búsqueda de información en el marco de la información digital (Kemman et al., 2013). Junto a esto, aparece paulatinamente la necesidad de poner en funcionamiento aplicaciones de noticias como sistemas continuos, normalmente gracias al uso de API en su faceta de fuentes de datos. El crecimiento en el uso de Internet y la aparición de las redes sociales ha provocado que en diferentes casos la información llegue antes al ámbito del periodismo ciudadano que a los grandes medios de comunicación.
Como se mencionó al inicio de este trabajo, es común encontrar en la literatura relacionada al derecho internacional y el big data el tema recurrente de la protección de datos y la privacidad, ya que los análisis de grandes cúmulos de datos requieren de la materia prima que representan los datos generados por los individuos para recolectarlos y, posteriormente, tratarlos. Sin embargo, en esta contribución se quiso abrir el tema de la técnica de análisis de grandes cúmulos de datos en relación no solo a la protección de los datos personales y la privacidad de los individuos, sino también evidenciando que hay otros derechos humanos que pueden verse vulnerados con los análisis de grandes cúmulos de datos. Así, encontramos que la mayoría de la literatura que estudia esta temática centra su atención justamente en la protección de datos y la privacidad, dejando de lado temas como la discriminación, la segregación y la falta de prevención de posibles actos ilícitos como la incitación al odio, por citar algunos ejemplos. Se han realizado revisiones previas sobre la relevancia del big data en diferentes áreas, y algunos ejemplos se enfocan en la aplicación de tecnología junto con el análisis de big data para mejorar significativamente los procesos de suministros agrícolas (Kittichotsatsawat et al., 2021).
Revista Logos Ciencia & Tecnología
Big data se ha constituido como un “tópico caliente” que atrae la atención no solo de la industria, sino también de la academia y del Gobierno. No obstante, para autores como Koot et al. (2021) y Elgendy (2021) la voluntad de inversión en el internet de las cosas no parece depender únicamente de la demanda de conocimiento e incorporación de innovaciones tecnológicas. La primera fase de la investigación delimita claramente el tema y objeto de estudio, el cual se enfoca en la aplicación de tecnologías emergentes de la industria 4.0 en los procesos empresariales, concretamente en el análisis de las investigaciones sobre la implementación del big data en la cadena de suministro de las empresas. La cadena de suministro es una red compleja en la que participan proveedores, centros de producción, almacenes, centros de distribución, minoristas y clientes, todos interconectados por una serie de procesos que permiten la circulación de mercancías, recursos, dinero e información desde un origen hasta un destino. Su principal función es planificar y gestionar los procesos y flujos de material e información necesarios para satisfacer las exigencias de los clientes de manera efectiva (Wrobel-Lachowska et al., 2018).
En este orden de ideas, el desarrollo tecnológico y la innovación asociada a la conectividad del mundo, representada en el internet, presenta un beneficio adicional, que es la posibilidad de que cada empresa genere su propio sistema de interacción interna para agilizar los procesos operativos y diseñe una interfaz que incluya todos los procedimientos automatizados y humanos que conforman la organización (Lin y Lin, 2019). La información generada por el uso de dispositivos ha alcanzado un crecimiento que parece difícil de calcular para los próximos años, fenómeno que ha generado la necesidad de implementar el big data con el objetivo de administrar, recolectar e interpretar grandes masas de información (Benabdellah https://www.javiergosende.com/ciencia-datos-inteligencia-artificial et al., 2016). Es importante, entonces, visibilizar el valor del big data en el manejo del flujo masivo de información, tanto como en la gestión de la cadena de suministros, para identificar las oportunidades y debilidades que hacen parte del proceso. En esta fase, se llevó a cabo un análisis de redes que permitió visualizar los documentos más relevantes sobre la implementación de big data en cadenas de suministro y procesos logísticos, así como identificar los principales clústeres de investigación en este campo. Los criterios de consulta arrojaron un total de 503 registros consolidados después de integrar los 201 registros de Web of Science y los 406 registros de Scopus, eliminando los datos duplicados.
«La tecnología está al servicio de todos; la estrategia es lo que marca la diferencia»
En suma, aunque exista la percepción de que estos datos masivos están siendo subutilizados y no se está obteniendo el beneficio que podrían ofrecer47, resulta relevante también que se reflexione sobre sus riesgos y limitaciones, para así estimular una investigación cien tífica con una cultura ética del uso de la información personal de sujetos que pueden ser titulares de derechos48. curso de desarrollo web El procedimiento se va realizando por ca pas o nodos, de menor a mayor complejidad, el cual se puede realizar con sistemas de aprendizaje supervisa dos o no supervisados. Este tipo de aprendizaje se ha usado en la clasificación de imágenes, por ejemplo, en el estudio de cálculos renales usando un conjunto de datos con imágenes de cálculos en color e infrarrojo23.
- Este estudio es de especial interés porque permite realizar monitoreos epidemiológicos, caracterizando aquella población que se enferma, pero no ingresa a un hospital, o de aquellos que nunca muestran síntomas.
- Finalmente, en la logística de salida, se pueden planear rutas de distribución y última milla utilizando modelos multivariados de tráfico, tiempos, rutas, paquetes, clientes, vehículos, clima y otras restricciones.
- Por otra parte, y a diferencia de los artículos, donde encontrábamos mayormente los títulos de las revistas científicas Nature y Science, en los comentarios hay más variedad, así podemos mencionar ECONTENT y Scientific American donde publicaron Nancy Davis Kho (2016) y Kate Crawford (2014), respectivamente.
- En esta misma línea, se han usado múltiples fuen tes de datos integrados (genómicos, transcriptómicos y clínicos) con el fin de identificar los factores genéticos y moleculares que pueden ser cruciales en el comporta miento del neuroblastoma, el cual es un tumor sólido extracraneal muy común en niños38.
- El desafío más importante en este sentido, lo constituye la interpretación de las dinámicas del mercado y el comportamiento del cliente para tomar decisiones.
Los cómputos se hacen en términos de una función de mapeo y otra de reducción y el cálculo se hace de forma paralelizada. Los autores muestran Map Reduce como un modelo que facilita el trabajo con sistemas paralelos y distribuidos, ya que oculta detalles de paralelización, tolerancia a fallos, optimización y balance de carga. Es necesario optimizar los recursos de red cuando se trabaja con Map Reduce, por ello es bueno leer los datos desde discos locales y reducir la cantidad de datos enviados a través de la red. Farmapp implementa Big Data, IoT y herramientas de geolocalización y tecnología satelital, para monitorear cultivos en busca de plagas, realizar pronósticos a causa del impacto de cambio del clima, analizar la eficiencia de los plaguicidas y las condiciones del suelo para realizar una siembra más adecuada (Asociación Nacional de Industriales, 2017).
Lo mejor de Big Data
Estos algoritmos se valen de la ciencia de datos en la que se ejecutan diversos cálculos matemáticos, donde la densidad de información es amplia, compleja y variada. Por ejemplo, encontrar moléculas antivirales (Ahuja, Reddy & Marques, 2020) que combatan la COVID-19 e identifiquen millones de anticuerpos para tratamiento de infecciones secundarias (Ciliberto & Cardone, 2020). Nouvet y Mégret exponen que el análisis de big data, como método cuantitativo para analizar las violaciones a los derechos humanos, es una contribución de gran envergadura para las ciencias sociales; y que a pesar de que este tipo de herramientas tecnológicas no fue planeado precisamente con la finalidad de aportar a los derechos humanos, en la práctica son de gran utilidad (2016, pp. 1-2). Sarfaty explica que los esfuerzos del derecho internacional de los derechos humanos se han centrado en el cumplimiento de los tratados más que en la prevención de la vulneración estos derechos (2018, p. 76). Por otro lado, una parte fundamental de los pronunciamientos jurisdiccionales son los casos específicamente llevados a los tribunales, como es el caso de la sentencia Schrems ante el Tribunal de Justicia de la Unión Europea. Este caso involucra el uso de técnicas de big data para recabar información de personas sospechosas con la intención de prevenir y sancionar actos terroristas.