Esto influye por la manera en que se realiza el análisis de los grandes cúmulos de datos; por ello, es preciso entender que, por un lado, se encuentra quien recoge los datos de manera bruta y los vende. Luego, por medio de esa relación contractual, se reciben los datos que se habrán de analizar y se estipula la calidad de los mismos. En una segunda fase se dan los resultados del análisis de datos, que de haberse realizado con datos impuros ya tendrá cierto tipo de sesgo en los resultados; y, finalmente, pero no menos importante, la protección legal que se accionará si se ha hecho una discriminación injusta con los resultados obtenidos del análisis (Hoeren, 2017, p. 27). Thomas Buergenthal señala que el derecho contemporáneo de los derechos humanos consiste en un cuerpo masivo de derechos de individuos y grupos, proclamados en un vasto número de instrumentos regionales e internacionales, así como en una jurisprudencia voluminosa de derechos humanos emitida por las cortes internacionales y los cuerpos casi judiciales que aplican estos instrumentos. Estos instrumentos internacionales incluyen las convenciones y declaraciones adoptadas bajo los auspicios de las Naciones Unidas, así como los instrumentos a cargo de agencias especializadas de esta organización.
- En el caso de los análisis de grandes cúmulos de datos, cada Estado que conforma la sociedad internacional ha optado por regular temas relativos a esta técnica de análisis, centrándose principalmente en proteger la privacidad de las personas y la manera en que se tratan los datos personales.
- Estos datos capturados para ser comercializados y controlados, están expuestos en cualquier fase de procesamiento a perder confiabilidad.
- En el primer caso, no es claro cuál es la cantidad de datos que permite esta calificación; y para el segundo, no hay coincidencia en determinar para qué tipo de datos el procesamiento distribuido consigue mejores resultados.
- Desde la perspectiva tecnológica se presenta Hadoop como la principal herramienta desarrollada para el tratamiento de Big Data, incluyendo el manejo de sistemas de archivos distribuidos y el paradigma de programación Map Reduce.
En [53] se hace énfasis en la utilización de técnicas de Inteligencia Artificial (IA) para facilitar la captura y estructuración de grandes volúmenes de datos y también cómo se han implementado para el análisis de estos. Se presentan algunas preocupaciones respecto a la integración de IA con Big Data, que no se resuelven solo con pensar en la distribución Bootcamp vs. curso online: por qué los programas de TripleTen son la mejor opción y paralelización, sino que requieren otros análisis. Las técnicas de IA para el tratamiento de Big Data permiten la delegación de tareas complejas de reconocimiento de patrones, aprendizaje y otras tareas basadas en enfoques computacionales, la IA contribuye a la velocidad en la manipulación de los datos, facilitando la toma de decisiones rápidas.
¿Qué es Data Science?
Los distintos tipos de datos no dejan de multiplicarse, por lo que cada día aumenta el valor de los profesionales del Big Data y Data Science. En primer término, es importante tener en cuenta que el registro médico surge de la práctica clínica, por tanto, el dato que se registra corresponde a un conjun to de acciones realizadas por profesionales de salud, en pos de atender o dar respuesta a una necesidad de salud de quien la requiera. En consecuencia, los datos que se generan no necesariamente son con fines de investi gación científica, por lo cual pueden contener errores, estar incompletos o pueden haberse registrado bajo di ferentes reglas de clasificación o unidades de medida, entre otros. Las e-alertas se han usado para la definición y estadificación de la insuficiencia renal aguda (IRA), sobre la base de los RES y los sistemas integrados de cuidados intensivos26.
En pacientes pediátricos hospitalizados, sin enfermedades críticas, las e-alertas han sido usadas en sistemas de vigilancia de nefrotoxina relacionadas con IRA, lo cual ha permitido reducir la intensidad de IRA en 42% de los casos27, aunque hay autores que ad vierten que la evidencia científica es aún limitada como para establecer con certeza que las e-alarmas sean de utilidad clínica28. El otro aspecto que define a los Big Data es la ve locidad, lo cual hace alusión al ritmo en que los datos se producen, pero también a la capacidad de respuesta en el análisis como para hacer de la información un producto que dé soluciones innovadoras y eficientes9. La mínima cantidad de información que puede ser procesada por un aparato tecnológico es el bit, el cual sólo puede ser expresado en ceros o unos, mientras que un byte es un conjunto de 8 bits. Así entonces, un Gi gabyte (Gb) corresponde a 109 byte, un Terabyte (Tb) a 1012, un Petabyte (Pb) a 1015 y un Exabyte (Eb) a 1018 bytes. Por tanto, cuando se habla de datos masivos, se está refiriendo a una generación de datos del orden de los Pb y Eb o superior.
La complementariedad de Big Data y Data Science
A continuación, se da una breve descripción de algunas tecnologías y técnicas de Big Data, los artículos referenciados en esta sección comprenden algunos de los documentos “ramas”encontrados en la exploración con la herramienta ToS, otros hacen parte de la búsqueda inicial en Scopus y otros son fuentes adicionales consultadas por los autores para ampliar el tema y cubrir el objetivo de brindar una visión del estado del arte referente a la temática abordada. Es importante también, tener en cuenta cómo en el área de la industria y los negocios se ha presentado una explosión en el número de datos, causada principalmente por el rápido desarrollo del internet, nuevos conceptos https://zacatecasonline.com.mx/tendencias/86286-bootcamp-programas-tripleten como el internet de las cosas y la computación en la nube. Big data se ha constituido como un “tópico caliente”que atrae la atención no solo de la industria, sino también de la academia y del Gobierno. Los autores presentan desde diferentes perspectivas el significado y las oportunidades que nos brinda el ecosistema Big Data y dan una serie de condiciones necesarias para que un proyecto de Big Data sea exitoso. En segundo lugar, para trabajar de forma eficiente con Big Data se requiere explorar y encontrar la estructura central o el kernel de los datos a ser procesados, ya que al tener esto se puede caracterizar el comportamiento y las propiedades subyacentes a Big Data.
- Es aquí, justamente, donde las técnicas de aprendizaje autónomo e inteligencia artificial que permiten que las máquinas logren decidir con base a un código de programación puede representar un riesgo para los derechos humanos (Ureña, 2019, p. 104), pues este tipo de información, puesta en manos de dictadores o potenciales terroristas, puede representar un gran riesgo para las sociedades (Alfaro et al., 2012, p. 111).
- Por ejemplo, en todo el mundo han surgido comunidades que han creado plataformas que trabajan bajo el modelo de inteligencia colectiva, donde desarrolladores, científicos de datos, investigadores, médicos, entre otros voluntarios, formulan proyectos relacionados con la COVID-19.
- Se decide presentar estas tecnologías ya que son software de libre uso y que permite la generación de soluciones de Big Data de acuerdo con las necesidades particulares de un dominio de datos u organización.
- Big Data no busca sustituir a los sistemas tradicionales, sino construir una nueva tendencia donde se construyan arquitecturas de sistemas que permitan manejar todas las peticiones.