La parte de lo automático “tiene que ver con que una parte de (y a veces toda) la tarea de reconstrucción [re-ajuste] del modelo puede relegarse a un procedimiento computacional” (p. 39-40). Frente a la evolución de los datos, la calidad de los mismos es fundamental ante la rapidez con que se generan, el procesamiento de la información, el incremento en la capacidad de almacenamiento y la posibilidad de realizar análisis más complejos. En su versión piloto, este trabajo de los expertos señala la relevancia de la acción y supervisión humana a fin de evitar «efectos potencialmente negativos para los derechos fundamentales» (Grupo de Expertos de alto nivel sobre inteligencia artificial, 2019, p. 33). Mantelero advierte que una evaluación centrada en los derechos humanos debe dar una mejor respuesta a la demanda de una evaluación integral que incluya no solo la protección de datos, sino también los efectos del uso de los datos sobre los derechos y libertades, como la libertad de expresión, de reunión, de movimiento y también derechos como la no discriminación (2018, p. 771).

(Hand, Mannila y Smyth 2001, 1) la consideran como el análisis de conjuntos de datos observados, generalmente de gran volumen, con el objetivo de encontrar nuevas relaciones entre variables, así como el correcto resumen de dichos conjuntos de datos en forma comprensible y útil. Para (Graham 2011, 2-5), data mining es el arte y la ciencia del análisis inteligente de datos, con el objetivo de generar conocimiento de interés a partir de estos. Por otra parte, la minería de datos se considera un paso fundamental en el descubrimiento de patrones de información o knowledge discovery. Este se entiende como el proceso de encontrar patrones válidos relevantes, potencialmente útiles, buscando que sean comprensibles (Klösgen y Zytkow 2002, 10-21). Además, se consiguió alcanzar la meta de elaborar un registro documental haciendo uso de buscadores como Science Direct, IEEE Explore, Emerald, Oxford University Press, Springer y Google Académico, principalmente. La meta de discriminar aquellos textos que refieren el análisis de grandes cúmulos de datos en relación con otros temas del derecho también se alcanzó, lo mismo que el objetivo de integrar todas las obras para presentar un registro documental que diera cuenta del estado del arte en que se encuentra la herramienta de big data en relación con la promoción de los derechos humanos.

‘Jobs-to-be-done’: la innovación desde el conocimiento del cliente

A juicio de
Peiró y Guallar (2013), el periodismo de
datos está básicamente en relación con el periodismo de investigación, el periodismo
de precisión, la documentación, la infografía, el fact checking y
el open data y el big data. A pesar de que el término Big Data se asocia principalmente con cantidades de datos exorbitantes, se debe dejar de lado esta percepción, pues Big Data no va dirigido solo a gran tamaño, sino que abarca tanto volumen como variedad de datos https://aquinoticias.mx/conviertete-en-un-cientifico-de-datos-exitoso-con-el-bootcamp-de-ciencia-de-datos-de-tripleten/ y velocidad de acceso y procesamiento. En la actualidad se ha pasado de la transacción a la interacción, con el propósito de obtener el mejor provecho de la información que se genera minuto a minuto [2]. También se ve la diversidad de planteamientos que presentan los autores en cuanto al concepto de Big Data y las características que este debe atender. Es claro que el tema ha tomado un carácter de moda mundial y que se ha dejado de asociar solo a la característica de gran tamaño.

La minería de datos nace de la necesidad de conocer información útil a partir de los bases de datos o Datawarehouse, con el crecimiento de los datos disponibles, la inteligencia de negocios tuvo que dar paso a la aplicación de la minería de datos en soluciones empresariales y comerciales, puesto que de esta manera se permite el descubrimiento automático o semiautomático de información relevante a partir de estos cúmulos de datos. En las ciencias y la ingeniería existe un amplio rango de problemas y dominios de aplicación para la minería de datos [36]. Se encuentran soluciones a partir de minería de datos para problemas de los campos de mercadeo, comercio, salud, predicción, transporte, meteorología, entre otros. Los retos que se desprenden del consumo y creación de información a través de la red incluyen necesidades de captura, manejo y procesamiento de grandes volúmenes de datos. En [16] los autores proponen un teorema llamado “HACE” (Heterogeneous, Autonomous, Complex y Evolving), con el cual buscan describir las características de la revolución de Big Data. El teorema plantea la existencia de un gran volumen de datos heterogéneos y provenientes de fuentes autónomas con control distribuido y descentralizado, y que trata de explorar relaciones complejas y cambiantes entre los datos.

Revista chilena de pediatría

No obstante, la posibilidad de compartir datos supone un nuevo reto en las tareas básicas de
selección, análisis y difusión que realiza el documentalista. En este contexto,
Peset, Ferrer-Sapena y Subirats-Coll
(2011) plantean el open data como una eficaz vía para
detectar duplicados documentales, eliminar las posibles ambigüedades terminológicas
y suministrar la información y datos a usuarios de otras especialidades
profesionales, como es el caso particular de los periodistas. Con el auge del Big Data se ha dado cabida también a un nuevo concepto, Data Science o Ciencia de los Datos, que se Conviértete en un científico de datos exitoso con el bootcamp de ciencia de datos de TripleTen usa de forma genérica para hacer referencia a la serie de técnicas necesarias para el tratamiento y manipulación de información masiva desde un enfoque estadístico e informático. Incluyendo también el surgimiento de un nuevo perfil profesional, el “Data Scientist” [3], las personas capacitadas en este perfil deben saber del negocio, de las herramientas computacionales y de análisis e interpretación estadística. Las tecnologías asociadas al enfoque de Big Data ya han comenzado a tomar madurez y se vislumbran grandes oportunidades y retos en su utilización, optimización y adaptación a diferentes dominios de datos.

articulos cientificos de big data

Los cómputos se hacen en términos de una función de mapeo y otra de reducción y el cálculo se hace de forma paralelizada. Los autores muestran Map Reduce como un modelo que facilita el trabajo con sistemas paralelos y distribuidos, ya que oculta detalles de paralelización, tolerancia a fallos, optimización y balance de carga. Es necesario optimizar los recursos de red cuando se trabaja con Map Reduce, por ello es bueno leer los datos desde discos locales y reducir la cantidad de datos enviados a través de la red. También la ejecución redundante disminuye el impacto de las máquinas lentas, pérdida de datos y fallos de máquina.