Conceptos estadísticos Que Todo científico de datos debe Conocer

Los científicos de datos tienen una gran demanda y, en algunos casos, los científicos de datos están asumiendo funciones de estadísticos heredados. Si bien una carrera en ciencia de datos puede sonar interesante y disponible, los científicos de datos potenciales deben considerar su comodidad con las estadísticas antes de planificar su próximo paso, como obtener una maestría en ciencia de datos.

Si bien una carrera en ciencia de datos puede sonar interesante y disponible, los científicos de datos potenciales deben considerar su comodidad con las estadísticas antes de planificar su próximo paso, como obtener una maestría en ciencia de datos.

El papel de la estadística en la Ciencia de datos

La estadística, como disciplina académica y profesional, es la recopilación, el análisis y la interpretación de datos. Los profesionales que trabajan con estadísticas también tienen que ser capaces de comunicar sus hallazgos. Como tal, las estadísticas son una herramienta fundamental de los científicos de datos, que se espera que recopilen y analicen grandes cantidades de datos estructurados y no estructurados e informen sobre sus hallazgos.

Los datos son información en bruto, y los científicos de datos aprenden a extraerlos, según Data Science Central. Los científicos de datos utilizan una combinación de fórmulas estadísticas y algoritmos informáticos para notar patrones y tendencias dentro de los datos. Luego, utilizan su conocimiento de las ciencias sociales y de una industria o sector en particular para interpretar el significado de esos patrones y cómo se aplican a situaciones del mundo real. El propósito es generar valor para una empresa u organización.

Para convertirse en un científico de datos, debe tener una sólida comprensión de las matemáticas, el razonamiento estadístico, la informática y la ciencia de la información. Debe comprender conceptos estadísticos, cómo usar fórmulas estadísticas clave y cómo interpretar y comunicar resultados estadísticos.

Conceptos estadísticos importantes en la Ciencia de Datos

De acuerdo con Elite Data Science, una plataforma educativa de ciencia de datos, los científicos de datos necesitan comprender los conceptos fundamentales de la estadística descriptiva y la teoría de la probabilidad, que incluyen los conceptos clave de distribución de probabilidad, significación estadística, pruebas de hipótesis y regresión. El pensamiento bayesiano también es importante para el aprendizaje automático; sus conceptos clave incluyen probabilidad condicional, antecedentes y posteriors, y máxima verosimilitud.

Estadística descriptiva

La estadística descriptiva es una forma de analizar e identificar las características básicas de un conjunto de datos. Las estadísticas descriptivas proporcionan resúmenes y descripciones de los datos, así como una forma de visualizar los datos. Mucha información en bruto es difícil de revisar, resumir y comunicar. Con estadísticas descriptivas, puede presentar los datos de manera significativa.

Los análisis importantes en estadística descriptiva incluyen distribución normal (curva de campana), tendencia central (media, mediana y modo), variabilidad (cuartiles del 25%, 50%, 75%), varianza, desviación estándar, modalidad, asimetría y curtosis, de acuerdo con Towards Data Science, un blog de la industria de la ciencia de datos.

Las estadísticas descriptivas están separadas de las estadísticas inferenciales. Las estadísticas descriptivas muestran qué son los datos; las estadísticas inferenciales se utilizan para llegar a conclusiones y extraer inferencias de los datos.

Teoría de probabilidad

La teoría de probabilidad es una rama de las matemáticas que mide la probabilidad de que ocurra un evento aleatorio, según la Enciclopedia Británica. Un experimento aleatorio es una situación física con un resultado que no se puede predecir hasta que se observa. Como lanzar una moneda. La probabilidad es un número cuantificable entre cero y uno que mide la probabilidad de que ocurra un determinado evento. Cuanto mayor sea la probabilidad (más cerca de una), más probable es que suceda. La probabilidad de lanzar una moneda es 0.5 ya que el aterrizaje en cabezas o colas es igualmente probable.

La probabilidad analiza lo que podría suceder en función de una gran cantidad de datos, cuando un experimento se repite una y otra vez. No saca ninguna conclusión con respecto a lo que podría suceder a una persona específica o en una situación específica. Las fórmulas estadísticas relacionadas con la probabilidad se utilizan de muchas maneras, incluyendo gráficos actuariales para compañías de seguros, la probabilidad de la aparición de una enfermedad genética, encuestas políticas y ensayos clínicos, según Britannica.

Características estadísticas

Las características estadísticas son a menudo las primeras técnicas que utilizan los científicos de datos para explorar datos. Las características estadísticas (PDF, 21,6 MB) incluyen organizar los datos y encontrar los valores mínimo y máximo, encontrar el valor mediano e identificar los cuartiles. Los cuartiles muestran cuánto de los datos cae por debajo del 25%, el 50% y el 75%. Otras características estadísticas incluyen la media, el modo, el sesgo y otros datos básicos sobre los datos.

Distribuciones de probabilidad

Una distribución de probabilidad es todos los resultados posibles de una variable aleatoria y sus valores de probabilidad correspondientes entre cero y uno, de acuerdo con Investopedia. Los científicos de datos usan distribuciones de probabilidad para calcular la probabilidad de obtener ciertos valores o eventos.

La distribución de probabilidad tiene una forma y varias propiedades que se pueden medir, incluido el valor esperado, la varianza, la asimetría y la curtosis. El valor esperado es el valor medio de una variable aleatoria. La varianza es la dispersión de los valores de una variable aleatoria lejos de la media (media). La raíz cuadrada de la varianza se conoce como desviación estándar, que es la forma más común de medir la propagación de datos.

Reducción de dimensionalidad

La reducción de dimensionalidad es el proceso de reducir las dimensiones de su conjunto de datos, (PDF, 751 KB) de acuerdo con la Universidad de California Merced. El propósito de esto es resolver problemas que surgen con conjuntos de datos en dimensiones altas que no existen en dimensiones bajas. En otras palabras, hay demasiados factores involucrados. Cuantas más características se incluyan en un conjunto de datos, más muestras necesitarán los científicos para tener representadas todas las combinaciones de características. Esto aumenta la complejidad del experimento. La reducción de la dimensionalidad tiene una serie de beneficios potenciales, que incluyen menos datos que almacenar, computación más rápida, menos redundancias y modelos más precisos.

Muestreo excesivo e insuficiente

No todos los conjuntos de datos están inherentemente equilibrados. Los científicos de datos utilizan el muestreo excesivo y el muestreo insuficiente para alterar conjuntos de datos desiguales (PDF, 4,9 MB), que también se conoce como remuestreo. El muestreo excesivo se utiliza cuando los datos disponibles actualmente no son suficientes. Existen técnicas establecidas para imitar una muestra natural, como la Técnica de Muestreo Excesivo de Minorías Sintéticas (SMOTE, por sus siglas en inglés). El muestreo insuficiente se utiliza cuando una parte de los datos está sobrerrepresentada. Las técnicas de muestreo insuficiente se centran en encontrar datos superpuestos y redundantes para utilizar solo algunos de los datos.

Estadística Bayesiana

La Sociedad Internacional de Análisis Bayesiano explica el Teorema de Bayes: «En el paradigma bayesiano, el conocimiento actual sobre los parámetros del modelo se expresa colocando una distribución de probabilidad en los parámetros, llamada distribución previa.»

La distribución anterior es el conocimiento actual de un científico sobre un tema. Cuando la nueva información sale a la luz, se expresa como la probabilidad, que es «proporcional a la distribución de los datos observados dados los parámetros del modelo.»Esta nueva información es» combinada con la anterior para producir una distribución de probabilidad actualizada llamada distribución posterior.»

Esto puede ser confuso para los estudiantes de nuevas estadísticas, pero hay definiciones simplificadas. El pensamiento bayesiano abarca la actualización de creencias basadas en nuevos datos, de acuerdo con la Ciencia de Datos de Élite. Esta es una alternativa a las estadísticas de frecuencia, que se usan comúnmente para calcular probabilidades.

Use Estadísticas y Ciencia de datos

Si desea obtener más información sobre estadísticas y cómo extraer grandes conjuntos de datos para obtener información útil, la ciencia de datos podría ser adecuada para usted. La competencia en estadística, programación informática y tecnología de la información podría llevarlo a una carrera exitosa en una amplia gama de industrias. Los científicos de datos se necesitan en casi todas partes, desde el cuidado de la salud y la ciencia hasta los negocios y la banca.

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Previous post Ejemplo de Estatutos del 1%
Next post Cómo Secar Higos