#influencefunction search results

The variance of the #influencefunction usually is a good approximation to the variance of your estimator and you can easily calculate the asymptotic confience intervals in #rstats with our examples:

RodZepeda's tweet image. The variance of the #influencefunction usually is a good approximation to the variance of your estimator and you can easily calculate the asymptotic confience intervals in #rstats with our examples:

The #influencefunction wuantifies how robust your estimators are to external noise. For example, if you measure the values 1, 1.2, 1.09, 1.03 and then you have a typo and write 101 instead of 1.01 the sample mean becomes too high! This happens because your IF is not bounded.

RodZepeda's tweet image. The #influencefunction wuantifies how robust your estimators are to external noise. For example, if you measure the values 1, 1.2, 1.09, 1.03 and then you have a typo and write 101 instead of 1.01 the sample mean becomes too high!

This happens because your IF is not bounded.

If the direction in which you take this directional derivative is that of a potential new value (i.e. you analyze how your estimate changes by adding one measurement) you end up with a famous function: the #influencefunction

RodZepeda's tweet image. If the direction in which you take this directional derivative is that of a potential new value (i.e. you analyze how your estimate changes by adding one measurement) you end up with a famous function: the #influencefunction

Ahora, si la dirección de la derivada que eliges es la de un nuevo valor (es decir decides analizar cómo cambia tu estimador si agregas una nueva medición) acabas con una función famosa: la #influencefunction.

RodZepeda's tweet image. Ahora, si la dirección de la derivada que eliges es la de un nuevo valor (es decir decides analizar cómo cambia tu estimador si agregas una nueva medición) acabas con una función famosa: la #influencefunction.

Bueno pues resulta que la varianza de la #influencefunction suele ser una buena aproximación a la varianza de tu estimador por lo que es posible calcular intervalos de confianza asintóticos de la forma clásica siguiendo nuestros ejemplos de código en R:

RodZepeda's tweet image. Bueno pues resulta que la varianza de la #influencefunction suele ser una buena aproximación a la varianza de tu estimador por lo que es posible calcular intervalos de confianza asintóticos de la forma clásica siguiendo nuestros ejemplos de código en R:

La #influencefunction cuantifica qué tan robustos son tus estimadores al ruido. Por ejemplo si estás midiendo valores 1, 1.2, 1.09, 1.03 y alguien hace un error de dedo y te pasa el 101 en lugar del 1.01 ¡pum tu promedio se vuelve altísimo! Esto pasa porque la IF no es acotada

RodZepeda's tweet image. La #influencefunction cuantifica qué tan robustos son tus estimadores al ruido. Por ejemplo si estás midiendo valores 1, 1.2, 1.09, 1.03 y alguien hace un error de dedo y te pasa el 101 en lugar del 1.01 ¡pum tu promedio se vuelve altísimo!

Esto pasa porque la IF no es acotada

You want to know more about the connection between the #influencefunction and the #Deltamethod ? Check out our #preprint we made with @camaringe @MJTSmith @aurelien_belot @mf_schomaker @icon_lshtm @mirschnitzer @watzilei All comments are welcome!


¿Quieres saber + de cómo se conectan el #MetodoDelta y la #influencefunction y cómo usarlas para varianzas en #epi? Checa el #preprint que hicimos junto con @WATZILEI y los demás (que no encuentro en Twitter). Comentarios/sugerencias de cómo hacerlo + amigable son bienvenidas


Wonder how couterfactually augmented data relates to #CounterfactualInference and #influencefunction

Enjoyed chatting w. @samcharrington on @twimlai podcast. We cover the sate of the field, papers I found interesting, recent work in my group on (i) counterfactually-augmented data (arxiv.org/abs/1909.12434) & (ii) non-ideal approaches to theorizing on fair ML (posting soon) & more



You want to know more about the connection between the #influencefunction and the #Deltamethod ? Check out our #preprint we made with @camaringe @MJTSmith @aurelien_belot @mf_schomaker @icon_lshtm @mirschnitzer @watzilei All comments are welcome!


The variance of the #influencefunction usually is a good approximation to the variance of your estimator and you can easily calculate the asymptotic confience intervals in #rstats with our examples:

RodZepeda's tweet image. The variance of the #influencefunction usually is a good approximation to the variance of your estimator and you can easily calculate the asymptotic confience intervals in #rstats with our examples:

The #influencefunction wuantifies how robust your estimators are to external noise. For example, if you measure the values 1, 1.2, 1.09, 1.03 and then you have a typo and write 101 instead of 1.01 the sample mean becomes too high! This happens because your IF is not bounded.

RodZepeda's tweet image. The #influencefunction wuantifies how robust your estimators are to external noise. For example, if you measure the values 1, 1.2, 1.09, 1.03 and then you have a typo and write 101 instead of 1.01 the sample mean becomes too high!

This happens because your IF is not bounded.

If the direction in which you take this directional derivative is that of a potential new value (i.e. you analyze how your estimate changes by adding one measurement) you end up with a famous function: the #influencefunction

RodZepeda's tweet image. If the direction in which you take this directional derivative is that of a potential new value (i.e. you analyze how your estimate changes by adding one measurement) you end up with a famous function: the #influencefunction

¿Quieres saber + de cómo se conectan el #MetodoDelta y la #influencefunction y cómo usarlas para varianzas en #epi? Checa el #preprint que hicimos junto con @WATZILEI y los demás (que no encuentro en Twitter). Comentarios/sugerencias de cómo hacerlo + amigable son bienvenidas


Bueno pues resulta que la varianza de la #influencefunction suele ser una buena aproximación a la varianza de tu estimador por lo que es posible calcular intervalos de confianza asintóticos de la forma clásica siguiendo nuestros ejemplos de código en R:

RodZepeda's tweet image. Bueno pues resulta que la varianza de la #influencefunction suele ser una buena aproximación a la varianza de tu estimador por lo que es posible calcular intervalos de confianza asintóticos de la forma clásica siguiendo nuestros ejemplos de código en R:

La #influencefunction cuantifica qué tan robustos son tus estimadores al ruido. Por ejemplo si estás midiendo valores 1, 1.2, 1.09, 1.03 y alguien hace un error de dedo y te pasa el 101 en lugar del 1.01 ¡pum tu promedio se vuelve altísimo! Esto pasa porque la IF no es acotada

RodZepeda's tweet image. La #influencefunction cuantifica qué tan robustos son tus estimadores al ruido. Por ejemplo si estás midiendo valores 1, 1.2, 1.09, 1.03 y alguien hace un error de dedo y te pasa el 101 en lugar del 1.01 ¡pum tu promedio se vuelve altísimo!

Esto pasa porque la IF no es acotada

Ahora, si la dirección de la derivada que eliges es la de un nuevo valor (es decir decides analizar cómo cambia tu estimador si agregas una nueva medición) acabas con una función famosa: la #influencefunction.

RodZepeda's tweet image. Ahora, si la dirección de la derivada que eliges es la de un nuevo valor (es decir decides analizar cómo cambia tu estimador si agregas una nueva medición) acabas con una función famosa: la #influencefunction.

Wonder how couterfactually augmented data relates to #CounterfactualInference and #influencefunction

Enjoyed chatting w. @samcharrington on @twimlai podcast. We cover the sate of the field, papers I found interesting, recent work in my group on (i) counterfactually-augmented data (arxiv.org/abs/1909.12434) & (ii) non-ideal approaches to theorizing on fair ML (posting soon) & more



No results for "#influencefunction"

Ahora, si la dirección de la derivada que eliges es la de un nuevo valor (es decir decides analizar cómo cambia tu estimador si agregas una nueva medición) acabas con una función famosa: la #influencefunction.

RodZepeda's tweet image. Ahora, si la dirección de la derivada que eliges es la de un nuevo valor (es decir decides analizar cómo cambia tu estimador si agregas una nueva medición) acabas con una función famosa: la #influencefunction.

Bueno pues resulta que la varianza de la #influencefunction suele ser una buena aproximación a la varianza de tu estimador por lo que es posible calcular intervalos de confianza asintóticos de la forma clásica siguiendo nuestros ejemplos de código en R:

RodZepeda's tweet image. Bueno pues resulta que la varianza de la #influencefunction suele ser una buena aproximación a la varianza de tu estimador por lo que es posible calcular intervalos de confianza asintóticos de la forma clásica siguiendo nuestros ejemplos de código en R:

La #influencefunction cuantifica qué tan robustos son tus estimadores al ruido. Por ejemplo si estás midiendo valores 1, 1.2, 1.09, 1.03 y alguien hace un error de dedo y te pasa el 101 en lugar del 1.01 ¡pum tu promedio se vuelve altísimo! Esto pasa porque la IF no es acotada

RodZepeda's tweet image. La #influencefunction cuantifica qué tan robustos son tus estimadores al ruido. Por ejemplo si estás midiendo valores 1, 1.2, 1.09, 1.03 y alguien hace un error de dedo y te pasa el 101 en lugar del 1.01 ¡pum tu promedio se vuelve altísimo!

Esto pasa porque la IF no es acotada

The variance of the #influencefunction usually is a good approximation to the variance of your estimator and you can easily calculate the asymptotic confience intervals in #rstats with our examples:

RodZepeda's tweet image. The variance of the #influencefunction usually is a good approximation to the variance of your estimator and you can easily calculate the asymptotic confience intervals in #rstats with our examples:

The #influencefunction wuantifies how robust your estimators are to external noise. For example, if you measure the values 1, 1.2, 1.09, 1.03 and then you have a typo and write 101 instead of 1.01 the sample mean becomes too high! This happens because your IF is not bounded.

RodZepeda's tweet image. The #influencefunction wuantifies how robust your estimators are to external noise. For example, if you measure the values 1, 1.2, 1.09, 1.03 and then you have a typo and write 101 instead of 1.01 the sample mean becomes too high!

This happens because your IF is not bounded.

If the direction in which you take this directional derivative is that of a potential new value (i.e. you analyze how your estimate changes by adding one measurement) you end up with a famous function: the #influencefunction

RodZepeda's tweet image. If the direction in which you take this directional derivative is that of a potential new value (i.e. you analyze how your estimate changes by adding one measurement) you end up with a famous function: the #influencefunction

Loading...

Something went wrong.


Something went wrong.


United States Trends