S

#5 ¿Qué dices? ¿Que revista tiene 2000 si Nature es de 65 o asi?

S

#3 Hablan de un AUC de 1.0, no habría falsos negativos. Sospechoso es un rato, la verdad.

S

#13 ¿De dónde sacas todas esas cosas? Porque no hay ni una cierta. Que si capacidad de memoria, que si resumir datos, saturar su capacidad... 

m

#47 Lo que he dicho es todo de primer día de redes neuronales. ¿O cómo te crees que funciona? Porque si no lo siguiente es magia, y entonces es cuando empiezo a comprender a todos estos fanboys de la IA suponiéndole propiedades casi humanas.

sorrillo

#71 Lo que he dicho es todo de primer día de redes neuronales.

Te equivocaste de curso entonces.

Mientras no satures su capacidad se comporta como una base de datos.

Desde la primera iteración hay aleatoriedad en su estructura interna y no existe coherencia de datos alguna, ningún dato del entrenamiento se integra dentro de la red neuronal de forma binaria que es lo que ocurre con una base de datos.

Todo dato de entrenamiento sirve para elegir de entre los pesos modificados aleatoriamente cual de esas combinaciones da mejor resultado y determinar la cantidad de modificación aleatoria que se aplica a cada elemento de la red neuronal para aspirar a mejores resultados en la siguiente iteración.

Al sobrepasar su capacidad de memoria, se ve obligada a resumir esos datos, mezclando los ejemplos que sean parecidos.

No hay ningún espacio de memoria como tal. Lo que existe es un cerebro digital de dimensión fija inicializado con valores aleatorios cuyos valores internos se van modificando en la fase de entrenamiento, si esas modificaciones en base a la aleatoriedad acaban creando una región que podríamos identificar como región de memoria o no lo hacen no está definido con anterioridad y no existe mecanismo para forzarlo de ninguna forma.

La definición más precisa para explicar cómo la IA sabe cosas es que las ha aprendido, no las ha almacenado en bases de datos ni las consulta ni nada por el estilo, ni al principio de su entrenamiento ni al final.

m

#72 Lo que existe es un cerebro digital

Creo que este es el problema. El mito de que una red neuronal imita al cerebro. No es así, ni siquiera en las interconexiones.

S

De repente gente que no ha multiplicado una matriz desde secundaria, se pone a hablar de redes neuronales como expertos lol

a

#46 tampoco seas tan duro, igual usaron access en su día, y una red neuronal es como una base de datos

S
S

¿Pero hay gente que ve este programa como fuente de información y no como entretenimiento?

S

#146 Lo he visto. No deja de ser un finetuning de LLaMa de Meta. De hecho, solo pueden publicar las diferencias entre los parámetros de Llama y los suyos. Osea, nada público. Tienes que pasar por Meta y ellos te dirán si te dan los parámetros o no. Eso de basado en GPT4 es mentira.

S

El único problema que hay ahora con la IA es que son solo las grandes empresas las que están teniendo estas IAs tochas. Estas cosas deberían de salir de un laboratorio público y ser accesibles a todo el mundo.

sorrillo

#137 relacionada:

Vicuna, un chatbot open source basado en GPT4
Vicuna, un chatbot open source basado en GPT4

Hace 1 año | Por tdgwho a github.com

S

#146 Lo he visto. No deja de ser un finetuning de LLaMa de Meta. De hecho, solo pueden publicar las diferencias entre los parámetros de Llama y los suyos. Osea, nada público. Tienes que pasar por Meta y ellos te dirán si te dan los parámetros o no. Eso de basado en GPT4 es mentira.

S

Es que ese es el problema de estas cosas a tan gran escala. Los falsos positivos, que aunque tu algoritmo sea un 99,99% eficiente, no dejas de estar buscando una aguja en un pajar (el ratio delincuente/ persona no delincuentr) y aquí el señor Bayes con su teorema tiene mucho que decir.

S

No es así como realmente se entrena una red neuronal. Que como curiosidad usar un algoritmo genético para encontrar los pesos me parece genial, pero no es así como funciona.

Grub

#34 Es un perceptrón de primera hornada. Cinco entradas, dos filas y una salida.
Eso funciona con un Commodore lol
(edit. dos salidas)

S

#78 Sí, soy de lo peorcito. Tampoco te has dignado a responderme si conoces alguna alternativa, y esta vez te lo pregunto en serio.

S

#74 Vaya no más largo. ¿Y recomiendas a alguien con la cabeza en su sitio que relacione las nuevas tecnologías y cómo las usan gobiernos y empresas privadas para sus cositas?

D

#76 Eres uno de esos pesados que se responde a si mismo, ¿verdad?. La respuesta correcta es "No voy a comprar Fast Food conspiranoico, pero está más que leída"

S

#78 Sí, soy de lo peorcito. Tampoco te has dignado a responderme si conoces alguna alternativa, y esta vez te lo pregunto en serio.

S

#60 ¿Y te has acercado a alguno? ¿O simplemente por los títulos ya te asustas?

D

#70 Hay una cosa que se llama criterio, que se forma leyendo libros buenos, de gente con la cabeza en su sitio. Luego ya no te gusta el fast food de iluminados. Y sí, se la lee fácilmente en su blog, La Petite Claudine y demás cátedras.

http://www.escolar.net/petite/

S

#74 Vaya no más largo. ¿Y recomiendas a alguien con la cabeza en su sitio que relacione las nuevas tecnologías y cómo las usan gobiernos y empresas privadas para sus cositas?

D

#76 Eres uno de esos pesados que se responde a si mismo, ¿verdad?. La respuesta correcta es "No voy a comprar Fast Food conspiranoico, pero está más que leída"

S

#78 Sí, soy de lo peorcito. Tampoco te has dignado a responderme si conoces alguna alternativa, y esta vez te lo pregunto en serio.

S

Que los ultramillonarios estén deseando de largarse de este planeta debería de dar alguna pista, y gente aquí defendiéndolos. Os creéis que vais a ser los elegidos para ir a vivir a Marte (cuando se pueda vivir, que ya ha anunciado que los primeros pringados palmarán, ahí si podréis ir) o a las estaciones espaciales que quieren crear en órbita para vivir.

L

#65 Puede que como esclavos...

S

#10 Como cada vez que se da un % siempre falta algún dato, en este caso sería ver la sensibilidad y especificidad de la prueba.
https://es.wikipedia.org/wiki/Sensibilidad_y_especificidad
En el caso que nos ocupa, que preferimos, ¿un falso negativo o un falso positivo? Si tenemos un falso negativo, significa que ese individuo tiene la enfermedad y no la detectamos, ¡MEC! Cagada, necesitamos una sensibilidad alta para evitar esto. Por contra, si tenemos un falso positivo, en este caso, a unas malas te llevas un susto del copón y pruebas para seguirte la evolución; una putada, pero preferible a lo de antes. Por tanto en este caso la especificidad nos da un poco igual aunque obviamente queremos controlarla también.

Respondiéndote directamente, lo cierto es que nunca se va a saber algo con un 100% de seguridad. Entonces al final es: tenemos este grupo de 100 personas que con estas características han desarrollado la enfermedad (80) y otras tantas que no (20). Si alguien viene con esas características, la probabilidad de desarrollar la enfermedad pues sería del 80%. Lo que digo hay que cogerlo a grandes rasgos porque obviamente hay mucha más ciencia y más detalles sutiles de fondo, pero a grosso modo sería eso.

S

#12 Tienes un fallo de concepto bastante grande con lo de algoritmo. Parece algo estás metido en el tema, pero te falta revisar conceptos, más profundidad y sobre todo algo de humildad, chaval.

Primero, las redes neuronales son algoritmos, te pongas como te pongas. De hecho, cualquier cosa que estés ejecutando en el PC es un algoritmo, que como bien has dicho, es una receta, una serie de instrucciones. Que luego de un resultado que para un humano no sea interpretable no lo convierte en algo que no es un algoritmo.

Luego, no se trata de ir neurona por neurona u operación por operación para entender como funciona por ejemplo una red neuronal. Si nos vamos a la convolucionales, con cada capa de profundida vas viendo que en cada paso va pasando de los objectos abstractos de la imagen a los detalles más finos. Con esto te puede valer o hacerte una idea de como trabaja la red y poder cambiar la arquitectura. Los "recientes" transformers, puedes ir viendo como cada "head" se va centrando en verbos, pronombres, etc... y como en una frase se le va dando más o menos valor a una palabra u otra dependiendo del contexto.
Aparte, esta frase "pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres" vuelve a carecer de sentido en el contexto de una red neuronal. La red o hace lo que quieres o no lo hace, no por eso es un error. Simplemente o te faltan datos, o entrenas de forma que no toca u otra de las mil cosas posibles, pero no es un error entendido como error de programación.


meneandro

#16 "Primero, las redes neuronales son algoritmos, te pongas como te pongas."
¿He negado yo la mayor? hablamos de dos cosas distintas, me temo. Tú de la arquitectura, yo de la red entrenada o camino de ser entrenada para corregir un problema o sesgo en los resultados. Modificar los pesos, no las relaciones.

He dicho: depura una red neuronal de una neurona. Como algoritmo que es, podrás. Ahora, depura una complicada, con varias capas y muchas neuronas por capa. Agárrate los machos. ¿Tiene sentido siquiera intentarlo? ¿qué pretendes conseguir? ¿vas a ver un desequilibrio en alguno de los pesos? ¿alguna de las interconexiones te sobra? ¿cómo coño depuras una red neuronal? ¿tiene sentido siquiera intentarlo?.

En resumen: una red neuronal se comporta como una puta caja negra. NO se puede depurar porque es IMPRACTICABLE. Y el que te confundes eres tú. La teoría es muy bonita, pero la práctica es la que dicta, y lo que dicta es que lo que tú dices es modificar la arquitectura, no cambiar la red neuronal una vez entrenada. Así que no, no se comporta como un algoritmo (donde puedes cambiarlo y ver y prever los resultados, incluso sobre la marcha si el lenguaje de programación de turno es dinámico e interpretado), tú realizas el proceso de entrenamiento de nuevo completo.


"Con esto te puede valer o hacerte una idea de como trabaja la red y poder cambiar la arquitectura."
Tenemos conocimientos generales de qué hace mejores unas arquitecturas de redes de otras, cuales se adaptan mejor a ciertas cosas que otras. Pero que me digas que por la cara puedes coger una red neuronal y mejorar su arquitectura así al vuelo sin un análisis exahustivo es una afirmación cuanto menos muy valiente. Y eso no es depurar, no es corregir un problema para un caso que te ha salido, es modelar un sistema completo que se adapte mejor a unos requisitos dados. Seguramente lo haces todos los días...

"Aparte, esta frase "pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres" vuelve a carecer de sentido en el contexto de una red neuronal. La red o hace lo que quieres o no lo hace, no por eso es un error"
Me das la razón sin darte cuenta. Aquí la única forma de mejorar una red neuronal es cambiarla y volver a entrenar todo de nuevo. No puedes modificar algo entrenado sobre la marcha, no puedes depurarlo, sólo puedes hacer cambios a la arquitectura y comprobar si es mejor o peor que la anterior.

" Simplemente o te faltan datos, o entrenas de forma que no toca u otra de las mil cosas posibles, pero no es un error entendido como error de programación."
Ahora resulta que NO es como un algoritmo ¿eh? quién lo iba a decir...

S

#6 Estás hablando de las redes neuronales y se está avanzando bastante en ese aspecto. Y no todo en IA son redes neuronales. Tienes árboles de decisión y otros algoritmos similares que son perfectamente interpretables. Y te repito, la frase "no funcionan como un algoritmo" carece de sentido. Que sea interpretable o que sea más o menos determinista no tiene nada que ver con que sea o se comporte como un algoritmo.

#8 Efecticamente, ya hay métodos que permiten una explicabilidad del modelo que no dependen del algoritmo que se ha usado y que funcionan igual de bien con redes neuronales que con árboles de decisión, como son los valores SHAP.

#5 Es que si a un algoritmo sólo le muestras una parte de la realidad, sólo será capaz de intentar predecir esa realidad. Los algoritmos basados en aprendizaje por refuerzo precisamente buscan que el sesgo no venga dado por los datos, aunque puede venir por cómo has generado el entorno donde aprende y las acciones que puede llevar a cabo. Pero sí, es complicado no introducir sesgos de forma no consciente.

meneandro

#8 A ver, un elegir entre A o B es depurable, una red neuronal de una única neurona es depurable, etc.

Un árbol de decisión complejo, una red neuronal multicapa de cientos de neuronas, etc. NO son depurables. Los huamnos no tenemos capacidad de proceso para esas complejidades o si prefieres verlo así, es nada práctico siquiera ponerse a intentarlo. Sabemos cómo funcionan, si, podemos hacer una traza si queremos, pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres. Son cosas no lineales, con múltiples interdependencias, escalan muy mal... ¿dices que es como un algoritmo, cuando se comportan como sistemas complejos, como putas cajas negras? suerte con eso, chaval.

Un algoritmo es una receta. Basta seguir los pasos y ver cuándo falla más pronto o más tarde. Es lineal, no tiene dependencias, encuentras el punto exacto donde las cosas van mal y sabes por qué de manera lógica y directa.

S

#12 Tienes un fallo de concepto bastante grande con lo de algoritmo. Parece algo estás metido en el tema, pero te falta revisar conceptos, más profundidad y sobre todo algo de humildad, chaval.

Primero, las redes neuronales son algoritmos, te pongas como te pongas. De hecho, cualquier cosa que estés ejecutando en el PC es un algoritmo, que como bien has dicho, es una receta, una serie de instrucciones. Que luego de un resultado que para un humano no sea interpretable no lo convierte en algo que no es un algoritmo.

Luego, no se trata de ir neurona por neurona u operación por operación para entender como funciona por ejemplo una red neuronal. Si nos vamos a la convolucionales, con cada capa de profundida vas viendo que en cada paso va pasando de los objectos abstractos de la imagen a los detalles más finos. Con esto te puede valer o hacerte una idea de como trabaja la red y poder cambiar la arquitectura. Los "recientes" transformers, puedes ir viendo como cada "head" se va centrando en verbos, pronombres, etc... y como en una frase se le va dando más o menos valor a una palabra u otra dependiendo del contexto.
Aparte, esta frase "pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres" vuelve a carecer de sentido en el contexto de una red neuronal. La red o hace lo que quieres o no lo hace, no por eso es un error. Simplemente o te faltan datos, o entrenas de forma que no toca u otra de las mil cosas posibles, pero no es un error entendido como error de programación.


meneandro

#16 "Primero, las redes neuronales son algoritmos, te pongas como te pongas."
¿He negado yo la mayor? hablamos de dos cosas distintas, me temo. Tú de la arquitectura, yo de la red entrenada o camino de ser entrenada para corregir un problema o sesgo en los resultados. Modificar los pesos, no las relaciones.

He dicho: depura una red neuronal de una neurona. Como algoritmo que es, podrás. Ahora, depura una complicada, con varias capas y muchas neuronas por capa. Agárrate los machos. ¿Tiene sentido siquiera intentarlo? ¿qué pretendes conseguir? ¿vas a ver un desequilibrio en alguno de los pesos? ¿alguna de las interconexiones te sobra? ¿cómo coño depuras una red neuronal? ¿tiene sentido siquiera intentarlo?.

En resumen: una red neuronal se comporta como una puta caja negra. NO se puede depurar porque es IMPRACTICABLE. Y el que te confundes eres tú. La teoría es muy bonita, pero la práctica es la que dicta, y lo que dicta es que lo que tú dices es modificar la arquitectura, no cambiar la red neuronal una vez entrenada. Así que no, no se comporta como un algoritmo (donde puedes cambiarlo y ver y prever los resultados, incluso sobre la marcha si el lenguaje de programación de turno es dinámico e interpretado), tú realizas el proceso de entrenamiento de nuevo completo.


"Con esto te puede valer o hacerte una idea de como trabaja la red y poder cambiar la arquitectura."
Tenemos conocimientos generales de qué hace mejores unas arquitecturas de redes de otras, cuales se adaptan mejor a ciertas cosas que otras. Pero que me digas que por la cara puedes coger una red neuronal y mejorar su arquitectura así al vuelo sin un análisis exahustivo es una afirmación cuanto menos muy valiente. Y eso no es depurar, no es corregir un problema para un caso que te ha salido, es modelar un sistema completo que se adapte mejor a unos requisitos dados. Seguramente lo haces todos los días...

"Aparte, esta frase "pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres" vuelve a carecer de sentido en el contexto de una red neuronal. La red o hace lo que quieres o no lo hace, no por eso es un error"
Me das la razón sin darte cuenta. Aquí la única forma de mejorar una red neuronal es cambiarla y volver a entrenar todo de nuevo. No puedes modificar algo entrenado sobre la marcha, no puedes depurarlo, sólo puedes hacer cambios a la arquitectura y comprobar si es mejor o peor que la anterior.

" Simplemente o te faltan datos, o entrenas de forma que no toca u otra de las mil cosas posibles, pero no es un error entendido como error de programación."
Ahora resulta que NO es como un algoritmo ¿eh? quién lo iba a decir...

S

#5 De ahí mi primera frase. No le quitaba razón con lo de los datos sesgados. Mi comentario va más encaminado a la última parte dónde desmiente la frase hecha por uno de los investigadores cuándo en la cita que puse demuestra claramente que no sabe del todo bien lo que habla.

S

#1 Me encanta cuándo vais de expertos y se nota que habéis oído hablar del tema de pasada. "Las IA no funcionan como un algoritmo". Ya, claro...

aritzg

#4 #1 no va del todo desencaminado. La IA es un algoritmo que se rige por unos datos y pesos definidos en el proceso de aprendizaje previo. Y sí... si los datos con la que la has entrenado son sesgados, los resultados pueden tener sesgos.

aquí unos ejemplos

https://www.eldiario.es/tecnologia/sesgos-genero-algoritmos-circulo-perverso-discriminacion-linea-vida-real_129_7198975.html
https://www.elmundo.es/tecnologia/2016/03/28/56f95c2146163fdd268b45d2.html
https://www.lavanguardia.com/tecnologia/20211114/7856262/inteligencia-artificial-entrenada-etica-vuelve-racista-misogina.html

S

#5 De ahí mi primera frase. No le quitaba razón con lo de los datos sesgados. Mi comentario va más encaminado a la última parte dónde desmiente la frase hecha por uno de los investigadores cuándo en la cita que puse demuestra claramente que no sabe del todo bien lo que habla.

#8 Efecticamente, ya hay métodos que permiten una explicabilidad del modelo que no dependen del algoritmo que se ha usado y que funcionan igual de bien con redes neuronales que con árboles de decisión, como son los valores SHAP.

#5 Es que si a un algoritmo sólo le muestras una parte de la realidad, sólo será capaz de intentar predecir esa realidad. Los algoritmos basados en aprendizaje por refuerzo precisamente buscan que el sesgo no venga dado por los datos, aunque puede venir por cómo has generado el entorno donde aprende y las acciones que puede llevar a cabo. Pero sí, es complicado no introducir sesgos de forma no consciente.

meneandro

#2 A ver, la IA puede hacer eso que dices y lo hace (en radiografías, tomografías y otros métodos de toma de imágenes o muestras). Del mismo modo que se hace con muchos otros algoritmos de clasificación, cada uno tiene fortalezas y debilidades. Lo que yo digo es que tampoco se puede confiar a ciegas en una IA, que se puede usar para detectar cosas, pero luego hay que analizarlas y estudiarlas convenientemente.

El blockchain igualmente es otra herramienta que tiene sus usos y es perfectamente válida para ellos.

#3 El problema es el del que tiene un martillo y todo lo que ve alrededor son clavos. Ni la IA ni el blockchain son la mejor herramienta para todo como nos quieren vender. Y tomárselo a cachondeo y ver las cosas superficialmente sólo sirve para negar los hechos y quedarse con una visión distorsionada de la realidad.

#4 Las IAs funcionan como una caja negra, no como un algoritmo. Sabes qué hace en general, pero no puedes describir y reproducir cada paso que da hasta llegar a una solución, no puedes modificarlos, no puedes depurarlos... así que no, no funciona como un algoritmo. A mi también me encanta la gente que va de expertos, con su palillo en la boca y no aporta ni siquiera un argumento para apoyar lo que dice de manera tajante y elocuente.

S

#6 Estás hablando de las redes neuronales y se está avanzando bastante en ese aspecto. Y no todo en IA son redes neuronales. Tienes árboles de decisión y otros algoritmos similares que son perfectamente interpretables. Y te repito, la frase "no funcionan como un algoritmo" carece de sentido. Que sea interpretable o que sea más o menos determinista no tiene nada que ver con que sea o se comporte como un algoritmo.

meneandro

#8 A ver, un elegir entre A o B es depurable, una red neuronal de una única neurona es depurable, etc.

Un árbol de decisión complejo, una red neuronal multicapa de cientos de neuronas, etc. NO son depurables. Los huamnos no tenemos capacidad de proceso para esas complejidades o si prefieres verlo así, es nada práctico siquiera ponerse a intentarlo. Sabemos cómo funcionan, si, podemos hacer una traza si queremos, pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres. Son cosas no lineales, con múltiples interdependencias, escalan muy mal... ¿dices que es como un algoritmo, cuando se comportan como sistemas complejos, como putas cajas negras? suerte con eso, chaval.

Un algoritmo es una receta. Basta seguir los pasos y ver cuándo falla más pronto o más tarde. Es lineal, no tiene dependencias, encuentras el punto exacto donde las cosas van mal y sabes por qué de manera lógica y directa.

S

#12 Tienes un fallo de concepto bastante grande con lo de algoritmo. Parece algo estás metido en el tema, pero te falta revisar conceptos, más profundidad y sobre todo algo de humildad, chaval.

Primero, las redes neuronales son algoritmos, te pongas como te pongas. De hecho, cualquier cosa que estés ejecutando en el PC es un algoritmo, que como bien has dicho, es una receta, una serie de instrucciones. Que luego de un resultado que para un humano no sea interpretable no lo convierte en algo que no es un algoritmo.

Luego, no se trata de ir neurona por neurona u operación por operación para entender como funciona por ejemplo una red neuronal. Si nos vamos a la convolucionales, con cada capa de profundida vas viendo que en cada paso va pasando de los objectos abstractos de la imagen a los detalles más finos. Con esto te puede valer o hacerte una idea de como trabaja la red y poder cambiar la arquitectura. Los "recientes" transformers, puedes ir viendo como cada "head" se va centrando en verbos, pronombres, etc... y como en una frase se le va dando más o menos valor a una palabra u otra dependiendo del contexto.
Aparte, esta frase "pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres" vuelve a carecer de sentido en el contexto de una red neuronal. La red o hace lo que quieres o no lo hace, no por eso es un error. Simplemente o te faltan datos, o entrenas de forma que no toca u otra de las mil cosas posibles, pero no es un error entendido como error de programación.


meneandro

#16 "Primero, las redes neuronales son algoritmos, te pongas como te pongas."
¿He negado yo la mayor? hablamos de dos cosas distintas, me temo. Tú de la arquitectura, yo de la red entrenada o camino de ser entrenada para corregir un problema o sesgo en los resultados. Modificar los pesos, no las relaciones.

He dicho: depura una red neuronal de una neurona. Como algoritmo que es, podrás. Ahora, depura una complicada, con varias capas y muchas neuronas por capa. Agárrate los machos. ¿Tiene sentido siquiera intentarlo? ¿qué pretendes conseguir? ¿vas a ver un desequilibrio en alguno de los pesos? ¿alguna de las interconexiones te sobra? ¿cómo coño depuras una red neuronal? ¿tiene sentido siquiera intentarlo?.

En resumen: una red neuronal se comporta como una puta caja negra. NO se puede depurar porque es IMPRACTICABLE. Y el que te confundes eres tú. La teoría es muy bonita, pero la práctica es la que dicta, y lo que dicta es que lo que tú dices es modificar la arquitectura, no cambiar la red neuronal una vez entrenada. Así que no, no se comporta como un algoritmo (donde puedes cambiarlo y ver y prever los resultados, incluso sobre la marcha si el lenguaje de programación de turno es dinámico e interpretado), tú realizas el proceso de entrenamiento de nuevo completo.


"Con esto te puede valer o hacerte una idea de como trabaja la red y poder cambiar la arquitectura."
Tenemos conocimientos generales de qué hace mejores unas arquitecturas de redes de otras, cuales se adaptan mejor a ciertas cosas que otras. Pero que me digas que por la cara puedes coger una red neuronal y mejorar su arquitectura así al vuelo sin un análisis exahustivo es una afirmación cuanto menos muy valiente. Y eso no es depurar, no es corregir un problema para un caso que te ha salido, es modelar un sistema completo que se adapte mejor a unos requisitos dados. Seguramente lo haces todos los días...

"Aparte, esta frase "pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres" vuelve a carecer de sentido en el contexto de una red neuronal. La red o hace lo que quieres o no lo hace, no por eso es un error"
Me das la razón sin darte cuenta. Aquí la única forma de mejorar una red neuronal es cambiarla y volver a entrenar todo de nuevo. No puedes modificar algo entrenado sobre la marcha, no puedes depurarlo, sólo puedes hacer cambios a la arquitectura y comprobar si es mejor o peor que la anterior.

" Simplemente o te faltan datos, o entrenas de forma que no toca u otra de las mil cosas posibles, pero no es un error entendido como error de programación."
Ahora resulta que NO es como un algoritmo ¿eh? quién lo iba a decir...

D

#6
A ver, si ya lo se, pero meterles a todo IA o blockchain porque es la moda es ridículo.
Ya sabemos como acaba la cosa

D

#4 Siguiendo todo el hilo, los espectadores aún estamos esperando que rectifiques este comentario que va de un sobrado que espanta, aunque luego tienes los santos cojones de quejarte precisamente de eso.

Marca menéame.

#24 ¡Qué grande! lol lol lol

S

Ni se os ocurra. Y mucho menos probarlo en VR.

S

#21 Ya bueno, pero te puedo sacar un ojo con ella.
Si te doy la razón en lo de las redes sociales, la gente no es consciente de lo que se puede llegar a hacer para manipular con estas herramientas. Pero por cada mal uso, hay también usos decentes. El problema es más a nivel de sociedad, ¿qué es lo que da pasta? Pues por ejemplo usar estos algoritmos para tener enganchados al personal al móvil mientras le metes tu propaganda por redes sociales.

l

#11 #22 El problema es en manos de quien esta. Si es de empresas, beneficiara a su amo y otros organismos podria beneficiarse desde ONG a los propios ciudadanos, pero han de organizarse.
Las IA son mas asequibles a los ciudadanos que otras tecnologias, como las industrias, pero las multis tambien estan mejor orgnaizadas.

S

#11 Una cuchara con un mal uso también puede tener consecuencias nefastas. De hecho esto se puede aplicar a prácticamente cualquier cosa.

M

#19 Pero la misma cuchara que uno controle por el mango no emite mensajes ni propina golpes a toda la población a quien alcance su reflejo.

Siempre lo he dicho: cuidado con las tecnologías. Mantenedlas siempre bien controladas.

S

#21 Ya bueno, pero te puedo sacar un ojo con ella.
Si te doy la razón en lo de las redes sociales, la gente no es consciente de lo que se puede llegar a hacer para manipular con estas herramientas. Pero por cada mal uso, hay también usos decentes. El problema es más a nivel de sociedad, ¿qué es lo que da pasta? Pues por ejemplo usar estos algoritmos para tener enganchados al personal al móvil mientras le metes tu propaganda por redes sociales.

l

#11 #22 El problema es en manos de quien esta. Si es de empresas, beneficiara a su amo y otros organismos podria beneficiarse desde ONG a los propios ciudadanos, pero han de organizarse.
Las IA son mas asequibles a los ciudadanos que otras tecnologias, como las industrias, pero las multis tambien estan mejor orgnaizadas.

S

#117 Totalmente. La persona de la que hablo se ajusta al perfil que comentas. El problema es que por muy culto que sea uno los sesgos de los que se aprovechan los tenemos todos (sobre todo cuando se trata de temas estadísticos) y si no te "vacunas" contra eso es fácil que te llegue cualquier charlatán y te manipule como quiera. Y una vez has picado ya es completamente mentalidad sectaria.