Hace 5 años | Por A_D a omicrono.elespanol.com
Publicado hace 5 años por A_D a omicrono.elespanol.com

Estos hallazgos, publicados en la Royal Society Open Science, se ponen en contra del supuesto establecido de que la adquisición del lenguaje humano ocurre por pura naturaleza, es decir, sin esfuerzo. Según el estudio, los investigadores han calculado que desde la infancia hasta la edad adulta (los 18 años) absorbemos de forma aproximada 12.5 millones de bits de información sobre el lenguaje. Esto constituye unos 2 bits por minuto para poder adquirir el conocimiento lingüístico total. Al día, se absorben en la infancia 1000 bits de información

Comentarios

pip

¿Seguro que son megabytes? ¿No serán ziripondios o fiscístidos?

Es que por más que pienso, y desde luego el artículo no aclara, no consigo entender cómo se hace una equivalencia entre aprendizaje de idioma hablado y bits.

Hasta que no me lo aclaren, me reservo el derecho a pensar que esto es una gilipollez.

A_D

#3 echa un ojo al artículo en inglés, que es donde está el estudio de verdad

pip

#5 lo he leído (por encima, claro) y ya veo mejor por donde van.
El propio artículo original reconoce ser especulativo.
Hay un problema básico: como no sabemos exactamente como el cerebro reconstruye la información, porque no sabemos como funciona, no podemos saber cuántos bits hacen falta para guardar esa información.

Es como decir, yo creo que para guardar una foto de 256x256 hacen falta 192K. Pero luego resulta que en formato jpg son 2Kb, y aquí lo que está pasando es que el cerebro está tratando de reconstruir la imagen original a partir de información parcial, rellenando los huecos faltantes en esas información.
Aún peor: hoy día tenemos algoritmos de machine learning que son capaces de imaginar partes faltantes de una imagen a partir de otras. Así que incluso en informática, cuando ahora vemos una imagen generada por una IA resulta difícil saber cuántos bits de información ha necesitado la IA para hacerlo.

Yo la verdad dudo mucho que el cerebro humano pueda medirse en bits, así que niego la mayor, niego el bit como unidad de medida de información cerebral. Es posible que incluso para decir cuánto sabe una IA el bit ya no tenga mucho sentido porque una red neuronal con los mismos bits puede saber más o menos que otra.

Necesitamos inventar una medida de conocimiento nueva, así que vuelvo a los ziripondios.

pip

#7 el problema no solo es lo que ocupa "cagarro" como texto sino como secuencia de sonidos aproximada (porque el niño no la reproducirá dos veces exactamente igual) y qué otros elementos de información están asociados para saber qué un cagarro es un cagarro y no una mandarina, ni cuánto ocupan. En #9 lo planteo de otra forma.

El tema es sumamente interesante, #0. Lo que pasa es que cuando se entra en terreno de la informática los informáticos solemos poner caras raras cuando se usan nuestras unidades de medida para cosas que no son informática.

A_D

#10 A mí me ha parecido interesante. Buscar un símil entre nuestra memoria y la informática es a veces forzado, entiendo lo que quieres decir, pero quizás se hace porque se busca relacionar con algo ya conocido para establecer paralelismos; nuestra memoria por mucho que sabemos sigue siendo en muchos elementos una gran desconocida.

pip

#11 sí, si que es interesante.

T

#3 Pues supongo que el tema de los bits será por el equivalente (1 carácter = 1 bit) , que es lo que ocupan (así por ejemplo cagarro ocuparía 7 bits)
(Teoría que me acabo de sacar bajo la manga pero que en mi cabeza cuadra lol )

ED209

el lenguaje no se aprende por naturaleza ni sin esfuerzo, y cualquiera que sea padre lo puede atestiguar

A_D
Jakeukalane

Es un poco extraño. No se me ocurre como puede ser tan escasa la cantidad de información. Minutos de información visual ya es más que eso.

elchacas

Vamos, lo que viene siendo un diskette

O

Lo suyo es que las personas aprendiéramos a hablar a partir de los 18 años.