"Ya hay muchos aparatos electrónicos que usan la llamada arquitectura de von Neumann. La arquitectura de von Neumann es el gran invento del siglo pasado, si dicha arquitectura no existiese habría que inventar otra similar, pues si no estuviera presente nos pasaríamos el mayor tiempo cambiando cables del PC de sitio. ¿Pero qué es la arquitectura de von Neumann? Explicada de forma sencilla es una forma de ‘ordenar’ cada parte del ordenador".
#5:
Porque el gran problema de la informática es el caos.
Es imposible predecir el nº de operaciones que se pueden realizar con un ordenador y la cadencia y orden de cada una. A mayor tiempo del ordenador encendido mas operaciones se habran realizado y el caos ocasionado será mayor.
Y hay un gran numero de combinaciones de operaciones que provocan un estado no previsto y susceptible de provocar problemas.
Al reiniciar el ordenador volvemos al estado cero y previsible donde hay menos actos imprevisibles acumulados y por lo tanto el caos es menor.
#13:
#3 Como ingeniero informático te diré que no entra entre mis competencias arreglar ordenadores y tampoco tenia ninguna asignatura en la que me enseñaran a ello.
#7:
#3 Por alusiones te diré que eso no es así. #5 ya indica parte del problema y por qué muchos de los fallos se solucionan en parte de esa manera. El número de variables a identificar una incidencia es a veces muy alto, hay que discernir correctamente.
Además, hay que tener en cuenta fallos muchas veces imperceptibles del Sistema Operativo, drivers mal desarrollados, errores de hardware y sobre todo los errores de usuario, que son en su mayoría los que inician la incidencia.
Lo que sucede es que el usuario quiere que le arreglen su problema rápidamente y no quiere saber por qué falla, el técnico quiere solucionarlo y poder arreglar otra incidencia y el ingeniero quiere ver por qué falla para corregir el problema en su base. Entonces unos y otros están tirando a ambos lados de la cuerda.
La solución es no ser parte del problema.
Porque el gran problema de la informática es el caos.
Es imposible predecir el nº de operaciones que se pueden realizar con un ordenador y la cadencia y orden de cada una. A mayor tiempo del ordenador encendido mas operaciones se habran realizado y el caos ocasionado será mayor.
Y hay un gran numero de combinaciones de operaciones que provocan un estado no previsto y susceptible de provocar problemas.
Al reiniciar el ordenador volvemos al estado cero y previsible donde hay menos actos imprevisibles acumulados y por lo tanto el caos es menor.
#3 Por alusiones te diré que eso no es así. #5 ya indica parte del problema y por qué muchos de los fallos se solucionan en parte de esa manera. El número de variables a identificar una incidencia es a veces muy alto, hay que discernir correctamente.
Además, hay que tener en cuenta fallos muchas veces imperceptibles del Sistema Operativo, drivers mal desarrollados, errores de hardware y sobre todo los errores de usuario, que son en su mayoría los que inician la incidencia.
Lo que sucede es que el usuario quiere que le arreglen su problema rápidamente y no quiere saber por qué falla, el técnico quiere solucionarlo y poder arreglar otra incidencia y el ingeniero quiere ver por qué falla para corregir el problema en su base. Entonces unos y otros están tirando a ambos lados de la cuerda.
La solución es no ser parte del problema.
En pocas palabras, los programas de una pc requieren servicios del sistema operativo. A veces hay errores de programación en el programa, o en el sistema operativo, que provocan que esos servicios se queden "colgados" y no los pueda usar nadie mas. Cuando reinicias, eliminas las consecuencias de esos errores.
Puede ser por muchas cosas. Por regla general, es tan complejo llegar a discernir lo que ha fallado, que es mejor reiniciar y ya está.
Por otra parte, muchas veces no está bloqueado, simplemente muy ocupado. El distinguir en el caso general si es lo primero o lo segundo (el famoso problema de la parada) así que se reinicia cuando se pierde la paciencia y ya está.
#3 Como ingeniero informático te diré que no entra entre mis competencias arreglar ordenadores y tampoco tenia ninguna asignatura en la que me enseñaran a ello.
¿Pantalla negra en Mac OS? Curioso. 7 años utilizándolo en 3 ordenadores, y jamás la he visto...
#20 Pues supongo que, como en un artículo de divulgación científica, se deja de lado el rigor para ser más comprensible y accesible para todos. Pero si existe algún error de base, Señor "informático", ¿sería tan amable de señalarla, y no descalificar sin más?
#24: Los deadlock (entiendo que se refiere a ello por "interbloqueo"), cuando se dan, son un problema de diseño, especialmente serio si se dan en el sistema operativo.
No son una situación normal como sugiere y por ello es posible correr sistemas decentemente diseñados sin reiniciar durante décadas. El sistema que estoy usando lo reinicié hace un par de semanas para actualizar el kernel (Linux), pero es interesante comentar que no se ha colgado en unos 4 años (desde que hay drivers libres para la familia r600 de radeon). Es un ordenador normal, montado de componentes comunes de los que puedes encontrar en cualquier tienda de informática o podías cuando lo monté.
La principal razón para cuelgues de sistemas enteros son o bien errores de programación en drivers o problemas del propio hardware (por ejemplo: Componentes quemados :P).
"La CPU en muchas ocasiones puede quedarse un rato haciendo una multiplicación demasiado larga, o muchas cuentas, y así se queda manejando grandes cantidades de megabytes con la memoria principal." -> Un opcode (en su ejemplo una multiplicación) tiene una duración predeterminada y muy corta (unos pocos ciclos de reloj, que si piensas en gigaherzios es muy poco tiempo, desde luego no segundos!). Si se da una interrupción, el opcode siguiente será ya en el gestor de interrupciones. Si no se da ninguna interrupción de origen externo, saltará en algún momento una del temporizador, cuando el proceso exceda el tiempo de procesador que le ha asignado el scheduler.
Recomiendo leer "Operating Systems: Design and implementation", de Andrew S Tanenbaum y Albert S Woodhull, para entender como funciona todo esto. Si es la tercera edición todavía mejor, ya que habla de diseñar sistemas operativos en general pero muestra minix3, un sistema diseñado con estabilidad y alta disponibilidad en mente.
Para aprender sobre Linux en concreto, "Understanding The Linux Kernel", de Daniel P. Bovet y Marco Cesati.
Comentarios
Porque el gran problema de la informática es el caos.
Es imposible predecir el nº de operaciones que se pueden realizar con un ordenador y la cadencia y orden de cada una. A mayor tiempo del ordenador encendido mas operaciones se habran realizado y el caos ocasionado será mayor.
Y hay un gran numero de combinaciones de operaciones que provocan un estado no previsto y susceptible de provocar problemas.
Al reiniciar el ordenador volvemos al estado cero y previsible donde hay menos actos imprevisibles acumulados y por lo tanto el caos es menor.
#3 Por alusiones te diré que eso no es así. #5 ya indica parte del problema y por qué muchos de los fallos se solucionan en parte de esa manera. El número de variables a identificar una incidencia es a veces muy alto, hay que discernir correctamente.
Además, hay que tener en cuenta fallos muchas veces imperceptibles del Sistema Operativo, drivers mal desarrollados, errores de hardware y sobre todo los errores de usuario, que son en su mayoría los que inician la incidencia.
Lo que sucede es que el usuario quiere que le arreglen su problema rápidamente y no quiere saber por qué falla, el técnico quiere solucionarlo y poder arreglar otra incidencia y el ingeniero quiere ver por qué falla para corregir el problema en su base. Entonces unos y otros están tirando a ambos lados de la cuerda.
La solución es no ser parte del problema.
#7 #13 y, en general, todos los que me habéis votado negativo: tenéis poquito sentido del humor, ¿eh?
Lo que me he reido viendo cómo saltábais a la más mínima todos los informáticos... qué risas.
#27 Eres un provocador...
Por cierto, a mi no me gusta votar negativo, de hecho, no te he votado
#5 Cual es tu S.O? windows me o 7, xp
#10 Elimina el XP, que funciona.
#15 ¿Errores de programación o de ejecución?
Creo que el nombre de la solución técnica es condensadores.
Existen otras formas de arreglar los equipos electrónicos, mirar este video:
Vaya, creía que era la versión informática del clásico golpe seco de toda la vida que se le da a los electrodomésticos.
Este tio no se ha encontrado con casos paranormales informáticos, y después compara un bsod con kernel panic y después...
En las próximas entregas:
"Por qué un coche se apaga cuando quitas la llave" y el trepidante "Por qué se enciende la tele cuando le das al mando".
¡No se lo pierdan!
¿Se arregla así? ¡¿Por qué nadie me lo había dicho!?
Después de leer esto no voy a preocuparme demasiado. ¡A reiniciar!
En pocas palabras, los programas de una pc requieren servicios del sistema operativo. A veces hay errores de programación en el programa, o en el sistema operativo, que provocan que esos servicios se queden "colgados" y no los pueda usar nadie mas. Cuando reinicias, eliminas las consecuencias de esos errores.
Ahora lo tengo todo mucho más claro...
Puede ser por muchas cosas. Por regla general, es tan complejo llegar a discernir lo que ha fallado, que es mejor reiniciar y ya está.
Por otra parte, muchas veces no está bloqueado, simplemente muy ocupado. El distinguir en el caso general si es lo primero o lo segundo (el famoso problema de la parada) así que se reinicia cuando se pierde la paciencia y ya está.
Artículo malo malo.
La mayoría de los ingenieros informáticos españoles estudian varios años y montan empresas para únicamente darte tres soluciones:
1) Apaga y enciende el ordenador.
2) Apaga y enciende el router.
3) Formatea.
#3 Te ha faltado la solución final: Reinstala.
#11 Supongo que va implícito en "3) Formatea"
#3 Como ingeniero informático te diré que no entra entre mis competencias arreglar ordenadores y tampoco tenia ninguna asignatura en la que me enseñaran a ello.
#3 Otro de letras que le jode ver que todos los informáticos tienen curro, ¿ehhh?
#3
4) Compra otro más nuevo y rápido
#3 Lo que desde luego has dejado claro, es que los ingenieros informáticos españoles no tienen sentido del humor.
Por cierto, a algunos, nos basta con reiniciar el servicio
#3 Totalmente equivocado, los ingenieros españoles estudian tantos años para preguntarte:
¿que ingredientes quieres en la pizza?
/karmasuicide off
Este artículo es una magufada.
Nota: Soy informático.
¿Pantalla negra en Mac OS? Curioso. 7 años utilizándolo en 3 ordenadores, y jamás la he visto...
#20 Pues supongo que, como en un artículo de divulgación científica, se deja de lado el rigor para ser más comprensible y accesible para todos. Pero si existe algún error de base, Señor "informático", ¿sería tan amable de señalarla, y no descalificar sin más?
#24: Los deadlock (entiendo que se refiere a ello por "interbloqueo"), cuando se dan, son un problema de diseño, especialmente serio si se dan en el sistema operativo.
No son una situación normal como sugiere y por ello es posible correr sistemas decentemente diseñados sin reiniciar durante décadas. El sistema que estoy usando lo reinicié hace un par de semanas para actualizar el kernel (Linux), pero es interesante comentar que no se ha colgado en unos 4 años (desde que hay drivers libres para la familia r600 de radeon). Es un ordenador normal, montado de componentes comunes de los que puedes encontrar en cualquier tienda de informática o podías cuando lo monté.
La principal razón para cuelgues de sistemas enteros son o bien errores de programación en drivers o problemas del propio hardware (por ejemplo: Componentes quemados :P).
"La CPU en muchas ocasiones puede quedarse un rato haciendo una multiplicación demasiado larga, o muchas cuentas, y así se queda manejando grandes cantidades de megabytes con la memoria principal." -> Un opcode (en su ejemplo una multiplicación) tiene una duración predeterminada y muy corta (unos pocos ciclos de reloj, que si piensas en gigaherzios es muy poco tiempo, desde luego no segundos!). Si se da una interrupción, el opcode siguiente será ya en el gestor de interrupciones. Si no se da ninguna interrupción de origen externo, saltará en algún momento una del temporizador, cuando el proceso exceda el tiempo de procesador que le ha asignado el scheduler.
Recomiendo leer "Operating Systems: Design and implementation", de Andrew S Tanenbaum y Albert S Woodhull, para entender como funciona todo esto. Si es la tercera edición todavía mejor, ya que habla de diseñar sistemas operativos en general pero muestra minix3, un sistema diseñado con estabilidad y alta disponibilidad en mente.
Para aprender sobre Linux en concreto, "Understanding The Linux Kernel", de Daniel P. Bovet y Marco Cesati.