Hace 11 años | Por ailian a gallir.wordpress.com
Publicado hace 11 años por ailian a gallir.wordpress.com

(...)No sé qué tecnologías se usarán dentro de diez años, pero vista la evolución actual (Linux hasta en los bolsillos…), apostaría a que es más probable que siga habiendo un uso importante de Linux y sistemas derivados. Con lo que eso provoca social, económica, y empresarialmente. Aún así, no me cerraría en ello, si viese que surgen alternativas diferentes (...) Lo que nunca haría es basar decisiones universitaria-académicas únicamente a lo que el “mercado demanda”, y mucho menos intentaría perjudicar a iniciativas alternativas al status quo.

Comentarios

nomada_isleño

#1 Troll-azo...

D

#3 Nov-ato...

D

#1 : Pues estás en el mercado equivocado.

Yonseca

#1 Eso ya existe, se llama Técnico en Administración de sistemas y es un grado medio

a

#1 lo hace, pero aun sin curricula oficial.
#36 para eso estudio para programador.
#0 ¿ ingeniería de sistemas informáticos?, ¿ ingeniería de software?, ¿ ingeniería en ciencias de la computación?, a que ingeniería estas enfocándote?, todos los ingenieros son desarrolladores?, todos los ingenieros son programadores?, todos analistas funcionales?, todos operativos?, todos administradores?...

D

#5

Tu vas para economista o para RRHH ¿verdad?

D

#33 En los dos primeros puntos tengo que decir, que estoy de acuerdo contigo, pero tampoco eso hace que sea totalmente fútil hacerlo. Es un error esperar que toda la planificación se cumpla a raja tabla, pero no tener planificación porque no se va a cumplir tampoco es mejor.

Son puntos importantes, no cabe duda, que luego tengan sus limitaciones es otra cosa.

Zade

#39 Estoy de acuerdo contigo y me gusta que lo puntualices. Algo hay que hacer, por eso por ejemplo menciono de pasada las metodologías ágiles (que tampoco son la panacea). Hay que intentar ser certeros y sobre todo saber gestionar los riesgos: Que una funcionalidad no se haya estimado bien, que el cliente cambie de opinión, que un desarrollador se te vaya a mitad de proyecto.... etc.

D

Mejor habría que escribir un artículo llamado "lo que deberían aprender las empresas sobre informática".

- Que un programador no es el chico de los recados. Que programar bien es un trabajo costoso, complicado y que requiere ingenio. Y que los resultados se notan cuando algo lo ha hecho un buen programador frente a lo que pueda hacer un aprendiz.

- Que los proyectos debe liderarlos alguien que sepa lo que tiene entre manos, no D. Ramón, el jefe de toda la vida.

- Que los sistemas requieren recursos hardware, y ahorrar en máquina es penar durante años en todo lo demás.

- ¡Que los informáticos existen para algo, coño!

Tenía que desahogarme.

DisView

"implementar de memoria al menos el quicksort y mergesort" y luego ni siquiera una mención a algoritmos genéticos, redes neuronales, ni siquiera un clasificador bayesiano... creo que se le ha ido la perola agallirgallir

D

Lo bonito de Unix es que los algoritmos y la programación en C te la puedes aprender matando dós pájaros de un tiro aprendiéndote, por ejemplo, el funcionamiento de las Coreutils de openBSD, Cuyo código es ultraclaro y mínimo.

https://gist.github.com/dchest/1091803#

Sobre lo demás, mirando el código de la implentación de FAT en software libre te aprendes el sistema de ficheros (es jodidamente simple).

Y no lo dice un ingeniero, si no un futuro técnico superior.

hamahiru

Sabía que el enlace era de Gallir solo leyendo el titular en candidatas. lol

D

Yo acabé la carrera hace 20 años. Solo hay una cosa de las que aprendí que tiene vigencia hoy en día y la tendrá dentro de otros 20: el COBOL.

Bueno, aparte del COBOL en realidad hay otra, la capacidad de seguir aprendiendo. El que piense que lo que sabe ahora va a servir de mucho dentro de 20 años (salvo el COBOL) está equivocado.

JBlack

¿Nos pasamos por el forro el "Computing Curricula" de IEEE y ACM?

D

Todo lo que incluye en la lista (incluido Linux y unix, en una época en la que linux ni por asomo era lo que es ahora) es lo que me enseñaron a mí.

Respecto a su explicación del C, con esos motivos, veo mejor enseñar a usar un lenguaje ensamblador.

De Sistemas Operativos me enseñaron bastante poco. No he trabajado con ellos, pero me hubiera gustado alguna asignatura algo más dedicada a eso (mi asignatura de sistemas operativos era una de estas en las que no se aprende gran cosa porque el profesor pasa bastante)

Por lo demás estoy bastante de acuerdo, sobre todo en el tema de concurrencia, que se trata un poco de refilón y luego en algunas aplicaciones pasa lo que pasa (y no hay quien detecte por qué).

Echo de menos algo sobre redes. Sé que eso es más de telecomunicaciones, pero parece que la tendencia es a confluir.

D

#11 Para mí no es un absurdo. Es la mejor forma de comprender referencias, reservas de memoria... lo hagas en la arquitectura que lo hagas.

Yo creo que, a efectos educativos, es más instructivo enseñar un emsamblador que C.

D

#13 "Es la mejor forma de comprender referencias, reservas de memoria... lo hagas en la arquitectura que lo hagas."

Uhm, O eres un genio o no sé como lo harás para programar en ASM para m68k , ARM y X86_64 a la vez.

Además que UNIX y C son como uña y carne. Aprender la API de UNIX es aprender C, ( Y viceversa) y es el SO más portable y a la vez de los más simples en diseño que existe.

Encima la mayoría de implementaciones son libres y abiertas . Killer combo.

cat

#16 "Aprender ensamblador" no significa "aprender a programar en ensamblador para cualquier tipo de procesador". En muchas universidades se enseña MIPS, en otras x86. No necesitas aprender a programar en todas, pero sí necesitas aprender al menos una para saber cómo funciona un microprocesador.

llorencs

#20 En la UIB en computadores se hacía en PDP-11 hace años, creo que ya no, cambiaron a PowerPC o x86(pero creo que esta no)

Era muy divertido lo del PDP-11 ya que era emular mac con basilisk y luego emular la maquina PDP-11 en basilisk.

D

#11 #13 Pues a mi la mejor solución me parece que es con la que yo aprendí en la carrera. Se aprendía ensamblador y C de forma simultánea, a veces teniendo que implementar lo mismo en los dos, y otras requiriendo que aunque el programa fuese en C determinadas funcionalidades se hiciesen en librerías separadas en ensamblador que luego se llamaban desde C.

Creo que así aprendes de ambos, de compiladores y además ves las relaciones entre los dos de forma más clara que si solo te centrases en uno de ellos.

D

#8: Respecto a su explicación del C, con esos motivos, veo mejor enseñar a usar un lenguaje ensamblador.

Si, pero primero pasando por C, que no es cuestión de hacer que la gente abandone la carrera.

como te dice #11, ensamblador no se debería aprender de una manera excesivamente profunda, puesto que es específico de cada plataforma, y sería mejor dejar ya que cada uno se adapte a su plataforma preferida cuando termine de estudiar la carrera.

D

#11 Yo creo que hay que estudiar/utilizar varios lenguajes como: ensamblador, C, Python, Java, Haskell, Prolog, Matlab.

Ensamblador yo vi el MIPS R2000, no es práctico, pero tampoco Haskell. Hay que ver los distintos paradigmas y los distintos niveles.

f

#8 las redes no es un asunto sólo de telecos, hoy en día la mayoría de los sistemas son distribuidos y hay que entender los protocolos de red. También hay muchos asuntos de seguridad informática que tienen que ver con redes.

D

Yo lo único que encuentro imperdonable (al menos en mi universidad, en Girona, es así) es que no se enseñe ni una pizca de programación web. Ya no digo un lenguaje, eso lo puedes aprender tú en tu casa, sino cómo funciona una aplicación web (estructura cliente-servidor, qué se ejecuta dónde), el patrón MVC, cómo funciona el protocolo HTTP, etc. Nosotros sólo hemos dado una asignatura de éste temario, y ha sido en 5º curso (o sea, que si has hecho la ingeniería técnica no lo ves) y optativa.

elzahr

#23 Por mi parte, en la Facultad de Informática de Barcelona (UPC), encuentro imperdonable que la formación en temas de paralelismo y concurrencia sea tan "light". Existía una optativa y en Sistemas Operativos se enseña algo, pero no dejaba de ser casi una curiosidad, y eso que no hacen tantos años.

Por supuesto ahora con Bolonia ha cambiado y Paralelismo es obligatoria en alguna especialidad propia del Grado.. pero sigo pensando que van algo atrasados.

Luismi_Lainez

#23 Estoy contigo, en mi caso estudio en la UAB (Univsersitat Autònoma de Barcelona) y muchos estudiantes nos quejamos de lo mismo: de web... nada. Y no hablo sólo de webs, sino de interfícies y/o usabilidad, algo que, dado que es lo que hay entre cliente/usuario y aplicación , creo que es bastante importante. Lo mismo pasa en cuanto a administración de sistemas, servidores... Estoy en quinto de carrera y me queda una asignatura y el proyecto, así que sé lo que digo. Antes existían cómo libre elección, pero las quitaron primero por recortes y luego por que los precios eran simplemente prohibitivos.

D

Lo que nunca haría es basar decisiones universitaria-académicas únicamente a lo que el “mercado demanda”, y mucho menos intentaría perjudicar a iniciativas alternativas al status quo.

Teniendo en cuenta lo que se hace en España informáticamente hablando, no prepararles para lo que el mercado demanda, es abocarlos directamente al paro o a la emigración.

Una opción es buena, la otra no.

M

Yo echo en falta en la carrera más asignaturas de Gráficos 3D y algoritmos de renderizado y demás cosas relacionadas con el mundo 3D.

D

La propia definición del artículo de lo que es un servidor de aplicaciones es incorrecta/incompleta:

> En este caso en particular, no veo el problema. Un servidor de aplicaciones es sólo un servidor que implementa paso de mensajes distribuidos con mecanismo de rendevouz cliente-servidor (i.e. el servidor espera por conexiones que inician los clientes), y sincronización general de llamada a procedimientos remoto (i.e. bloqueo del emisor hasta recibir respuesta del receptor, en este caso el servidor), con técnicas para minimizar los tiempos de esperas, como mantener un pool de hilos en marcha (i.e. temas simples de gestión de procesos).


Esto puede definir a un servidor de red justo unos milisegundos antes de convertirse en un auténtico servidor de aplicaciones... o no. Con lo que queda demostrado lo que argumentaban en Twitter:

> Salí de la universidad sin saber qué era un servidor de aplicaciones. ¡Qué atrasados!

D

Me parece increíble que esta noticia sea calificada por muchos de irrelevante o sensacionalista. Una prueba mas de que esa parte de meneame que potencia las ínfulas censoras de los usuarios es un disparate.

D

Pues realmente, creo que los informaticos deberian saber programar, y no un determinado lenguaje. Quiero decir que deberian conocer al dedillo:
Tipos de datos.
Estructuras y referencias a lss mismas.
Algoritmos.
Y si para eso tienen que programar en asembler o C, pues vale.
Estoy harto de ver como la gente programa como si tuviese todos los recursos del mundo mundial y todo fuese a ir bien.
Y es que el secreto de un buen sistema es que no falle ni se cuelgue jamas.
(Estoy en movil, acentos no).

p

Superficial y pedante.

Locodelacolina

#15

D

#15: Devuelvo el servicio por el comentario de "Snipwned" que me enviaste antes.

D

Menudos pardillos los linuxeros, los que somos cool programamos en objective c

darccio

#19 ¿Objective-C? Los que de verdad molamos somos los políglotas. Yo un proyecto con menos de dos lenguajes distintos no lo acepto lol

difusion

#19, Entonces debes tener un buen cacao mental

D

Tipico post en el que los asociales informaticos tienen bandera verde para llorar y quejarse porque son intelectualoides y nadie los entiende. Pringaos, os robaba el bocadillo.