En este año 2022 se cumplen 75 desde la invención del transistor bipolar, probablemente la invención más importante del siglo XX, ya que ha posibilitado que nuestra vida cotidiana sea inconcebible sin los ordenadores personales, los teléfonos móviles, Internet y un sinfín de aplicaciones que usan ese dispositivo electrónico.
#3:
Pues yo discrepo.
El transistor permitió reducir el tamaño de circuitos que ya existían mediante válvulas de vacío, pero fue un salto más evolutivo que revolucionario, ya que no permitía aplicaciones fundamentalmente nuevas.
Ahora bien, la invención del circuito integrado creo que sí que fue el más importante del S.XX, porque sí que fue absolutamente revolucionario y abrió campos completamente nuevos, permitiendo aplicar la economía de escala a circuitos gigantescos que habrían ocupado volúmenes enormes, y tratar estos circuitos como bloques de construcción de sistemas.
Cabe discrepar en si son realmente el mismo invento ya que un microchip no deja de ser un conjunto enorme de transistories miniaturizados, pero creo que los cambios que permitió el circuito integrado van muchísimo más allá que la invención del transistor. Podría decirse que el microchip es la verdadera revolución en la aplicación de transistores.
Obviamente, el transistor es previo al microchip y necesario para su existencia, pero en cuanto a importancia, creo que es mayor la del segundo.
#4:
#3 por otra parte se podría decir que lo revolucionario fue pasar de las complejidades mecánicas de las válvulas de vacío al estado sólido.
Una vez que puedes crear un transistor sobre una oblea de silicio cristalino la miniaturización que hace posible los microprocesadores cae por su propio peso.
"nada de eso seria posible sin la teorización inicial de Ada Byron, que se sacó de la manga toda la máquina analítica
Vaya puta ama."
Eso no fue así.
La máquina analítica fue un proyecto de Babbage. Tampoco salió "de la manga"... ya que esa máquina analítica fue una "evolución" de una máquina anterior de Babbage llamada "máquina diferencial", la cual se centraba en unas operaciones matemáticas y algoritmos concretos, no para cualquier algoritmo como la analítica. La primera versión, la diferencial, empezó a idearla Babbage en 1812, es decir, 3 años antes de que naciese Ada. Por tanto, si alguien pensaba que Ada pudo haber inventado de la nada la segunda máquina, y que quizá Babbage se apropiase de una idea enteramente de ella que Ada "se sacó de la manga", es claro que no. Por cierto, Babbage pertenecía a un club llamado Sociedad Analítica que creó en 1812 él junto con varios amigos... Y aunque la "analítica" es un área de las matemáticas y una forma de pensamiento, no creo que el nombre "máquina analítica" no tuviese absolutamente ninguna relación, creo que sí había relación. También existía el telar de Jacquard, una máquina textil programable con tarjetas perforadas ideada en 1801, presentada en 1805 y popularizada ampliamente en 1812. Este telar fue conocido conocido tanto por Ada como por Babbage. Una de las mayores innovaciones de dicho telar eran las tarjetas perforadas, que luego Babbage incorporó en su máquina analítica, lo cual prueba que esa idea tampoco fue suya.
¿Ada era extraordinaria? Sin ninguna duda. Desde niña recibió una magnífica educación y siendo joven destacó en matemáticas, interés que compartía con Babbage. Y una de las mayores muestras de la valía de Ada fue tener la suficiente visión como para imaginar usos de la máquina analítica fuera de los números, usos que Babbage no había pensado o no le interesaban. Se suele decir que Ada fue la primera programadora... pero en realidad hay pruebas de que Babbage escribió programas para su máquina en notas entre 1836 y 1837... El logro de Ada fue publicar por primera vez un algoritmo para ejecutarse en una máquina. Esa publicación fue en 1843 y, bueno, tampoco fue un artículo dedicado al algoritmo y la máquina sino que fue en un anexo (añadido original de Ada) de una traducción que hizo ella de un artículo de un ingeniero italiano. El ingeniero trató unos asuntos y ella complementó con un programa para la máquina analítica que permitía calcular unos números... Dicha máquina no existía físicamente, ya que Babbage nunca acabó la construcción física sino solo los planos o detalles de la máquina. Publicar el primer programa ya era un gran logro, y sin tener la máquina física para probarlo era un logro más destacado, pero, además, hacerlo siendo mujer con las trabas que había para las mujeres en esos tiempos. Al parecer algunos archivos los firmó con siglas en lugar del nombre completo, para que nadie supiese que lo había escrito una mujer.
------
Otra curiosidad: en un manual francés de 1911 sobre la máquina de Babbage se llamó "ordonnateur" a la parte de la máquina analítica donde se colocaban las tarjetas perforadas con las instrucciones del programa a ejecutar. Se lo llamó así porque era pieza era la que daba las órdenes, el "ordenador".
Más tarde, en 1955 Perret, un filólogo latinista francés inventó la palabra "ordinateur"... Ojo, que no era la misma palabra. Lo hizo por un exalumno suyo, que era jefe de publicidad de IBM Francia, y que buscaba una nueva palabra ya que llamar "calculadoras" a los maquinones de IBM le parecía un poco ofensivo o poco representativo de su gran valor como máquina, era como rebajarla o menospreciarla llamándola así. La palabra "ordinateur" se popularizó en Francia en 1963 y, más tarde, en 1972 IBM publicó un diccionario inglés español donde aparecía por primera vez publicada la palabra "ordenador", en español.
#10:
#3 Yo pienso que la evolución fue pasar del transistor al integrado, y la revolución fue pasar de las válvulas al transistor, ya que nos permitió por ejemplo crear receptores de radio a pilas, que permitió usaros en cualquier lugar, incluso los radiocasetes de los coches mejoraron bastante en tamaño y calidad. El integrado lo que hizo en su momento fue reducir aun mas el tamaño.
#2:
En la carrera estudié con el libro de William Shockley. Me siento muy muy viejuno.
Pues yo discrepo.
El transistor permitió reducir el tamaño de circuitos que ya existían mediante válvulas de vacío, pero fue un salto más evolutivo que revolucionario, ya que no permitía aplicaciones fundamentalmente nuevas.
Ahora bien, la invención del circuito integrado creo que sí que fue el más importante del S.XX, porque sí que fue absolutamente revolucionario y abrió campos completamente nuevos, permitiendo aplicar la economía de escala a circuitos gigantescos que habrían ocupado volúmenes enormes, y tratar estos circuitos como bloques de construcción de sistemas.
Cabe discrepar en si son realmente el mismo invento ya que un microchip no deja de ser un conjunto enorme de transistories miniaturizados, pero creo que los cambios que permitió el circuito integrado van muchísimo más allá que la invención del transistor. Podría decirse que el microchip es la verdadera revolución en la aplicación de transistores.
Obviamente, el transistor es previo al microchip y necesario para su existencia, pero en cuanto a importancia, creo que es mayor la del segundo.
#3 por otra parte se podría decir que lo revolucionario fue pasar de las complejidades mecánicas de las válvulas de vacío al estado sólido.
Una vez que puedes crear un transistor sobre una oblea de silicio cristalino la miniaturización que hace posible los microprocesadores cae por su propio peso.
#4 No lo creo. Se tardaron muchos años hasta que a alguien se le ocurrió miniaturizar un circuito y se le ocurrió un proceso viable para hacerlo. En todo caso, la importancia es mucho mayor la del microchip, simplemente porque permitió mucho más que el humilde transistor.
Tanto es así, que hoy día se emplean integrados directamente en lugares que antiguamente se usarían transistores. Lógicamente es opinable, ya que un integrado tiene dentro muchos transistores, pero vamos, el proceso y la idea del micro me parece mucho más revolucionario en capacidad y consecuencias.
#5 ¿Muchos años? El transistor se inventó en 1947, y el primer prototipo de microchip se fabricó en 1958. Y la idea en sí fue anterior: según la wikipedia, ya en 1949 hubo una patente del concepto https://en.wikipedia.org/wiki/Integrated_circuit#History
#8 Error mío. Yo estaba refiriéndome en particular al microprocesador, pero es cierto que circuitos integrados a pequeña y mediana escala ya existían anteriormente.
En cualquier caso sigo manteniendo mi postura, porque la puntualización no cambia el argumento principal.
#11 Pues aún así, discrepo: el microprocesador se inventó cuando se pudo; esto es, cuando se alcanzó una cota de integración suficiente. Y aún así, si ves el diseño del 4004 está lleno de parches, como multiplexar las salidas para utilizar sólo 14 pines. Y lo que es la idea de un "ordenador en un solo chip", no era más que la conclusión lógica, y hubo mucha gente que pensó en ello mucho antes. Otra cosa es que tuviese sentido a nivel comercial: no fue hasta la llegada de los circuitos integrados que se pudo empezar a pensar en dispositivos de cálculo electrónicos lo suficientemente baratos como para que se compren en masa, y por tanto no fue hasta ese momento que la cosa empezó a tener sentido comercial, que a fin de cuentas es lo que mueve muchas cosas en el mundo tecnológico.
#24"si ves el diseño del 4004 está lleno de parches, como multiplexar las salidas para utilizar sólo 14 pines"
Personalmente no lo veo un parche, lo que pasa es posiblemente en aquel momento no se veía la necesidad para usar todas esas funcionalidades o encarecía demasiado el precio del producto.
Recordemos que a día de hoy se hace eso mismo en la mayoría de microcontroladores, y un mismo pin puede ser entrada o salida, digital o analógico, e incluso una parte interna del micro, como es habilitar el pin para conectar un cristal de cuarzo.
#25 No es lo mismo para nada: en el caso del 4004, toda esa multiplexación te obligaba o bien a utilizar los chips específicos de Intel que ya tenían incorporado los demultiplexores internamente, o bien a añadir circuitería extra para utilizar chips estándar. Y se hizo simplemente porque incluso cuando surgió, no tenían muy claro que fuese a ser un éxito, por lo que decidieron utilizar los mismos encapsulados que ya usaban en chips de RAM en lugar de gastar dinero extra en montar una línea de montaje para encapsulados de más pines.
En el caso de los microcontroladores actuales el motivo es, simplemente, dar más pines de E/S con el mismo tamaño: si ponen un pin específico para el puerto serie, por ejemplo, y no utilizas el puerto serie, es un pin que está "muerto"; pero si permiten utilizarlo además como pin genérico de entrada/salida, el mismo microcontrolador sirve para diseños que necesitan pocas E/S y un puerto serie, y para diseños que necesitan más E/S pero no un puerto serie (o I2C, o I2S, o SPI, o...).
#3 Conseguir lo mismo de forma mas abundante y barata puede ser crucial.
No se pueden forjar vias de tren como si fuesen espadas. Que se pudiese fabricar hierro en cantidades industriales cambió el mundo.
Otros ejemplos, aluminio, amoniaco, produccion en serie, mecanizacion de la agricultura, la aplicaciones de los ordandores se multiplican con su potencia de calculo. #24 Si rompes un circuito intergrado es curioso es que todo patas y el silicio es minusculo. Pomer las patas es un problema.
#16 Creo que Torres quevedo tambien fabrico calculadora electromecanicas para integrar y derivar.
Y me suena que Pascal ideo una calculadora mecanica.
Leonardo Torres Quevedo: sí, un magnífico ingeniero español. Entre sus logros un teleférico / aerotransbordador para kas cataratas del Niágara que todavía hoy funciona, después de más de 100 años. También hizo dirigibles, aparatos radiocontrolados (teledirigidos), etc.
En lo concierne a máquinas de calcular y similares, primero destacó especialmente en hacer máquinas analógicas de cálculo, basadas en elementos mecánicos, especialmente elementos giratorios con logaritmos. Esto permitía, por ejemplo, resolver ecuaciones polinómicas bastante complicadas. Por ser analógico había cierta imprecisión en los números de entrada y los de salida... pero se dice que podía conseguir precisión de milésimas. Esas máquinas analógicas serían desde el año 1893 más o menos. Algunas de esas máquinas podían trabajar con números complejos y también hizo máquinas para resolver [algunas] ecuaciones diferenciales en base a procesos físicos.
Más tarde se enfocó en máquinas discretas, no analógicas. A veces se las llama "digitales" aunque creo que las de Torres Quevedo no eran binarias. En 1920 presentaría "el aritmómetro", una especie de calculadora "digital". Aunque a veces se dice que es el "primer ordenador de la historia", me parece que no admitía cualquier algoritmo... Me parece que no era una máquina de propósito general equivalente a una máquina de Turing (la analítica de Babbage sí lo era). De todas formas, usó la arquitectura actual de los ordenadores, con dispositivos de entrada y salida, unidad aritmético-lógica, memoria, unidad de control. Y, además, era electromecánica.
Pascal: muy anterior, anterior a Newton, su máquina se llamó "Pascalina" y era una calculadora mecánica básica. Ni de propósito general, ni algoritmos, ni memoria... Claro, hablamos del siglo XVII, no mucho después de los Reyes Católicos... No deja de tener mucho mérito y Pascal fue un grandísimo genio, pero tampoco se puede esperar demasiado en esa época.
#38 Hay un museo de TQuevedo en ¿politecnica? de Madrid, creo que gratis pero hay que pedir cita previamente.
Hay que aclara que la calculadoras de Quevedo era electromecanicas ( no se si todas) las de babage y demas eran totalmente mecanica lo que es mucho mas dificil. Creo que alguna calculadora no se pudo hacer hasta alrededor del y2k
Sí, creo que es en la escuela de Ingenieros de Caminos.
la calculadoras de Quevedo era electromecanicas ( no se si todas)
Pues, hombre, en mi comentario anterior lo dije... la mayoría, las primeras de todas NO eran electromecánicas, pero tras 27 años, en 1920 hizo el aritmómetro, que sí era electromecánico.
#3#4#5 los chips programables fueron lo realmente revolucionario. Antes de ellos habían chips, antes tarjetas perforadas... Pero lo que permitió la informática actual fueron los chips programables.
En realidad han habido muchos pasos cruciales para llegar a donde estamos hoy en día, pero no debemos olvidar que nada de eso seria posible sin la teorización inicial de Ada Byron, que se sacó de la manga toda la máquina analítica
Vaya puta ama.
"nada de eso seria posible sin la teorización inicial de Ada Byron, que se sacó de la manga toda la máquina analítica
Vaya puta ama."
Eso no fue así.
La máquina analítica fue un proyecto de Babbage. Tampoco salió "de la manga"... ya que esa máquina analítica fue una "evolución" de una máquina anterior de Babbage llamada "máquina diferencial", la cual se centraba en unas operaciones matemáticas y algoritmos concretos, no para cualquier algoritmo como la analítica. La primera versión, la diferencial, empezó a idearla Babbage en 1812, es decir, 3 años antes de que naciese Ada. Por tanto, si alguien pensaba que Ada pudo haber inventado de la nada la segunda máquina, y que quizá Babbage se apropiase de una idea enteramente de ella que Ada "se sacó de la manga", es claro que no. Por cierto, Babbage pertenecía a un club llamado Sociedad Analítica que creó en 1812 él junto con varios amigos... Y aunque la "analítica" es un área de las matemáticas y una forma de pensamiento, no creo que el nombre "máquina analítica" no tuviese absolutamente ninguna relación, creo que sí había relación. También existía el telar de Jacquard, una máquina textil programable con tarjetas perforadas ideada en 1801, presentada en 1805 y popularizada ampliamente en 1812. Este telar fue conocido conocido tanto por Ada como por Babbage. Una de las mayores innovaciones de dicho telar eran las tarjetas perforadas, que luego Babbage incorporó en su máquina analítica, lo cual prueba que esa idea tampoco fue suya.
¿Ada era extraordinaria? Sin ninguna duda. Desde niña recibió una magnífica educación y siendo joven destacó en matemáticas, interés que compartía con Babbage. Y una de las mayores muestras de la valía de Ada fue tener la suficiente visión como para imaginar usos de la máquina analítica fuera de los números, usos que Babbage no había pensado o no le interesaban. Se suele decir que Ada fue la primera programadora... pero en realidad hay pruebas de que Babbage escribió programas para su máquina en notas entre 1836 y 1837... El logro de Ada fue publicar por primera vez un algoritmo para ejecutarse en una máquina. Esa publicación fue en 1843 y, bueno, tampoco fue un artículo dedicado al algoritmo y la máquina sino que fue en un anexo (añadido original de Ada) de una traducción que hizo ella de un artículo de un ingeniero italiano. El ingeniero trató unos asuntos y ella complementó con un programa para la máquina analítica que permitía calcular unos números... Dicha máquina no existía físicamente, ya que Babbage nunca acabó la construcción física sino solo los planos o detalles de la máquina. Publicar el primer programa ya era un gran logro, y sin tener la máquina física para probarlo era un logro más destacado, pero, además, hacerlo siendo mujer con las trabas que había para las mujeres en esos tiempos. Al parecer algunos archivos los firmó con siglas en lugar del nombre completo, para que nadie supiese que lo había escrito una mujer.
------
Otra curiosidad: en un manual francés de 1911 sobre la máquina de Babbage se llamó "ordonnateur" a la parte de la máquina analítica donde se colocaban las tarjetas perforadas con las instrucciones del programa a ejecutar. Se lo llamó así porque era pieza era la que daba las órdenes, el "ordenador".
Más tarde, en 1955 Perret, un filólogo latinista francés inventó la palabra "ordinateur"... Ojo, que no era la misma palabra. Lo hizo por un exalumno suyo, que era jefe de publicidad de IBM Francia, y que buscaba una nueva palabra ya que llamar "calculadoras" a los maquinones de IBM le parecía un poco ofensivo o poco representativo de su gran valor como máquina, era como rebajarla o menospreciarla llamándola así. La palabra "ordinateur" se popularizó en Francia en 1963 y, más tarde, en 1972 IBM publicó un diccionario inglés español donde aparecía por primera vez publicada la palabra "ordenador", en español.
#16 por supuesto que Ada no se sacó la máquina analítica de la manga, era una manera de hablar. Pero es que ningún científico lo hace, de ahí la expresión "ponerse en hombros de gigantes" que expresó el gran Newton. Y no por ello tiene menos valor.
#5 El salso de válvulas al transistor fue un avance mucho más alto que del transistor a los circuitos integrados. Los circuitos integrados fueron la evolución lógica del transistor. Nunca se hubieran podido hacer circuitos integrados con válvulas,
#3 Yo pienso que la evolución fue pasar del transistor al integrado, y la revolución fue pasar de las válvulas al transistor, ya que nos permitió por ejemplo crear receptores de radio a pilas, que permitió usaros en cualquier lugar, incluso los radiocasetes de los coches mejoraron bastante en tamaño y calidad. El integrado lo que hizo en su momento fue reducir aun mas el tamaño.
#10 Una radio a pilas es un paso claramente evolutivo: ya existían radios comerciales. La aplicación es fundamentalmente la misma: escuchar la radio. No creó medios nuevos. Cogió lo que ya existía y lo hizo un poco más pequeño.
Sin embargo, hasta el microprocesador, si bien las computadoras existían, eran proyectos artesanales, carísimos y únicos. El microprocesador fue lo que permitió la aparición de la informática como industria (modelos de computadores producidos en masa) y no como ejercicio académico de unos pocos investigadores. Y lo que ha dado la informática es amplísimo y ha cambiado nuestras vidas mucho más que la aparición de radios portátiles o equipos de música.
#13 La miniaturización fue lo que realmente abrió las puertas y más hoy, con transistores que miden nanómetros y que permiten que podamos llevar un ordenador en el bolsillo con acceso a todo o casi el saber humano y que muchos se pueden permitir.
#3 El circuito integrado esta hecho con transistores. Lo que tú dices es como decir que la invención del libro es más importante que la invención del papel.
#36 Siguiendo esa lógica, la rueda será siempre el invento más importante de la historia y jamás cambiará, porque fue necesaria para todo lo demás. No creo que ese criterio de "el invento X es necesario para que exista el invento Y" sea muy válido para determinar lo importante que es un invento.
#43 No es el mismo caso, porque el transistor se inventó para minimizar circuitos, no fue un descubrimiento casual que luego se aplicó a los circuitos integrados. El objetivo era hacer circuitos más pequeños, la creación de un circuito integrado fue la consecuencia directa de la creación del transistor.
Y el invento más importante de la humanidad, a mi parecer, es el lenguaje humano.
#2 El transistor fue inventado en AT&T, empresa fundada con el nombre Bell Telephone Company por nada menos que Graham Bell, uno de los inventores del teléfono (aunque hoy en día sabemos que otros lo inventaron antes). De hecho todavía cotiza en bolsa.
#12 Al menos no te has tenido que estudiar cómo están interconectados por dentro los componentes de los integrados básicos CMOS,la estructura Totem-Pole de los TTL de la serie 74, y la ECL, para dibujar el circuito en el examen
#28 los "normales", los bipolares.
Los MOSFET (un milagro de la técnica) y resto de fauna, los fui estudiando adhoc según iba trabajando con ellos.
Triac,tiristores...etc. yo les llamo semiconductores locos.
#39 Lo bueno es que esos "semiconductores locos", en la mayoría de los casos, no los vas a utilizar a menos que la potencia de lo que controles tengas que medirla en kilovatios
Ordenadores, calculadoras y creo que más importante aún, controladoras industriales (la automatización y control complejo de procesos industriales consiguió revolucionar la producción como tal y de manera derivada los productos, abaratando precios y acercándolos al consumidor y aumentando su calidad en general; como en el caso de los transistores y los propios circuítos integrados, aquí existían las cadenas de montaje, pero las controladoras digitales y programables dieron una nueva dimensión a los procesos industriales) y un montón de nuevos usos en un montón de nuevos aparatos electrónicos tanto de uso profesional como doméstico.
en realidad sí. De la misma forma que se dopó material alternativamente para hacer el transistor en 3 fragmentos se hizo en 2 y en 4 creando diodos que tenía otras propiedades como hacer de células fotoeléctricas, triacs etc Circuitos que podían hacer de memoria, circuitos decodificadores etc Y claro los circuitos integrados que indicas o las cámaras digitales en un chip
Una aplicación práctica de la mecánica cuántica... Para que luego digan. Y teoría física elaborada por mucha gente a lo largo de décadas, sudada y bien sudada...
Comentarios
Pues yo discrepo.
El transistor permitió reducir el tamaño de circuitos que ya existían mediante válvulas de vacío, pero fue un salto más evolutivo que revolucionario, ya que no permitía aplicaciones fundamentalmente nuevas.
Ahora bien, la invención del circuito integrado creo que sí que fue el más importante del S.XX, porque sí que fue absolutamente revolucionario y abrió campos completamente nuevos, permitiendo aplicar la economía de escala a circuitos gigantescos que habrían ocupado volúmenes enormes, y tratar estos circuitos como bloques de construcción de sistemas.
Cabe discrepar en si son realmente el mismo invento ya que un microchip no deja de ser un conjunto enorme de transistories miniaturizados, pero creo que los cambios que permitió el circuito integrado van muchísimo más allá que la invención del transistor. Podría decirse que el microchip es la verdadera revolución en la aplicación de transistores.
Obviamente, el transistor es previo al microchip y necesario para su existencia, pero en cuanto a importancia, creo que es mayor la del segundo.
#3 por otra parte se podría decir que lo revolucionario fue pasar de las complejidades mecánicas de las válvulas de vacío al estado sólido.
Una vez que puedes crear un transistor sobre una oblea de silicio cristalino la miniaturización que hace posible los microprocesadores cae por su propio peso.
#4 No lo creo. Se tardaron muchos años hasta que a alguien se le ocurrió miniaturizar un circuito y se le ocurrió un proceso viable para hacerlo. En todo caso, la importancia es mucho mayor la del microchip, simplemente porque permitió mucho más que el humilde transistor.
Tanto es así, que hoy día se emplean integrados directamente en lugares que antiguamente se usarían transistores. Lógicamente es opinable, ya que un integrado tiene dentro muchos transistores, pero vamos, el proceso y la idea del micro me parece mucho más revolucionario en capacidad y consecuencias.
#5 ¿Muchos años? El transistor se inventó en 1947, y el primer prototipo de microchip se fabricó en 1958. Y la idea en sí fue anterior: según la wikipedia, ya en 1949 hubo una patente del concepto https://en.wikipedia.org/wiki/Integrated_circuit#History
#8 Error mío. Yo estaba refiriéndome en particular al microprocesador, pero es cierto que circuitos integrados a pequeña y mediana escala ya existían anteriormente.
En cualquier caso sigo manteniendo mi postura, porque la puntualización no cambia el argumento principal.
#11 Pues aún así, discrepo: el microprocesador se inventó cuando se pudo; esto es, cuando se alcanzó una cota de integración suficiente. Y aún así, si ves el diseño del 4004 está lleno de parches, como multiplexar las salidas para utilizar sólo 14 pines. Y lo que es la idea de un "ordenador en un solo chip", no era más que la conclusión lógica, y hubo mucha gente que pensó en ello mucho antes. Otra cosa es que tuviese sentido a nivel comercial: no fue hasta la llegada de los circuitos integrados que se pudo empezar a pensar en dispositivos de cálculo electrónicos lo suficientemente baratos como para que se compren en masa, y por tanto no fue hasta ese momento que la cosa empezó a tener sentido comercial, que a fin de cuentas es lo que mueve muchas cosas en el mundo tecnológico.
#24 "si ves el diseño del 4004 está lleno de parches, como multiplexar las salidas para utilizar sólo 14 pines"
Personalmente no lo veo un parche, lo que pasa es posiblemente en aquel momento no se veía la necesidad para usar todas esas funcionalidades o encarecía demasiado el precio del producto.
Recordemos que a día de hoy se hace eso mismo en la mayoría de microcontroladores, y un mismo pin puede ser entrada o salida, digital o analógico, e incluso una parte interna del micro, como es habilitar el pin para conectar un cristal de cuarzo.
#25 No es lo mismo para nada: en el caso del 4004, toda esa multiplexación te obligaba o bien a utilizar los chips específicos de Intel que ya tenían incorporado los demultiplexores internamente, o bien a añadir circuitería extra para utilizar chips estándar. Y se hizo simplemente porque incluso cuando surgió, no tenían muy claro que fuese a ser un éxito, por lo que decidieron utilizar los mismos encapsulados que ya usaban en chips de RAM en lugar de gastar dinero extra en montar una línea de montaje para encapsulados de más pines.
En el caso de los microcontroladores actuales el motivo es, simplemente, dar más pines de E/S con el mismo tamaño: si ponen un pin específico para el puerto serie, por ejemplo, y no utilizas el puerto serie, es un pin que está "muerto"; pero si permiten utilizarlo además como pin genérico de entrada/salida, el mismo microcontrolador sirve para diseños que necesitan pocas E/S y un puerto serie, y para diseños que necesitan más E/S pero no un puerto serie (o I2C, o I2S, o SPI, o...).
Relacionado :
Documental: TRANSISTORIZED! La Historia De: El Transistor
Documental: TRANSISTORIZED! La Historia De: El Tra...
youtube.com#3 Conseguir lo mismo de forma mas abundante y barata puede ser crucial.
No se pueden forjar vias de tren como si fuesen espadas. Que se pudiese fabricar hierro en cantidades industriales cambió el mundo.
Otros ejemplos, aluminio, amoniaco, produccion en serie, mecanizacion de la agricultura, la aplicaciones de los ordandores se multiplican con su potencia de calculo.
#24 Si rompes un circuito intergrado es curioso es que todo patas y el silicio es minusculo. Pomer las patas es un problema.
#16 Creo que Torres quevedo tambien fabrico calculadora electromecanicas para integrar y derivar.
Y me suena que Pascal ideo una calculadora mecanica.
#37
Leonardo Torres Quevedo: sí, un magnífico ingeniero español. Entre sus logros un teleférico / aerotransbordador para kas cataratas del Niágara que todavía hoy funciona, después de más de 100 años. También hizo dirigibles, aparatos radiocontrolados (teledirigidos), etc.
En lo concierne a máquinas de calcular y similares, primero destacó especialmente en hacer máquinas analógicas de cálculo, basadas en elementos mecánicos, especialmente elementos giratorios con logaritmos. Esto permitía, por ejemplo, resolver ecuaciones polinómicas bastante complicadas. Por ser analógico había cierta imprecisión en los números de entrada y los de salida... pero se dice que podía conseguir precisión de milésimas. Esas máquinas analógicas serían desde el año 1893 más o menos. Algunas de esas máquinas podían trabajar con números complejos y también hizo máquinas para resolver [algunas] ecuaciones diferenciales en base a procesos físicos.
Más tarde se enfocó en máquinas discretas, no analógicas. A veces se las llama "digitales" aunque creo que las de Torres Quevedo no eran binarias. En 1920 presentaría "el aritmómetro", una especie de calculadora "digital". Aunque a veces se dice que es el "primer ordenador de la historia", me parece que no admitía cualquier algoritmo... Me parece que no era una máquina de propósito general equivalente a una máquina de Turing (la analítica de Babbage sí lo era). De todas formas, usó la arquitectura actual de los ordenadores, con dispositivos de entrada y salida, unidad aritmético-lógica, memoria, unidad de control. Y, además, era electromecánica.
Pascal: muy anterior, anterior a Newton, su máquina se llamó "Pascalina" y era una calculadora mecánica básica. Ni de propósito general, ni algoritmos, ni memoria... Claro, hablamos del siglo XVII, no mucho después de los Reyes Católicos... No deja de tener mucho mérito y Pascal fue un grandísimo genio, pero tampoco se puede esperar demasiado en esa época.
#38 Hay un museo de TQuevedo en ¿politecnica? de Madrid, creo que gratis pero hay que pedir cita previamente.
Hay que aclara que la calculadoras de Quevedo era electromecanicas ( no se si todas) las de babage y demas eran totalmente mecanica lo que es mucho mas dificil. Creo que alguna calculadora no se pudo hacer hasta alrededor del y2k
#41
"Hay un museo"
Sí, creo que es en la escuela de Ingenieros de Caminos.
la calculadoras de Quevedo era electromecanicas ( no se si todas)
Pues, hombre, en mi comentario anterior lo dije... la mayoría, las primeras de todas NO eran electromecánicas, pero tras 27 años, en 1920 hizo el aritmómetro, que sí era electromecánico.
#3 #4 #5 los chips programables fueron lo realmente revolucionario. Antes de ellos habían chips, antes tarjetas perforadas... Pero lo que permitió la informática actual fueron los chips programables.
En realidad han habido muchos pasos cruciales para llegar a donde estamos hoy en día, pero no debemos olvidar que nada de eso seria posible sin la teorización inicial de Ada Byron, que se sacó de la manga toda la máquina analítica
Vaya puta ama.
#9
"nada de eso seria posible sin la teorización inicial de Ada Byron, que se sacó de la manga toda la máquina analítica
Vaya puta ama."
Eso no fue así.
La máquina analítica fue un proyecto de Babbage. Tampoco salió "de la manga"... ya que esa máquina analítica fue una "evolución" de una máquina anterior de Babbage llamada "máquina diferencial", la cual se centraba en unas operaciones matemáticas y algoritmos concretos, no para cualquier algoritmo como la analítica. La primera versión, la diferencial, empezó a idearla Babbage en 1812, es decir, 3 años antes de que naciese Ada. Por tanto, si alguien pensaba que Ada pudo haber inventado de la nada la segunda máquina, y que quizá Babbage se apropiase de una idea enteramente de ella que Ada "se sacó de la manga", es claro que no. Por cierto, Babbage pertenecía a un club llamado Sociedad Analítica que creó en 1812 él junto con varios amigos... Y aunque la "analítica" es un área de las matemáticas y una forma de pensamiento, no creo que el nombre "máquina analítica" no tuviese absolutamente ninguna relación, creo que sí había relación. También existía el telar de Jacquard, una máquina textil programable con tarjetas perforadas ideada en 1801, presentada en 1805 y popularizada ampliamente en 1812. Este telar fue conocido conocido tanto por Ada como por Babbage. Una de las mayores innovaciones de dicho telar eran las tarjetas perforadas, que luego Babbage incorporó en su máquina analítica, lo cual prueba que esa idea tampoco fue suya.
¿Ada era extraordinaria? Sin ninguna duda. Desde niña recibió una magnífica educación y siendo joven destacó en matemáticas, interés que compartía con Babbage. Y una de las mayores muestras de la valía de Ada fue tener la suficiente visión como para imaginar usos de la máquina analítica fuera de los números, usos que Babbage no había pensado o no le interesaban. Se suele decir que Ada fue la primera programadora... pero en realidad hay pruebas de que Babbage escribió programas para su máquina en notas entre 1836 y 1837... El logro de Ada fue publicar por primera vez un algoritmo para ejecutarse en una máquina. Esa publicación fue en 1843 y, bueno, tampoco fue un artículo dedicado al algoritmo y la máquina sino que fue en un anexo (añadido original de Ada) de una traducción que hizo ella de un artículo de un ingeniero italiano. El ingeniero trató unos asuntos y ella complementó con un programa para la máquina analítica que permitía calcular unos números... Dicha máquina no existía físicamente, ya que Babbage nunca acabó la construcción física sino solo los planos o detalles de la máquina. Publicar el primer programa ya era un gran logro, y sin tener la máquina física para probarlo era un logro más destacado, pero, además, hacerlo siendo mujer con las trabas que había para las mujeres en esos tiempos. Al parecer algunos archivos los firmó con siglas en lugar del nombre completo, para que nadie supiese que lo había escrito una mujer.
------
Otra curiosidad: en un manual francés de 1911 sobre la máquina de Babbage se llamó "ordonnateur" a la parte de la máquina analítica donde se colocaban las tarjetas perforadas con las instrucciones del programa a ejecutar. Se lo llamó así porque era pieza era la que daba las órdenes, el "ordenador".
Más tarde, en 1955 Perret, un filólogo latinista francés inventó la palabra "ordinateur"... Ojo, que no era la misma palabra. Lo hizo por un exalumno suyo, que era jefe de publicidad de IBM Francia, y que buscaba una nueva palabra ya que llamar "calculadoras" a los maquinones de IBM le parecía un poco ofensivo o poco representativo de su gran valor como máquina, era como rebajarla o menospreciarla llamándola así. La palabra "ordinateur" se popularizó en Francia en 1963 y, más tarde, en 1972 IBM publicó un diccionario inglés español donde aparecía por primera vez publicada la palabra "ordenador", en español.
#16 por supuesto que Ada no se sacó la máquina analítica de la manga, era una manera de hablar. Pero es que ningún científico lo hace, de ahí la expresión "ponerse en hombros de gigantes" que expresó el gran Newton. Y no por ello tiene menos valor.
#5 El salso de válvulas al transistor fue un avance mucho más alto que del transistor a los circuitos integrados. Los circuitos integrados fueron la evolución lógica del transistor. Nunca se hubieran podido hacer circuitos integrados con válvulas,
#3 Yo pienso que la evolución fue pasar del transistor al integrado, y la revolución fue pasar de las válvulas al transistor, ya que nos permitió por ejemplo crear receptores de radio a pilas, que permitió usaros en cualquier lugar, incluso los radiocasetes de los coches mejoraron bastante en tamaño y calidad. El integrado lo que hizo en su momento fue reducir aun mas el tamaño.
#10 Una radio a pilas es un paso claramente evolutivo: ya existían radios comerciales. La aplicación es fundamentalmente la misma: escuchar la radio. No creó medios nuevos. Cogió lo que ya existía y lo hizo un poco más pequeño.
Sin embargo, hasta el microprocesador, si bien las computadoras existían, eran proyectos artesanales, carísimos y únicos. El microprocesador fue lo que permitió la aparición de la informática como industria (modelos de computadores producidos en masa) y no como ejercicio académico de unos pocos investigadores. Y lo que ha dado la informática es amplísimo y ha cambiado nuestras vidas mucho más que la aparición de radios portátiles o equipos de música.
#13 La miniaturización fue lo que realmente abrió las puertas y más hoy, con transistores que miden nanómetros y que permiten que podamos llevar un ordenador en el bolsillo con acceso a todo o casi el saber humano y que muchos se pueden permitir.
#3 De acuerdo contigo. Ahora… cómo funciona un CI? Acaso no funciona en base a transistores??
#3 El circuito integrado esta hecho con transistores. Lo que tú dices es como decir que la invención del libro es más importante que la invención del papel.
#36 Siguiendo esa lógica, la rueda será siempre el invento más importante de la historia y jamás cambiará, porque fue necesaria para todo lo demás. No creo que ese criterio de "el invento X es necesario para que exista el invento Y" sea muy válido para determinar lo importante que es un invento.
#43 No es el mismo caso, porque el transistor se inventó para minimizar circuitos, no fue un descubrimiento casual que luego se aplicó a los circuitos integrados. El objetivo era hacer circuitos más pequeños, la creación de un circuito integrado fue la consecuencia directa de la creación del transistor.
Y el invento más importante de la humanidad, a mi parecer, es el lenguaje humano.
En la carrera estudié con el libro de William Shockley. Me siento muy muy viejuno.
#2 El transistor fue inventado en AT&T, empresa fundada con el nombre Bell Telephone Company por nada menos que Graham Bell, uno de los inventores del teléfono (aunque hoy en día sabemos que otros lo inventaron antes). De hecho todavía cotiza en bolsa.
#14 Del mismo sitio donde salió más tarde el lenguaje C y UNIX, de los laboratorios Bell, hoy en día se llama Nokia Bell Labs.
#14 Lo de que Bell es el inventor del teléfono.. Si Antonio Meucci hubiese tenido los $10 para pagar la patente, Bell no hubiese podido robársela. https://en.wikipedia.org/wiki/Invention_of_the_telephone
#21 Creo haber leído que pasó la patente pero hubo algún chanchullo y la dejaron bloqueada un año o dos.
#21 Correcto, por eso lo anoté.
#30 Que no, hombre... ¿no ves que el ovni se estrelló el 2 de julio de 1947 ( https://es.wikipedia.org/wiki/Caso_Roswell ) y Barden y Brattain hicieron sus experimentos entre el 17 de noviembre y el 23 de diciembre de 1947 ( https://es.wikipedia.org/wiki/Transistor ) ?
#31 Cierto, la fibra óptica salió 3 años más tarde....debió costarles encontrar el funcionamiento de aquello
Teoría de transistores, buen examen para volverse loco de la cantidad de material que había.
Aún sueño con unión PN y demás tostón.
#12 Al menos no te has tenido que estudiar cómo están interconectados por dentro los componentes de los integrados básicos CMOS,la estructura Totem-Pole de los TTL de la serie 74, y la ECL, para dibujar el circuito en el examen
Nah... el transistor lo sacaron del OVNI de Roswell
#1 Mucha tecnología del OVNI de Roswell, pero no fueron capaz de superar a la cerveza.
#1 El transistor no, fue la fibra óptica...
Cuando conseguí entender cómo funciona y qué hace un transistor, tuve una epifanía que aún hoy me dura.
#15 Cual de ellos? Recordemos que los bipolares, los JFET, y cualquiera de los dos tipos de MOSFET tienen sus pequeñas diferencias
Si ya te metes en semiconductores que se pueden disparar, como en transistor UJT, los tiristores, los TRIAC, y demás pesca, ya apaga y vámonos
#28 los "normales", los bipolares.
Los MOSFET (un milagro de la técnica) y resto de fauna, los fui estudiando adhoc según iba trabajando con ellos.
Triac,tiristores...etc. yo les llamo semiconductores locos.
#39 Lo bueno es que esos "semiconductores locos", en la mayoría de los casos, no los vas a utilizar a menos que la potencia de lo que controles tengas que medirla en kilovatios
Ordenadores, calculadoras y creo que más importante aún, controladoras industriales (la automatización y control complejo de procesos industriales consiguió revolucionar la producción como tal y de manera derivada los productos, abaratando precios y acercándolos al consumidor y aumentando su calidad en general; como en el caso de los transistores y los propios circuítos integrados, aquí existían las cadenas de montaje, pero las controladoras digitales y programables dieron una nueva dimensión a los procesos industriales) y un montón de nuevos usos en un montón de nuevos aparatos electrónicos tanto de uso profesional como doméstico.
en realidad sí. De la misma forma que se dopó material alternativamente para hacer el transistor en 3 fragmentos se hizo en 2 y en 4 creando diodos que tenía otras propiedades como hacer de células fotoeléctricas, triacs etc Circuitos que podían hacer de memoria, circuitos decodificadores etc Y claro los circuitos integrados que indicas o las cámaras digitales en un chip
Una aplicación práctica de la mecánica cuántica... Para que luego digan. Y teoría física elaborada por mucha gente a lo largo de décadas, sudada y bien sudada...