La
evolución de las computadoras (Monografía de mi autoría, realizada hace unos años atrás).
“Considera el pasado y conocerás el
futuro”
Proverbio Chino.
Introducción.
Las
computadoras electrónicas no surgieron de la nada. Es mucho lo que se debe a
quienes diseñaron y construyeron los primeros sistemas electrónicos para
resolver problemas matemáticos y lógicos. Ellos fueron los Colon, los Ericson y
los Balboa de la computación moderna; pero muchos matemáticos y científicos de
épocas pasadas habían aportado ya una contribución importante a ese logro.
Ciertos conocimientos acerca de la
historia de los instrumentos mecánicos que han reforzado las facultades
mentales del hombre y una mirada a su futuro serán útiles para quienquiera
trate hoy de comprender los usos y participar en las aplicaciones de las
computadoras. 1
Las
primeras formas de contar y su evolución.
Las
manos.
No hay duda de que el hombre
primitivo utilizó sus dedos para contar; así el diez, la suma de los dedos de
ambas manos, se convirtió en la base del familiar sistema de numeración –el
decimal- que ha servido a la humanidad a lo largo de su historia.
2
Los
guijarros.
Los progresos fueron lentos pero
seguros. El hombre de la Edad de Piedra utilizó guijarros para contar, sin
dejar de separarlos en grupos de diez dígitos; así aumentó su facilidad para
contar. Ese sistema fue superado, probablemente ya hace unos cinco mil años,
mediante el empleo de una tablilla acanalada –casi siempre de arcilla- en el
cual podían colocarse los guijarros. Haciendo deslizar las piedras a lo largo
de las ranuras, la forma de contar se realizaba en forma casi automática.
3
El Ábaco chino y el Sorobán japonés.
China y Japón agregaron un mayor
refinamiento a la tablilla acanalada, ensartando cuentas (probablemente
guijarros perforados) en cañas o alambres dispuestos dentro de un bastidor.
Este sistema evolucionó hasta llegar al Ábaco chino y el Sorobán japonés, ambos
de uso muy difundido aún en nuestros días. 4
La máquina calculadora de Pascal.
Con el correr de los años se idearon
y utilizaron muchos otros dispositivos ingeniosos, el más importante de los
cuales fue una “máquina aritmética”, mecanismo con ruedas dentadas construido
en 1642 por Blaise Pascal, el notable matemático y filósofo francés. La máquina
calculadora de Pascal fue mejorada mas tarde (entre 1671 y 1694) por el
matemático alemán barón Gottfried Wilhelm von Leibniz, pero su construcción
carecía de precisión mecánica y, como muchos otros intentos, no tuvo éxito.
5
Punto de inflexión
en la ciencia de la computación
La
máquina de diferencias.
“La máquina analítica no es capaz
de crear nada, sin embargo puede hacer
cualquier cosa que sepamos
ordenarle”
Ada Lovelace.
El gran adelanto en la ciencia de la
computación se logró entre los años 1812 y 1833, gracias a las ideas y los
esfuerzos de Charles Babbage, profesor de matemáticas en la Universidad de
Cambridge. La “máquina de diferencias de Babbage”, aunque mecánica, estaba
basada en conceptos que son fundamentales en la actualidad para las
computadoras electrónicas. Tenía lo que Babbage llamó un almacén magnético, el
mecanismo correspondía a la actual unidad central de procesamiento, y el control se
relacionaba con los actuales programas de computación electrónica.
La
máquina de diferencias de Babbage nunca llegó a funcionar. Le fue imposible a
su inventor obtener piezas mecánicas construidas con la precisión que ella
requería; en aquel tiempo, las técnicas de fabricación no estaban aún a la
altura de esa tarea. Por consiguiente, las ideas de este gran matemático
quedaron en la esfera teórica, sin llegar al nivel de las aplicaciones
prácticas. Habrían de transcurrir muchos años antes que la mecánica de
precisión pudiera combinarse con los principios de la electrónica para lograr
que las ideas de Babbage cobrasen realidad. 6
Tarjetas
perforadas de Heman Hollerith.
En 1886, el doctor Herman Hollerith
creó, para la Oficina de Censos de los Estados Unidos, un sistema contable con
tarjetas perforadas, técnica que posteriormente sería muy utilizada para fines
comerciales e industriales. Si bien este sistema no se basaba en los principios
que se emplean para el diseño de las computadoras, las tarjetas perforadas se
convirtieron en un medio importante para introducir datos en estas máquinas.
7
La máquina de sumar.
La máquina de Pascal adolecía de una falla práctica, con las otras
máquinas de sumar que se construyeron de tiempo en tiempo en las dos centurias
siguientes (a 1642). Estas fallaban no tanto porque el diseño fuera malo, sino
a que la tecnología de la época no estaba lo bastante adelantada para producir
dispositivos mecánicos dignos de confianza. La computación mecánica solo se
introdujo en 1885, cuando William Seward Burroughs creó la primera máquina de
sumar comercial. La idea del cálculo mecánico fue aceptada –lentamente, al
principio- en el mundo de los negocios. Cada vez había que realizar más
cálculos.
Esas primeras máquinas solo eran
capaces de efectuar adiciones; más adelante fueron mejoradas de modo que
también podían sustraer. Con todo, no poseían la habilidad de multiplicar ni
dividir automáticamente porque estas son operaciones más complejas.
8
Calculadoras
de mesa.
Muchos de los problemas comerciales
requieren solo operaciones de adición y substracción. Por ejemplo, un banco
puede llevar al día las cuentas de cheques utilizando solo la suma para los
depósitos y la resta para los débitos. En problemas como estos son adecuadas
las máquinas de sumar y restar. Sin embargo, dejan de serlo cuando se tratan de
cálculos científicos y de ingeniería, que exigen muchas multiplicaciones y
divisiones. Los cómputos de este tipo se realizaban, por lo general, con reglas
de cálculo. Pero estas ofrecen solo una aproximación visual de la respuesta. No
tienen la precisión que a menudo se requiere. A medida que avanzaba la
tecnología iba aumentando cada vez más la demanda de calculadoras veloces, que
pudieran multiplicar y dividir con precisión. Una solución temporaria surgió en
la época de la primera guerra mundial, cuando se inventaron las calculadoras de
mesa. Estas máquinas podían realizar las operaciones aritméticas por medio de
un teclado de control. 9
Final
de una era y comienzo de otra.
Las
visiones de Norbert Wiener.
La edad de la fuerza bruta había
alcanzado ya un límite máximo. No solo nos hallábamos en el umbral de una nueva
era, sino que habíamos llegado al final
de la era de la energía primaria. En adelante, la atención debía centrarse en
el control de la energía, en las comunicaciones y en los procesos automáticos.
Las consecuencias eran muchas, a menudo confusas y a veces aterradoras. No
obstante, existía la posibilidad de alcanzar una época de buena vida para
todos, si el hombre tenia el buen sentido de utilizar su inteligencia natural.
Los robots, afirmaba Wiener, habrán
de realizar inevitablemente muchas de las tareas que hoy ejecuta el hombre. Los
órganos sensibles de los robots descubrirán condiciones y cambios y sus
cerebros tomarán decisiones. La computadora, tal como la conocemos, es uno de
esos robots; además del hombre, solo la computadora puede realizar estas
funciones.
Cabe señalar que Wiener abrigaba dudas acerca del
resultado de esta evolución, no porque cuestionase la capacidad de los robots,
sino porque no confiaba del todo en la sensatez y buena voluntad de los hombres
encargados de determinar el uso de los robots y de sus semejantes. El reemplazo
del hombre por la máquina plantea muchos problemas, pero la evolución ofrece la
perspectiva de abundantes beneficios, con menos esfuerzos físicos para todos.
Este proceso se está produciendo
ahora y el hombre encuentra nuevos beneficios –si bien a costa de crecientes
inquietudes- en el cambiante orden social. En la actualidad, miles de grandes
computadoras, además de docenas de miles de otras de menor tamaño para
propósitos especiales, realizan tareas que antes efectuaba el hombre, y también
muchas otras demasiado complejas para él. Además de llevar la contabilidad
comercial corriente, las computadoras están haciendo muchas otras cosas, como
son dirigir las líneas de montaje en las fábricas y controlar los vehículos
espaciales en vuelo. Estas máquinas no solo efectúan operaciones de control que
reemplazan al hombre en los trabajos físicos, sino que su capacidad de tomar
decisiones basadas en los hechos les permite sustituir al personal de
supervisión y administración en ciertas esferas. Es cierto que esto último ha
ocurrido en situaciones específicas, pero también es verdad que, debido a las computadoras,
se están creando cada vez más nuevas industrias y ocupaciones. Además, se abren
ahora nuevos campos de actividad para personas especializadas en diseño,
construcción, mantenimiento, operación y programación de computadoras. Es todo
un nuevo mundo, que necesita miles de personas preparadas y calificadas.
La necesidad de emplear computadoras
en las empresas, el gobierno, las investigaciones y otras actividades,
constituye un desafío para los científicos, ingenieros y fabricantes de estas
máquinas. Como resultado de ello, hay constantes mejoras en el diseño y la
construcción de computadoras y de sus componentes. 10
Las
primeras computadoras.
ENIAC |
Entre los años 1937 y 1940 se
construyó en la Universidad de Hardvard, con la colaboración de IBM Corporation,
la computadora MARK I, en parte mecánica y en parte electrónica. Inmediatamente
después de la MARK I, en 1942, fue construida otra computadora, la ENIAC, en la
universidad de Pensilvania, por J. Presper Eckert y el doctor John W. Mauchly.
La ENIAC, primera computadora
totalmente electrónica, era una construcción de treinta toneladas que ocupaba
mas de 1400 metros cuadrados de superficie. Contenía mas de diecinueve mil
válvulas electrónicas y muchos miles de kilómetros de conductores. En
comparación con el nivel actual, la ENIAC tenia una capacidad limitada. Costaba
mucho hacerla funcionar, pero trabajaba con precisión. Esta máquina señaló el
comienzo de la era de las computadoras. Entre los primeros problemas que le
fueron planteados figuraba uno muy complejo de física nuclear, cuya solución
hubiese requerido el trabajo de un centenar de ingenieros durante un año
entero. La ENIAC dio la respuesta en dos horas.
En los diez años siguientes se
crearon varias grandes computadoras, pero la UNIVAC I, construida por la
Remington Rand en 1951, fue la primera capaz de manejar tanto símbolos
alfabéticos como numéricos. En la UNIVAC I, el almacenamiento principal era un
tanque de mercurio, reemplazado luego, en la UNIVAC II, por un almacenamiento
de núcleos con una capacidad de hasta 120.000 dígitos binarios (bits) o
unidades de información. El almacenamiento auxiliar (“memoria” de la
computadora) fue asignado a cintas y tambores magnéticos.
UNIVAC |
A partir de este comienzo los
progresos fueron rápidos. La WHIRLWIND I, del Instituto Tecnológico de
Masachusetts (M.I.T.), fue diseñada para efectuar cálculos científicos
complejos, y reunida muchas de las características incorporadas luego a las IBM
701 y 705, así como a la UNIVAC 1103.
AL perfeccionarse su estructura y diseño,
durante la década de 1950, la computadora electrónica fue incorporándose cada
vez más a la trama de la vida y de la industria norteamericanas. La LARC, una
computadora de capacidad extraordinariamente grande, fue diseñada por la
Remington rand para investigaciones navales. En 1960 se construyeron y se
entregaron a sus usuarios dos sistemas LARC: uno se instaló en la Universidad
de California, destinado a investigaciones navales, y el otro en Washington, D.
C., en la David Taylor Model Basin, de la Armada de los Estados Unidos. Se
trataba de un sistema de procesamiento múltiple que empleaba dos grupos de
computadoras, uno para cálculos y el otro para controlar la entrada, la salida
y la transferencia de datos, así como
para rutinas de preparación. Se utilizaban núcleos magnéticos para el
almacenamiento principal y tambores magnéticos para los almacenamientos
auxiliares.
MARK I |
Casi simultáneamente, la IBM
construyó otra gran computadora, la STRETCH, para el laboratorio científico de
los álamos, de la Comisión de Energía Atómica. En esa época, la STRETCH era la
computadora mas veloz del mundo para trabajos científicos, capaz de efectuar
hasta dos millones de operaciones de sumar por segundo,
Las dos gigantes, LARC y STRETCH,
demostraron muchos conceptos de la ciencia de la computación, pero eran
máquinas demasiado grandes y costosas para organizaciones empresarias. Las
empresas pequeñas, sobre todo, tenían que limitarse a mirar como espectadores
interesados. Una firma con capital de medio millón de dólares, por ejemplo,
difícilmente podía adquirir una computadora que costaba entre dos y diez veces
esa cantidad. Los fabricantes encararonel problema de crear un producto
accesible a la mediana empresa. 11
Los
primeros cambios en los diseños.
Las primeras demandas de cambios en
las computadoras tendían a lograr una reducción en el tamaño y los costos. La
UNIVAC I era una computadora de sorprendente capacidad, pero muy voluminosa, si
bien resultaba pequeña en comparación con su antecesora, la ENIAC. Solamente la
estructura que alojaba la unidad central de procesamiento de la UNIVAC I
ocupaba 2,74 metros de altura, 4,27 de largo y 2,4 de profundidad. Las válvulas
electrónicas, que hoy consideramos enormes e incómodas, varios miles de
kilómetros de conductores y la pesada armazón metálica necesaria para soportar
el peso, se combinaban para producir una máquina de tamaño y costo excesivos.
12
Los
transistores
Los cambios han sido rápidos y
espectaculares. En primer lugar, las válvulas han sido reemplazadas por transistores
del tamaño de un guisante, muchas veces mas pequeños que la mas diminuta de las
válvulas. Con el empleo de transistores no solo se reduce el tamaño, sino que
también la energía eléctrica requerida es relativamente insignificante, y el
recalentamiento ha dejado de ser un problema. La existencia de transistores y
el almacenamiento en núcleos magnéticos han hecho posible un nuevo concepto de
diseño de las computadoras, con el resultado de que estas pasaron a la llamada
“segunda generación”. La “tercera generación” esta formada por máquinas aún más
pequeñas y veloces, surgiéndo luego una
cuarta y quinta generación. 13
Algo
más sobre las Generaciones de computadoras.
“La experiencia histórica muestra
que los cambios tecnológicos transforman
notablemente las relaciones
políticas y sociales”
John von Neumann
Las computadoras de primera generación, comenzando con la UNIVAC I en
1951, utilizaban tubos de vacío como principal elemento de conmutación. Las
memorias estaban construidas con finos tubos de mercurio líquido y tambores
magnéticos.
Los sistemas de segunda generación de fines de los 50 reemplazaron los
tubos de vacío por transistores, y utilizaron núcleos magnéticos para las
memorias, tal como en la IBM 1401 y las Honeywell 800. Se redujo dramáticamente
el tamaño y la fiabilidad se incrementó significativamente.
Las computadoras de tercera generación, comenzando a mediados de la
década del 60, introdujeron procesadores construidos con circuitos integrados,
tales como las IBM 360 y las CDC 6400. La tercera generación también introdujo
los sistemas operativos y los sistemas de administración de bases de datos.
Los sistemas en línea fueron ampliamente desarrollados durante la tercera
generación, a pesar de que la mayor parte del procesamiento todavía se orientaba
al trabajo por lotes, donde los datos primero se perforaban en tarjetas o se
grababan en cinta.
La cuarta generación, que comenzó de mediados a fines de los 70,
introdujo computadoras compuestas enteramente por chips. También introdujo el
microprocesador, que dio nacimiento a las computadoras personales. La cuarta
generación abarca la integración conjunta de pequeñas y grandes computadoras en
un ambiente distribuido de procesamiento/automatización
de oficina. Los lenguajes de consulta de cuarta generación, los generadores de
informes, las hojas de cálculo y otros paquetes de software pusieron en
contacto directo con la computadora a personas con poca o ninguna experiencia
en ellas.
La quinta generación deberá formalizarse para principios de la década del
90. Las tecnologías VLSI y SLSI están poniendo las actuales macrocomputadoras
en los escritorios de todo el mundo. El reconocimiento de voz, la traducción de
lenguajes naturales y extranjeros, las fibras ópticas, los discos ópticos y
otras tecnologías aún en desarrollo son parte de la quinta generación. Para
fines del corriente siglo, una computadora debería poder conversar en forma más
o menos inteligente con nosotros. 14
Comienzo
de la miniaturización.
Circuitos
integrados.
La tendencia a miniaturizar los
aparatos continúa con la integración de los circuitos electrónicos. Los
minúsculos transistores (chips que miden un milímetro de lado) de las
computadoras de la tercera generación hacen que los transistores empleados en
la segunda parezcan voluminosos. 15
Ventajas
de la miniaturización.
Empleando la tecnología
microelectrónica, hoy es posible construir una unidad computadora con una
capacidad mucho mayor que la de la gigantesca ENIAC de treinta toneladas, y que
cabe en el espacio equivalente al ocupado por los cajones de un escritorio. Hay
una ventaja evidente en hacer una computadora pequeña, aunque solo fuere para
reducir sus dimensiones de modo que en vez de un dinosaurio tengamos un ratón.
Con todo, la reducción de tamaño no es la ventaja más importante: implica
también un gran progreso en la confiabilidad y el funcionamiento. Los pequeños
componentes de estado sólido son poco menos que indestructibles, no se
desgastan y funcionan casi indefinidamente.
Otra de las ventajas es el aumento
en la velocidad de las operaciones. La corriente eléctrica, desplazándose casi
a la velocidad de la luz, atraviesa las distancias microscópicas de los
diminutos componentes en una fracción del tiempo que requería para recorrer los
conductores de los circuitos en las anteriores computadoras. El tiempo de
acceso, en las primeras se median en milésimos de segundo (milisegundos). En
las computadoras de la segunda generación se hacía lo mismo en millonésimos de
segundo (microsegundos, 10-6). Con los microcircuitos, las
computadoras de la tercera generación miden el tiempo en fracciones tan
pequeñas que llegan a la mil millonésima parte de un segundo (nanosegundos, 10-9);
y los diseñadores de computadoras están trabajando ahora a fin de obtener
velocidades que se miden en cien mil millonésimos de segundo (picosegundos, 10-12).
El aumento en la velocidad del proceso incrementa la capacidad de trabajo de la
computadora, así como su flexibilidad para manejar interrupciones de tiempo
real y funciones múltiples. 16
Elementos
esenciales de las computadoras.
Las computadoras han sido llamadas
con frecuencia “cerebros gigantes”. Es un nombre mal aplicado. Solo en forma
muy limitada funciona la computadora de manera similar a un cerebro, un cerebro
sin inteligencia propia; pero, ¿hasta donde puede extenderse la comparación?.
Una máquina de sumar realiza esta operación con exactitud, pero nadie la
considera un pequeño cerebro.
Para evitar discusiones o
confusiones debe comprenderse que la inteligencia desempeña un papel fundamental
en el procesamiento de datos, o de hechos, por medio de la computadora; pero la
inteligencia que dirige y controla la máquina es la del programador humano –
quien especifica las operaciones y el orden de su ejecución -, y la del
operador humano, que pone en marcha, detiene y controla las diversas unidades
del equipo. 17
Un
instrumento para pensar, planear y realizar.
“El grado de inteligencia que
atribuimos al comportamiento de algo está
determinado tanto por nuestra
propia capacidad y comprensión como por las
propiedades del objeto que
analizamos”.
Alan Turing.
La computadora elabora, procesa los
datos; es decir, maneja la información con el fin de llegar a una conclusión,
facilitar una decisión, o simplemente registrar un hecho. A título comparativo,
digamos que cuando una persona piensa, también elabora datos. En ambos casos se
comparan, combinan o relacionan entre sí, de algún otro modo, hechos y cifras.
Si la operación concluye con éxito, se llega a una conclusión o resultado.
Además del procesamiento de datos
comparándolos, combinándolos y relacionándolos entre si, la computadora posee
otra capacidad similar a la del cerebro humano: tiene memoria. En efecto, casi
no hay límite para la cantidad de información que puede acumularse en los dispositivos
de almacenamiento de datos o “memoria”, de algunas computadoras. Esta
información está siempre disponible y se puede recuperar cuando se la solicite.
En muchos sectores empresarios las
computadoras se emplean para procesar los datos contables corrientes, con gran
velocidad y precisión y en volúmenes potencialmente enormes. La computadora es
además, una valiosa herramienta de administración, como que es capaz de
suministrar información y respuesta a consultas, de impartir instrucciones al
personal de supervisión, de controlar procesos de fabricación y elaboración y
tomar decisiones de rutina, que en ocasiones pueden ser críticas. El control de
procesos industriales por computadora está ya muy adelantado y su empleo va
difundiéndose cada vez más.
El procesamiento de datos se ha
convertido en una nueva industria en sí; pero lo más significativo es que,
debido al desarrollo de las computadoras, se ha ampliado el horizonte del
hombre y han aumentado sus capacidades.
Se han creado industrias y actividades totalmente nuevas, actividades
que antes eran imposibles. Las computadoras han proporcionado un medio gracias
al cual pueden adquirirse nuevos conocimientos y con cuyo auxilio es posible
utilizar todos los conocimientos con fines creadores y productivos.
18
¿Monstruo
o herramienta?.
Un halo de misterio rodea a las
computadoras en el pensamiento de muchas personas que no trabajan en estrecha
relación con ellas. Los escritores de ciencia-ficción han encontrado en las
computadoras un campo ilimitado para los vuelos de su imaginación, creando
horribles robots que se desplazan libremente y que parecen superar en
inteligencia a los seres humanos. En la realidad, las computadoras son menos románticas y más
comprensibles.
Dentro de una simple sección de su
red de circuitos electrónicos, una unidad central de procesamiento puede sumar
dos dígitos, o comparar dos hechos e informar con un “sí” o un “no”, según que
pase o no un impulso de corriente eléctrica a través de determinado circuito.
Esencialmente, esto es lo que sucede en la unidad de computación, o
procesamiento, de cualquier sistema.
Puesto que la red de circuitos se
compone de muchas unidades y de gran número de fuentes dentro del sistema,
desde las cuales se puede excitar electrónicamente cada unidad, la variedad de
respuestas resulta casi ilimitada.
No es necesario comprende las
complejidades de los circuitos electrónicos para saber operar o programar una
computadora, como tampoco hace falta conocer la construcción del cambio
automático de velocidades para conducir un automóvil. Por esta razón, nos
limitaremos a examinar las distintas maneras en que puede usarse la computadora
y lo que ella es capaz de hacer, dejando para los ingenieros el arte y ciencia
del sistema de circuitos. 19
Componentes
esenciales de la PC.
Con frecuencia se la denomina
sistema de la computadora, en vez de llamarla simplemente computadora, puesto
que el conjunto es mucho más que un dispositivo que suma, resta, multiplica y
divide. También una simple máquina de calcular de oficina ejecuta esas
operaciones.
En un sistema de computadora hay
cuatro secciones básicas: 20
- CPU
(Control Processing Unit) unidad central de proceso (procesamiento)
La
parte de una computadora que realiza la computación. También llamada el
procesador, está constituida por la unidad de control y la ALU (unidad
aritmética y lógica).
La CPU
de una computadora personal está contenida en un microprocesador único. La CPU
de una minicomputadora está contenida en una o varias tarjetas de circuito
impreso. La CPU de una macrocomputadora está contenida en muchas tarjetas de
circuito impreso.
La
CPU, el reloj y la memoria principal constituyen una computadora. Un sistema
informático completo requiere la agregación de unidades de control,
dispositivos de entrada, salida y almacenamiento y de un sistema operativo.
21
- Area
de entrada
Una
porción reservada de memoria que se utiliza para aceptar datos o texto
provenientes de un dispositivo periférico tal como un teclado, disco o cinta.
22
- Area
de salida
Una
porción reservada de la memoria que se emplea para disponer datos o texto con
el fin de transferirlos a un dispositivo de salida, tal como disco o cinta.
23
- Dispositivo
de almacenamiento
Unidad de hardware que conserva datos. Aquí,
la denominación se aplica sólo a equipos periféricos externos, tales como los
de disco y de cinta, en contraste con la memoria (RAM). 24
Usos
industriales y profesionales de las PC's.
“La computadora es, por mucho, la
más extraordinaria de las vestimentas
electrónicas creadas por el hombre,
ya que es una extensión de nuestro sistema nervioso central. Junto a ella, la
rueda no es más que un juguete...”.
Marshall McLuhan.
Las aplicaciones que pueden
desarrollarse con una computadora van desde un sistema de gestión comercial,
administrativo, hasta sistemas expertos que ayudan en la toma de decisiones,
diseño asistido, controladores de vuelo automáticos, máquinas jugadoras de
ajedrez, etc.
En esta tarea están
involucradas personas de distintas disciplinas: matemáticos, ingenieros e
informáticos. Los matemáticos brindan las herramientas básicas para que tanto
ingenieros como informáticos puedan desarrollar su labor. Por otro lado se
encuentran los usuarios de las aplicaciones, que van desde especialistas que
utilizan una determinada herramienta (economistas, docentes, músicos, médicos,
arquitectos, etc.) hasta entusiastas que navegan por Internet o juegan con un
simulador de vuelo. 25
Descripción sobre la velocidad de la evolución.
- En el siglo IX un texto budista
es el primer libro impreso conocido.
- En el siglo XV aparece la
imprenta de Gutenberg.
- En el siglo XVIII aparece la
revolución industrial.
- A principios del siglo XX la
producción industrial automatizada.
- En el siglo XIX la radio.
- En el siglo XX la TV y el cine.
1940 a 1950: Aparecen
las primeras computadoras. Con programa fijo y programa variable. En 1945 John
von Neumann propone almacenar programas en forma de datos. Surge el transistor
y con él la electrónica moderna.
1950 a 1960: Computadoras
transistorizadas. Banca computarizada. Circuitos integrados. Láser. En 1959 la
Unión Soviética lanza el Sputnik.
1960 a 1970: Sistemas
operativos de tiempo compartido. El software como producto industrial.
Lenguajes de programación. La primera red de computadoras. En 1969 el hombre llega
a la Luna.
1970 a
1980: Aparecen los microprocesadores.
Microcomputadoras. Computadoras Personales. Robots industriales controlados por
computadora. Supercomputadoras. Primeros juegos para computadoras personales.
Planilla de Cálculo. Interfaz gráfica. Apple.
En 1979 nace el PacMan.
1980 a 1990: IBM
presenta la primera computadora personal (PC). Surgen publicaciones
electrónicas. Nace Internet. Aparecen las primeras computadoras masivamente
paralelas. Aparecen los virus y los hackers.
1990 a 2000: En 1990
Microsoft introduce Windows 3.0. Aparecen otros elementos como la interfaz
hablada, multimedia, robots móviles, realidad virtual, videoconferencia, visión
por computadora, etc.
2000 en adelante: Adquiere
fuerte impulso la Inteligencia Artificial. La realidad virtual cada vez es mas
real. La interfaz hombre-máquina sigue evolucionando las comunicaciones por
Internet dan origen a nuevos mecanismos como el e-commerce. Estos datos
reflejan la diferencia en la velocidad de evolución de la informática con respecto
a cualquiera de las otras industrias. Notar que el avance desde el primer libro
impreso a la imprenta tomó 6 siglos, mientras que desde los tubos de vacío al
primer microprocesador sólo pasaron una veintena de años.
26
Computadoras
Vs. comunicaciones.
Características
de las redes locales de PC's.
Que
es una red local.
Las
redes locales se han estado utilizando, aunque de un modo muy restringido,
desde mediados de la década de los setenta. La creciente utilización de redes
locales esta originada por el abaratamiento de los componentes electrónicos, la
proliferación de terminales inteligentes en el entorno de los sistemas de
computación instalados en oficinas, escuelas, universidades, fábricas, etc., y
la capacidad de los ordenadores y sus periféricos para comunicarse entre sí,
compartir recursos y acceder a servicios y dispositivos especiales. Como era de
esperar, los usuarios de sistemas inteligentes, relativamente baratos, basados
en el microprocesador, sintieron la necesidad de encontrar un método económico
que les permitiese conectarlos entre sí. Las redes locales, aunque diseñadas y
utilizadas para otros fines, consiguieron un notable éxito en esta nueva
aplicación.
Una red local se distingue de otros
tipos de redes: por la zona que cubre, la velocidad de transmisión de
información, la facilidad con que se le pueden incorporar nuevos dispositivos y
la simplicidad del medio de transmisión que utiliza.
Una red local solamente da servicio
a una limitada zona geográfica. Generalmente está limitada a un edificio o a un
lugar de trabajo. Las distancias típicas oscilan entre varios cientos de metros
y poco más de un kilómetro.
Casi todos los dispositivos
utilizados normalmente, se conectan mediante simples cables que recorren todo
el edificio. En algunos casos, a intervalos regulares se colocan repetidores.
La utilización de cables normales es
una de las características más distintivas y de mayor atractivo. Para los
posibles compradores de redes locales, la utilización de cables normales y
procedimientos sencillos de conexión son solamente algunas de las ventajas.
Para el usuario final es mas importante disponer de un mecanismo eficiente para
transmitir información que no le exige conocer los detalles técnicos de la
interfase de la red. 27
Definiciones
y características principales.
Una
red local es un sistema de comunicación de datos que permite que dispositivos
independientes se comuniquen entre sí. Esto no las diferencia de otras redes de
datos. Lo que distingue a las redes locales es que la comunicación está
restringida a una zona limitada, en la mayoría de los casos, a un lugar de
trabajo. Este lugar de trabajo puede ser un edificio de oficinas, una oficina
en una planta de ese servicio, una fábrica, el campus de una universidad, etc.
Presta servicio a un número limitado de dispositivos y toda la red es propiedad
privada de una entidad.
La
mejor forma de describir una red local es enunciar sus características
principales:
- Está incluida totalmente en
una determinada zona geográfica,
- Interconecta dispositivos que
pueden trabajar independientemente,
- Proporciona a los dispositivos
de la red un elevado nivel de interconexión,
- Se utiliza para la transmisión
de información, normalmente en forma digital,
- Son baratos el medio de
transmisión y los dispositivos utilizados para la interfase a la red,
- Cada dispositivo puede
comunicarse con cualquier otro dispositivo de la red. 28
Breve
descripción histórica.
Las redes locales surgieron, principalmente, en el ámbito de las
universidades y los laboratorios de investigación y desarrollo. Forman parte de
la continua evolución de las redes de transmisión de datos en general, y de las
tecnologías de conmutación de paquetes en particular.
Los últimos adelantos en el campo de
redes locales consisten en la utilización de sistemas de banda ancha. La
técnica utilizada por los sistemas de banda ancha consiste en dividir el ancho
de banda disponible en canales independientes. Por cada uno de estos canales,
que no se comparten, se pueden transmitir datos a alta velocidad.
29
Correo
electrónico y fax.
Una parte significativa de todas las formas de comunicaciones existentes
se realiza por medios electrónicos, o sea la contrapartida electrónica de las
comunicaciones convencionales. Tanto los que utilizan a la computadora para
aplicaciones comerciales o como entretenimiento, “conversan” escribiendo frases
en un teclado y leyendo las frases enviadas a través de líneas telefónicas.
Otros envían memos, cartas y documentos a través del Fax y del correo
electrónico; los investigadores tienen acceso a diarios, revistas y bases de
datos especializados a través de servicios de computadora online.
Sin importar el medio o la
aplicación, la comunicación es la actividad mas importante en la que
participamos todos. La comunicación forma parte de todas las actividades
humanas, y ha sido la piedra fundamental en el origen de la civilización.
Debemos considerar lo que le
sucedería a nuestra civilización si no se contara con comunicaciones rápidas y
eficientes, es decir con comunicaciones electrónicas. La mayor parte de las
comunicaciones comerciales se realizan a través de computadoras y FAX,
incluyendo el envío de pedidos y facturas, las indicaciones de ruta y las
transferencias financieras. De no contar con la red electrónica de comunicaciones
que ha evolucionado en las tres últimas décadas, todas las actividades
comerciales se detendrían bruscamente. 30
Que
es el fax.
Fax es la abreviación de facsímil,
que se refiere al proceso de copiar y transmitir electrónicamente imágenes de
texto y/o gráficos a través de líneas telefónicas. El término Fax también se
usa para referirse a mensajes y otro tipo de información transmitida a través
de máquinas facsímil.
La transmisión de facsímil se
realiza en cuatro etapas:
- Se crea una imagen electrónica
del documento en forma de señales binarias mediante el scanner del fax.
- Un tipo especial de módem
incorporado a la máquina de Fax convierte las señales binarias en señales
analógicas que pueden transmitirse a través de líneas telefónicas.
- El módem transmite las señales
analógicas a través de una conexión telefónica pre-establecida al Fax receptor,
cuyo módem vuelve a convertir las señales a la forma binaria.
- La impresora del Fax receptor
reproduce el documento y/o gráficos originales, revirtiendo el proceso de
lectura del Fax emisor.
Otra opción en la transmisión de facsímil son las plaquetas de Fax para
PC, las cuales permiten a la computadora enviar y recibir mensajes de Fax del
mismo modo que lo hace una máquina convencional. 31
Que
es el correo electrónico.
El correo electrónico es la transmisión electrónica de mensajes privados
a través de una computadora. Por lo general el correo electrónico lo manejan
sistemas de computadoras intermediarias (por ej. Internet, MCI Mail,
Compuserve, etc.). Tales sistemas de computadoras intermediarias también se
llaman sistemas principales.
La computadora debe tener un módem
para poder comunicarse con el sistema principal de correo electrónico. Este
módem se comunica con el sistema principal a través de líneas telefónicas por
voz.
El correo electrónico estándar
consiste en mensajes de texto y gráficos dirigidos a una dirección online
específica en el sistema principal. Esta dirección también se llama cuenta,
identificación de usuario (ID) o nombre de usuario. Si se envía un mensaje a
través de la computadora, tanto el emisor como el receptor deben estar abonados
al sistema principal. 32
Internet.
Internet
se inició como un proyecto de defensa de los Estados Unidos. A finales de los
años 60, la ARPA (Agencia de Proyectos de Investigación Avanzados) del
Departamento de Defensa definió el protocolo TCP/IP. Aunque parezca extraño, la
idea era garantizar mediante este sistema la comunicación entre lugares
alejados en caso de ataque nuclear. Ahora el TCP/IP sirve para garantizar la
transmisión de los paquetes de información entre lugares remotos, siguiendo
cualquier ruta disponible.
En
1975, ARPAnet comenzó a funcionar como red, sirviendo como base para unir
centros de investigación militares y universidades, y se trabajó en desarrollar
protocolos más avanzados para diferentes tipos de ordenadores y cuestiones
específicas. En 1983 se adoptó el TCP/IP como estándar principal para todas las
comunicaciones, y en 1990 desapareció ARPAnet para dar paso junto a otras redes
TCP/IP a Internet. Por aquel entonces también comenzaron a operar
organizaciones privadas en la Red.
Poco
a poco, todos los fabricantes de ordenadores personales y redes han incorporado
el TCP/IP a sus sistemas operativos, de modo que en la actualidad cualquier
equipo está listo para conectarse a Internet.
Internet
une muchas redes, incluyendo como más importantes la que proporciona acceso a
los grupos de noticias (Usenet), que data de 1979 y
(conceptualmente) la World
Wide Web,
de principios de los 90. Se calcula que actualmente hay varios miles de redes
de todos los tamaños conectadas a Internet, más de seis millones de servidores
y entre 40 y 50 millones de personas que tienen acceso a sus contenidos. Y
estas cifras crecen sin cesar de un día a otro.
Internet es un conjunto de redes,
redes de ordenadores y equipos físicamente unidos mediante cables que conectan
puntos de todo el mundo. Estos cables se presentan en muchas formas: desde
cables de red local (varias máquinas conectadas en una oficina o campus) a
cables telefónicos convencionales, digitales y canales de fibra óptica que
forman las "carreteras" principales. Esta gigantesca Red se difumina
en ocasiones porque los datos pueden transmitirse vía satélite, o a través de
servicios como la telefonía celular, o porque a veces no se sabe muy bien a
dónde está conectada.
En
cierto modo, no hay mucha diferencia entre Internet y la red telefónica que
todos conocemos, dado que sus fundamentos son parecidos. Basta saber que
cualquier cosa a la que se pueda acceder a través de algún tipo de
"conexión," como un ordenador personal, una base de datos en una
universidad, un servicio electrónico de pago (como CompuServe), un fax o un
número de teléfono, pueden ser, y de hecho forman, parte de Internet.
El
acceso a los diferentes ordenadores y equipos que están conectados a Internet
puede ser público o estar limitado. Una red de cajeros automáticos o terminales
de banco, por ejemplo, pueden estar integrados en Internet pero no ser de
acceso público, aunque formen parte teórica de la Red. Lo interesante es que
cada vez más de estos recursos están disponibles a través de Internet: fax,
teléfono, radio, televisión, imágenes de satélites o cámaras de tráfico son
algunos ejemplos.
En
cuanto a organización, Internet no tiene en realidad una cabeza central, ni un
único organismo que la regule o al que pedirle cuentas si funciona mal. Gran
parte de la infraestructura es pública, de los gobiernos mundiales, organismos
y universidades. Muchos grupos de trabajo trabajan para que funcione
correctamente y continúe evolucionando. Otra gran parte de Internet es privada,
y la gestionan empresas de servicios de Internet (que dan acceso) o simplemente
publican contenidos. Como Internet está formada por muchas redes
independientes, que hablan el mismo lenguaje, ni siquiera están claros sus
límites.
Para
complicar un poco más el asunto, el acceso a Internet suele ser libre y
gratuito para estudiantes y profesores (debido a su filosofía de origen) y
también lo es el uso de la infraestructura para todo el mundo, aunque los
particulares y proveedores de acceso han de pagar para tener acceso y realizar
actividades comerciales o privadas. 33
Intranet.
La definición técnica de Intranet es
una red de área local, o LAN (Local Area Network), que utiliza tecnología
basada en Web, esto es, protocolos abiertos de comunicación (TCP/IP), sistemas
estándares de transferencia de ficheros (HTTP y FTP), correo electrónico (SMTP,
POP3 e IMAP4), mensajería (NNTP) y otros.
Dicho de otra forma, una Intranet es una red privada que utiliza los
recursos desarrollados para Internet para distribuir información y aplicaciones
a las que sólo puede obtener acceso un grupo controlado de usuarios. Es un
sitio web que resulta accesible solamente para los miembros de la organización,
empleados u otras personas con autorización. El "Firewall" (Cortafuegos)
la protege contra usuarios/redes no autorizadas, mediante bloqueo de tráfico,
intermediación, monitoreo y seguimiento, entre otras funciones.
34
Como
surgió y en que consiste el Y2K.
En todas las profesiones
suele existir prácticas que perduran mucho tiempo después que desapareció la
razón que les dio origen; la programación de las computadoras no es una
excepción. La costumbre de ahorrar dos lugares de memoria guardando solo los
dos últimos dígitos del año de una fecha ha sobrevivido desde los orígenes de
las computadoras electrónicas, allá por 1946, hasta el año 1996, sin descartar
que alguno que otro “distraído” la siga utilizando hoy en día. Esta
simplificación se da en los cuatro niveles que suelen presentarse en la operatoria
del procesamiento electrónico de información:
1- Las máquinas intrínsecamente consideradas, con su
“BIOS” o sistema básico de arranque y funcionamiento.
2- El sistema operativo, o
programa madre, que a su vez carga todos los programas, aplicaciones y utilitarios.
3- El lenguaje o entorno de
programación, fuente de las aplicaciones.
4- Los datos e información
propiamente dichos, generados por el sistema e ingresados por los usuarios o
provenientes de otros sistemas.
Pensándolo rápidamente, puede parecer que el ahorro de dos dígitos no es
significativo, pero es preciso considerar dos factores: por un lado, el costo
por unidad de información guardada y, por el otro, la cantidad de registros en
que aparece la fecha.
La causa específica del problema fue
que al considerar sólo dos dígitos para todas las operaciones, se presuponía,
que se estaban utilizando fechas del siglo 20, lo cual seguiría siendo efectivo
hasta el 31 de diciembre de 1999, salvo para algunas excepciones. Los distintos
sistemas emplean diferentes formatos para guardar las fechas. Algunos las
guardan en formato AADDD, en el cual las dos “A” representan los dos dígitos
del año y las tres “D” representan el número de día contando desde el 1º de
enero; por ejemplo, 98033 representa el 2 de febrero de 1998. De esta manera,
si en el año 1997 queríamos calcular la edad de una persona nacida en 1965, año
que en la computadora está registrado como 65, la mayoría de los programas
calcularían: 97-65=32, lo cual es cierto. Pero desde el 2000 en adelante, el
mismo calculo se haría, por ejemplo tomando el año 2002: 02-65=-63, lo cual es
un tanto absurdo. Si la rutina de cálculo emplea solo números positivos, el
resultado será 63 o error, con lo cual la situación no variará demasiado. Así
hubieran sido las cuentas en este siglo si no se hubieran hecho las
correcciones necesarias. 35-36
Multimedia.
La
mayoría de los expertos coinciden en valorar a la tecnología multimedia como
uno de los logros más importantes de finales del siglo XX y uno de los avances
que más repercusión tendrá en la sociedad que nos aguarda tras el umbral del
año 2000. Se está gestando lo que ya se conoce como la “revolución multimedia”:
un proceso que se escribe día a día y en el que, a diferencia de otros cambios
históricos, el ciudadano común está desempeñando un papel protagonista.
37
Que
es multimedia.
Multimedia
significa mezclar sonido, imágenes, gráficos y otra información digital en un
solo CD (disco compacto).
El termino “computadora multimedia”
es ambiguo, tiene diferentes significados para las personas. Los departamentos
de mercadeo de los fabricantes de computadoras, en particular, se pusieron,
digamos, “creativos” con el término. Al término multimedia parece vinculárseles
con los juegos, lo cual no es justo. La multimedia puede ser utilizada para
juegos, para entrenamiento o para aplicaciones serias en los negocios. El
énfasis que se ha colocado en las habilidades de la multimedia para jugar
juegos desorienta, y no resulta de mucha utilidad si se está tratando de vender
computadoras multimedia a altos ejecutivos de una compañía.
38
El
futuro.
Intentar descubrir cual será el futuro a largo plazo de la informática no
es una tarea fácil. Hace menos de dos décadas que aparecieron las primeras
computadoras personales y en la actualidad se han convertido en indispensables
para millones de personas. Seguramente hace treinta años pocos se aventuraban a
pensar que, algún día, cada hogar podría disponer de una computadora. En el
futuro, el desarrollo de la informática volverá a sorprender con avances
inimaginables. Los hogares inteligentes o los vehículos controlados por
computadora están cada vez más cerca y la televisión interactiva y los
asistentes digitales se integrarán a la vida cotidiana como ha ocurrido con los
teléfonos móviles. Pero la evolución tecnológica no afectará únicamente a las
computadoras; también provocará nuevos cambios sociales como la aparición del
teletrabajo y de la tecnocultura. 39
Inteligencia
Artificial (IA).
“Resulta
difícil catalogar algo como imposible, pues casi siempre los sueños del ayer se
convierten en las esperanzas del presente y desembocan por fin en las
realidades de mañana"
Robert
H.Goddard
Existen
numerosas definiciones de Inteligencia Artificial, dependiendo del autor o el
campo de especialización. Para hacernos una idea, aquí hay cuatro modelos
bastante representativos de esta ciencia.
- La IA es la propiedad atribuida a las máquinas capaces de hacer
operaciones propias de seres inteligentes (DRAE).
- La IA es el estudio de las computaciones que
permiten percibir, razonar y actuar (Winston).
- La IA es el estudio de técnicas de resolución de
problemas de complejidad exponencial mediante el uso de conocimiento sobre el
campo de aplicación del problema (Rich)
- La IA estudia cómo lograr que las máquinas realicen
tareas que, por el momento, son realizadas mejor por los seres humanos. (Rich)
La
Inteligencia Artificial tiene dos aspectos, uno como ciencia cognitiva y otro
como tecnología informática, y sus características esenciales son:
· Información simbólica preferente a la numérica.
· Métodos heurísticos preferente a los algorítmicos.
· Uso de conocimiento específico-declarativo.
· Informaciones incompletas o con incertidumbre.
· Multidisciplinaridad
Si bien a principios de la década de los años 50 aparecieron ya
los primeros programas de cálculo formal (que permitían a los ordenadores,
utilizados hasta entonces únicamente como máquinas de calcular, manipular
símbolos), lo que más tarde recibiría el nombre de inteligencia artificial
nació en realidad, en el campo de la informática, con la aparición del primer
programa capaz de demostrar teoremas de la lógica de las proposiciones (el
Logic Theorist creado por Newell, Shaw y Simon). Dicho programa fue presentado
durante la conferencia de investigadores que se celebró en el colegio de
Darmouth (1956). En aquella ocasión se acuño, también, el término de
inteligencia artificial. Este avance era consecuencia de la carencia de
algoritmos que fuesen capaces de describir una cierta serie de actividades
cognitivas como el reconocimiento visual de un objeto, la comprensión de los
lenguajes naturales (hablados o escritos), el diagnóstico de enfermedades en el
ser humano o de averías en las máquinas, etc. La inteligencia artificial nació,
pues, como resultado de la confluencia de dos corrientes diversas: por un lado,
la científica, que tenía como objetivo intentar comprender los mecanismos de la
inteligencia humana empleando para ello, como modelo de simulación, los
ordenadores y, por otro lado, la técnica, que pretendía equipar a los
ordenadores de capacidades de pensamiento lo más similares posible a las
humanas pero sin la pretensión de imitar con toda exactitud los pasos que sigue
el ser humano para llevar a cabo dichas actividades intelectuales. Este proceso
se vio además reforzado por la aparición de lenguajes de programación bien
adaptados a la inteligencia artificial, el LISP (creado por McCarthy a partir
de 1960).
El
periodo que abarca 1956 a 1968 se caracterizó, en este campo, por los intentos
dirigidos a la búsqueda y modelización de determinados principios generales de
la inteligencia (aplicaciones como la traducción automática, la percepción
visual, etc.). A finales de la década de los años 60, los trabajos se
encaminaron hacia el desarrollo de sistemas inteligentes de aplicación en la
robótica (visión artificial, manipulación de objetos, navegación automática,
etc.) en los que era necesario incorporar una gran cantidad de conocimientos
específicos referidos a los problemas que se pretendía resolver con dichas
técnicas. Este proceso marcó el inicio del estudio de los llamados sistemas
expertos. 40
Sistemas Expertos.
Los sistemas expertos se basan en la simulación del
razonamiento humano. El razonamiento humano tiene para ellos, un doble interés:
por una parte, el del análisis del razonamiento que seguiría un experto humano
en la materia a fin de poder codificarlo mediante el empleo de un determinado
lenguaje informático; por otra, la síntesis artificial, de tipo mecánico, de
los razonamientos de manera que éstos sean semejantes a los empleados por el
experto humano en la resolución de la cuestión planteada. Estos dos campos de
interés han conducido a los investigadores que trabajan en el campo de la
inteligencia artificial (de la cual los sistemas expertos son un campo preferente)
a intentar establecer una metodología que permita verificar el intercambio con
los expertos humanos y aislar los diversos tipos de razonamiento existentes
(inductivo, deductivo, formal, etc.), así como construir los elementos
necesarios para modelizarlos.
Los sistemas expertos son,
por lo tanto, intermediarios entre el experto humano, que transmite sus
conocimientos al sistema, y el usuario de dicho sistema, que lo emplea para
resolver los problemas que se le plantean con la competencia de un especialista
en la materia y que, además, puede adquirir una destreza semejante a la del
experto gracias a la observación del modo de actuar de la máquina. Los sistemas
expertos son, pues, simultáneamente, un sistema de ejecución y un sistema de
transmisión del conocimiento.
Asimismo, los sistemas expertos se definen mediante su arquitectura;
obtienen, por lo tanto, una realidad palpable. Mientras que en las operaciones
de programación clásicas se diferencia únicamente entre el propio programa y
los datos, en el caso de los sistemas expertos se diferencian tres componentes
principales. Son los siguientes:
· Base
de conocimientos
· Base de hechos
· Motor de inferencia 41
Robótica.
El nombre de robot procede
del término checo robota (trabajador, siervo) con el que el escritor Karel
Capek designó, primero en su novela y tres años más tarde en su obra teatral
RUR (Los robots universales de Rossum, 1920) a los androides, producidos en
grandes cantidades y vendidos como mano de obra de bajo costo, que el sabio
Rossum crea para liberar a la humanidad del trabajo. En la actualidad, el
término se aplica a todos los ingenios mecánicos, accionados y controlados
electrónicamente, capaces de llevar a cabo secuencias simples que permiten
realizar operaciones tales como carga y descarga, accionamiento de máquinas
herramienta, operaciones de ensamblaje y soldadura, etc. Hoy en día el
desarrollo en este campo se dirige hacia la consecución de máquinas que sepan
interactuar con el medio en el cual desarrollan su actividad (reconocimientos
de formas, toma de decisiones, etc.).
La disciplina que se encarga
del estudio y desarrollo de los robots es la robótica, una síntesis de la
automática y la informática. La robótica se centró, en primer lugar, en el
estudio y desarrollo de los robots de la llamada primera generación; es decir,
incapaces de detectar los estímulos procedentes del entorno y limitados a las
funciones con una secuencia predeterminada y fija. Estos robots han dado paso a
los que constituyen la segunda generación, capaces de desarrollar algún tipo de
actividad sensorial. Los prototipos multisensoriales que interactúan en un
grado muy elevado con el entorno se agrupan en la tercera generación. Para
ello, la robótica se sirve de disciplinas como la mecánica, la microelectrónica
y la informática, además de incorporar a los ingenios técnicas como el
reconocimiento y análisis digital de las imágenes, el desarrollo de sistemas
sensoriales, etc.
El creciente desarrollo de
los robots y su contante perfeccionamiento ha hecho que cada día se apliquen en
mayor medida a los procesos industriales en sustitución de la mano de obra
humana. Dicho proceso, que se inició hacia 1970, recibe el nombre de
robotización y ha dado lugar a la construcción de plantas de montaje parcial o
completamente robotizadas. Este proceso conlleva, según sus detractores, la
destrucción masiva de puestos de trabajo, mientras que para sus defensores
supone la satisfacción de necesidades socioeconómicas de la población y lleva
aparejado un aumento muy considerable de la productividad.
A finales de los años 70, se
produjo un nuevo giro en el campo de la investigación relacionada con la
inteligencia artificial: la aparición de robots. Los robots experimentales
creados para estos efectos eran automatismos capaces de recibir información
procedente del mundo exterior (p. ej.., sensores, cámaras de televisión, etc.),
así como órdenes de un manipulador humano (expresadas en lenguaje natural). De
este modo, el robo determinaba un plan y, de acuerdo con él, ejecutaba las
órdenes recibidas mediante el empleo de un modelo del universo en el que se
encontraba. Era incluso capaz de prever las consecuencias de sus acciones y
evitar, así, aquéllas que más tarde pudieran resultarle inútiles o, en algún
momento, perjudiciales. Estos primeros robots experimentales eran bastante más
inteligentes que los robots industriales, y lo eran porque disponían de un
grado mucho mayor de percepción del entorno que los robots empleados en las
cadenas de producción.
El principal problema con el que
se enfrenta la inteligencia artificial aplicada a los robots es el de la
visión. Mientras que la información recibida a través de sensores se puede
interpretar con relativa facilidad y entra a formar parte de la descripción del
modelo de universo que emplea el robot para tomar decisiones, la percepción de
las imágenes captadas y su interpretación correcta es una labor muy compleja.
En cuanto a la interpretación de las imágenes captadas mediante cualquier
sistema, se ha logrado ya el reconocimiento de formas preprogramadas o
conocidas, lo que permite que ciertos robots lleven a cabo operaciones de
reubicación de piezas o colocación en su posición correcta a partir de una
posición arbitraria. Sin embargo, no se ha logrado aún que el sistema perciba
la imagen tomada mediante una cámara de ambiente y adapte su actuación al nuevo
cúmulo de circunstancias que esto implica. Así, por ejemplo, la imagen ofrecida
por una cámara de vídeo de las que se emplea en vigilancia y sistemas de
seguridad no puede ser interpretada directamente por el ordenador. 42
Redes
neuronales.
La
neurocomputación trata de alcanzar algunas de las ventajas que proporcionan las
redes neuronales biológicas, imitándolas tanto desde el punto de vista
morfológico como desde el punto de vista funcional, para lo que se basa en la
realización de Redes Neuronales Artificiales o ANN (del inglés Artificial
Neural Networks). El motivo por el que se sigue esta vía de investigación es la
observación de que el cerebro humano (y no sólo el humano) presenta ciertas
notables y deseables características que no se encuentran ni en los
ordenadores, que siguen la clásica arquitectura propuesta por Von Neumann, ni
en los ordenadores paralelos modernos. Entre estas características cabe
destacar el paralelismo masivo, lo que les dota de una gran robustez y
tolerancia a fallos, la capacidad de aprender, la capacidad de generalizar, la
capacidad de adaptación, la capacidad inherente de procesar información
contextual, y aunque parezca lo más anecdótico, un bajo consumo.
Es
común el asombro que el ciudadano medio siente ante la enorme capacidad de
proceso numérico y simbólico asociado que presentan los ordenadores, capacidad
que supera con mucho, y desde hace tiempo, a la de cualquier ser humano. Sin
embargo, cualquier persona que haya tenido cierto contacto con un ordenador
sabrá que es una "máquina tonta", incapaz de realizar ninguna de las
funciones citadas en el párrafo anterior. Y, de hecho, en otro tipo de
problemas, es el hombre (y cualquier animal) el que deja en ridículo al
superordenador más potente. Uno de los ejemplos más claros consiste en la
resolución de complejos problemas de percepción, como el reconocer a una
persona entre una multitud, problema que un ser humano puede resolver en un
simple golpe de vista.
Por
todos estos motivos, las redes neuronales artificiales tratan de imitar los
principios de organización, que se cree rigen el cerebro humano. La unidad
funcional de estas redes es, por tanto, la neurona artificial. Una neurona
artificial no es otra cosa que un procesador muy simple capaz de realizar
instrucciones muy primitivas, pero a gran velocidad, y que guarda la
información aprendida en las conexiones con otras neuronas.
43
Realidad
Virtual.
Con este nuevo concepto, la imaginación sólo se verá
limitada por la capacidad de crear de cada persona. Se trata de construir
ambientes, texturas, ángulos, hasta llegar a confundirse e inclusive comparar
la realidad con la recreación sin saber quien distinguirá la diferencia.
En épocas pasadas sólo los
pintores tenían la capacidad de reproducir en un lienzo la realidad de la
naturaleza humana. Se trataba de un trabajo artístico digno de permanecer
resguardado en una galería para admiración del mundo. Pero hoy, esa admiración
se ha transformado en asombro, ya que la tecnología permite que la reproducción
de la naturaleza sea tan exacta que juegue con la mente y la imaginación vuele al
grado de confundirse en los limites de lo real y fantástico.
En términos estrictos la realidad
virtual es una realidad simulada capaz de interactuar con todos los sentidos.
Se trata de una realidad "artificial" creada por computadora, en un
espacio tridimensional donde el usuario es capaz de manipular y visualizar
objetos ilusorios. La realidad virtual pretende crear interfaces que simulen la
experiencia humana. Usted solo sabrá que no es real porque conoce la
tecnología, pero no podrá notar diferencia entre paisajes y objetos porque
podrá tocarlos, olerlos y sentirlos.
La realidad virtual
encuentra su mejor aliado en las implantaciones planeadas para multimedia como
el Auto Desk y el uso de dispositivos como el CD-ROM. En ella el ambiente está
compuesto de miles de objetos geométricos dibujados en un espacio
tridimensional, en el que, mientras haya más objetos detallados, mayor será la
resolución y por lo tanto la credibilidad de lo que nuestra vista percibe. Sin
embrago, para ser más realista requiere de grandes recursos de cómputo y por
ello aún no se puede ver como un proyecto de uso generalizado a corto plazo.
La magia de este concepto se
encierra en que todo lo que se crea tenga la posibilidad de simular movimiento.
Se puede dar vida a un paisaje y moverse dentro de el con la misma sensación de
acercamiento a las cosas mientras camina que tendría en el lugar natural.
45
Citas
1Computadoras y Automatización, John A. Brown, 3
2Computadoras y Automatización, John A. Brown, 3
3Computadoras y Automatización, John A. Brown, 3
4Computadoras y Automatización, John A. Brown, 3
5Computadoras y Automatización, John A. Brown, 4
6Computadoras y Automatización, John A. Brown, 4 - 5
7Computadoras y Automatización, John A. Brown, 5
8Curso Básico de computadoras digitales, 18 - 19
9Curso Básico de computadoras digitales, 19 - 20
10Computadoras y Automatización, John A. Brown, 9 - 10
11Computadoras y Automatización, John A. Brown, 6 a 10
12Computadoras y Automatización, John A. Brown, 10
13Computadoras y Automatización, John A. Brown, 10 y 11
14Diccionario de computación, John A. Brown, 152 y 153
15Computadoras y Automatización, John A. Brown, 11
16Computadoras y Automatización, John A. Brown, 11 y 12
17Computadoras y Automatización, John A. Brown, 17
18Computadoras y Automatización, John A. Brown, 17 y 18
19Computadoras y Automatización, John A. Brown, 18 y 19
20Computadoras y Automatización, John A. Brown, 19
21Diccionario de computación, Freedman, 171
22Diccionario de computación, Freedman, 418
23Diccionario de computación, Freedman, 574
24Diccionario de computación, Freedman, 747
25Curso 2002, 6 y 7
26Curso 2002, 4 y 5
27Redes Locales de Informática Aplicada, Gee, 1 a 6
28 Redes
Locales de Informática Aplicada, Gee, 1 a 6
29 Redes
Locales de Informática Aplicada, Gee, 1 a 6
30Comprendiendo Fax y Correo Electrónico, xi, Banks, 1a 5
31 Comprendiendo Fax y Correo Electrónico, Banks, 1 y 2
32 Comprendiendo Fax y Correo Electrónico, Banks, 3 y 4
33¿QUÉ ES INTERNET? DESCUBRE INTERNET, 1996,
http://bbs.seker.es/~alvy/que_es_internet.html .
34Curso de Intranet,
http://www.telefonica-data.com/www-app/htm/interior/1.5.1.3/pagina744.shtml.
35 Soluciones
informáticas para el año 2000, 17 a 19
36 Soluciones
informáticas para el año 2000, 19
37Manual Multimedia, 10
38 Guía
completa de Mantenimiento y Actualización de la PC, 669
39Manual Multimedia, 292
40Inteligencia Artificial ,
http://www.cinefantastico.com/nexus7/ia/que.htm.
41 Inteligencia Artificial,
http://www.cinefantastico.com/nexus7/ia/que.htm.
42 Inteligencia Artificial, http://www.cinefantastico.com/nexus7/ia/que.htm.
43 Inteligencia Artificial,
http://www.cinefantastico.com/nexus7/ia/que.htm.
44Realidad Virtual,
http://www.jcce.org.cu/scu/INFOMUNDO/HTML/Index_VIRTUAL.htm.
45Realidad Virtual,
http://www.jcce.org.cu/scu/INFOMUNDO/HTML/Index_VIRTUAL.htm.
Obras
citadas
Banks, Michael:
Comprendiendo FAX y Correo Electrónico, Colombia, Editorial Hispano Americana
S. A., 1990.
Brown, John A.:
Computadoras y Automatización, Buenos Aires - Argentina, Glem S. A., Setiembre
de 1971.
Curso de Ingreso 2002 –
Conceptos de Organización de Computadoras.
"Curso de
Intranet",
http://www.telefonica-data.com/www-app/htm/interior/1.5.1.3/pagina744.shtml
.
Freedman, Alan:
Diccionario de computación, Buenos Aires, Mc Graw Hill, 1993.
Gee, K. C. E.:
Introducción a las Redes Locales de Informática Aplicada, ed. Díaz de Santos S.
A., Madrid - España, The Macmillan Press Ltd., 1983.
Ibañe, Alvaro. "¿QUÉ ES INTERNET? DESCUBRE
INTERNET", 1996.
http://bbs.seker.es/~alvy/que_es_internet.html .
"Inteligencia
Artificial", http://www.cinefantastico.com/nexus7/ia/que.htm.
Manual de Multimedia -
Fascículo 1.
Manual de Multimedia -
Fascículo 10.
Martínez, Rosendo. "Realidad Virtual",
http://www.jcce.org.cu/scu/INFOMUNDO/HTML/Index_VIRTUAL.htm.
Minasi, Mark: Guía
completa de Mantenimiento y Actualización de la PC, México, Ventura Ediciones,
S.A. de C.V., 1994.
Murphy, John S.: Curso
Básico de Computadoras Digitales, Buenos Aires - Argentina, Glem S.A.C.I.F.,
Agosto de 1975.
Peisojovich, Martín:
Soluciones informáticas para el año 2000, Buenos Aires - Argentina, MP
Ediciones S. A., 1998.
0 comentarios:
Publicar un comentario
Muchas gracias por comentar.