jueves, 22 de octubre de 2020

Redes Informaticas

 Redes informáticas



¿Qué son las redes informáticas?

Se entiende por redes informáticas, redes de comunicaciones de datos o redes de computadoras a un número de sistemas informáticos conectados entre sí mediante una serie de dispositivos alámbricos o inalámbricos, gracias a los cuales pueden compartir información en paquetes de datos, transmitidos mediante impulsos eléctricos, ondas electromagnéticas o cualquier otro medio físico.

Las redes informáticas cuentan con un emisor, un receptor y un mensaje, así como un medio a través del cual transmitirlo y una serie de códigos o protocolos para garantizar su comprensión.

Cuando se dispone de computadores en red, es posible crear una comunicación interna, compartir un punto de acceso a Internet o la administración de periféricos (impresoras, escáneres, etc.), así como el envío veloz de datos y archivos sin necesidad de dispositivos de almacenamiento secundario. 



En el mundo hipercomputarizado de hoy, las redes informáticas están presentes en casi todos los ámbitos cotidianos, sobre todo en los vinculados con la burocracia o con la administración de recursos. De hecho, podría alegarse que la Internet, a la que accedemos desde computadores, teléfonos celulares y otros dispositivos, no es más que una inmensa red informática global.



Tipos de redes 

Personal Area Network (PAN)
Para llevar a cabo un intercambio de datos, los terminales modernos como smartphones, tablets, ordenadores portátiles o equipos de escritorio permiten asociarse ad hoc a una red. Esto puede realizarse por cable y adoptar la forma de una Personal Area Network (PAN) o red de área personal, aunque las técnicas de transmisión más habituales son la memoria USB o el conector FireWire. La variante inalámbrica Wireless Personal Area Network (WPAN) se basa en técnicas como Bluetooth, Wireless USB, Insteon, IrDA, ZigBee o Z-Wave.



Local Area Network (LAN)
Si una red está formada por más de un ordenador, esta recibe el nombre de Local Area Network (LAN). Una red local de tales características puede incluir a dos ordenadores en una vivienda privada o a varios miles de dispositivos en una empresa. Asimismo, las redes en instituciones públicas como administraciones, colegios o universidades también son redes LAN. Un estándar muy frecuente para redes de área local por cable es Ethernet. 



Metropolitan Area Network (MAN)
La Metropolitan Area Network (MAN) o red de área metropolitana es una red de telecomunicaciones de banda ancha que comunica varias redes LAN en una zona geográficamente cercana. Por lo general, se trata de cada una de las sedes de una empresa que se agrupan en una MAN por medio de líneas arrendadas. Para ello, entran en acción routers de alto rendimiento basados en fibra de vidrio, los cuales permiten un rendimiento mayor al de Internet y la velocidad de transmisión entre dos puntos de unión distantes es comparable a la comunicación que tiene lugar en una red LAN.



Wide Area Network (WAN)
Mientras que las redes Metropolitan Area Networks comunican puntos que se encuentran cerca unos de los otros en regiones rurales o en zonas de aglomeraciones urbanas, las Wide Area Networks (WAN) o redes de área amplia se extienden por zonas geográficas como países o continentes. El número de redes locales o terminales individuales que forman parte de una WAN es, en principio, ilimitado.



Global Area Network (GAN)
Una red global como Internet recibe el nombre de Global Area Network (GAN), sin embargo no es la única red de ordenadores de esta índole. Las redes GAN utilizan la infraestructura de fibra de vidrio de las redes de área amplia (Wide Area Networks) y las agrupan mediante cables submarinos internacionales o transmisión por satélite.



Virtual Private Network (VPN)
Una red privada virtual (VPN) es una red de comunicación virtual que utiliza la infraestructura de una red física para asociar sistemas informáticos de manera lógica. En este sentido, se puede tratar de todos los tipos de redes expuestos anteriormente. Lo más común es utilizar Internet como medio de transporte, ya que este permite establecer la conexión entre todos los ordenadores a nivel mundial y, al contrario de lo que ocurre con las redes MAN o WAN privadas, está disponible de forma gratuita. La transferencia de datos tiene lugar dentro de un túnel virtual erigido entre un cliente VPN y un servidor VPN.


Elementos de las redes informáticas

  • Servidores. En una red no siempre los computadores poseen la misma jerarquía o funciones. Los servidores son los que procesan el flujo de datos, atendiendo a todos los demás computadores de la red (“sirviéndolos”, de allí su nombre) y centralizando el control de la red.
  • Clientes o estaciones de trabajo. Se llama así a los computadores que no son servidores, sino que forman parte de la red y permiten a los usuarios el acceso a la misma, empleando los recursos administrados por el servidor.
  • Medios de transmisión. Se llama así al cableado o a las ondas electromagnéticas, según sea el caso, que permiten la transmisión de la información.
  • Elementos de hardware. Aquellas piezas que permiten el establecimiento físico de la red, como son las tarjetas de red en cada computador, los módems y enrutadores que sostienen la transmisión de datos, o las antenas repetidoras que extienden la conexión (en caso de ser inalámbricas).
  • Elementos de software. Por último están los programas requeridos para administrar y poner en funcionamiento el hardware de comunicaciones, y que incluye el Sistema Operativo de Redes

Topología de red

Se llama topología de red al modelo de interconexión según el cual estén dispuestas las relaciones entre clientes y servidores. Existen tres modelos de topología de red:

Lineal o en bus. 
El servidor se halla a la cabeza de la red y los clientes se reparten a lo largo de una línea a partir de éste, siendo el único canal de comunicación uno solo, denominado bus o backbone (“columna vertebral”).



En estrella
El servidor de halla en el centro de la red y cada cliente posee una conexión exclusiva, de modo que cualquier comunicación entre las máquinas debe pasar primero por él.


En anillo o circular. 
Todas las máquinas están conectadas en círculo, en contacto con las más próximas y en igualdad de condiciones, si bien el servidor sigue contando con su jerarquía.

Topología de Árbol
Este tipo de topología de red es una de las más sencillas. Como su nombre lo indica, las conexiones entre los nodos (terminales o computadoras) están dispuestas en forma de árbol, con una punta y una base. Es similar a la topología de estrella y se basa directamente en la topología de bus. Si un nodo falla, no se presentan problemas entre los nodos subsiguientes.

Topología de malla
Esta topología de Malla es definida como topología de trama. Se trata de un arreglo de interconexión de nodos (terminales) entre sí, realizando la figura de una malla o trama. Es una topología muy utilizada entre las redes WAN o de área amplia. Su importancia radica en que la información puede viajar en diferentes caminos, de manera que si llegara a fallar un nodo, se puede seguir intercambiando información sin inconveniente alguno entre los nodos.

Topología hibrida
Como su nombre lo indica, es una combinación de dos o más topologías de red diferentes, para adaptar la red a las necesidades del cliente. De este modo, podemos combinar las topologías que deseemos, obteniendo infinitas variedades, las cuales, deben ajustarse a la estructura física del lugar en donde estará la red y los equipos que estarán conectados en dicha red.













Windows y su Evolución

Versiones de Windows

Windows 1.0

Aunque ya se hablaba de la existencia de la primera versión de Windows antes de la presentación de Windows 1.0, lo cierto es que hasta el 20 de noviembre del año 1985 no se anunció de manera oficial esta primera versión del sistema. Una versión que ofrecía poca funcionalidad y que no se trataba de un sistema operativo completo, ya que más bien era una extensión gráfica de MS-DOS que hacía pensar en dejar atrás el uso de comandos.

Windows 2.0

Mientras tanto, justo dos años más tarde, en noviembre de 1987, llegaba Windows 2.0. Una versión que fue actualizada rápidamente con la v2.03 y que ya incluía por primera vez ventanas que podían solaparse entre ellas. Eso por no hablar de que ya incluía ciertas utilidades que, podríamos decir iban a ser el origen de las actuales herramientas de ofimática.

Windows 3.0

El 22 de mayo de 1990, se libera y se lanza el sistema operativo Windows 3.0 y que llega con una interfaz gráfica en la que ya se comenzaban a apreciar un poco más los conceptos de ventanas. Fue la primera versión que tuvo éxito a nivel comercial, llegándose a vender hasta dos millones de copias en tan solo unos meses desde su lanzamiento.
Con la actualización a la versión 3.1, el sistema recibió el famoso juego del Buscaminas que tanto entretenimiento ha ofrecido a lo largo de los años. Además, hay que destacar también la existencia del administrador de archivos y de programas.


Windows 95

El 24 de agosto de 1995 es una fecha importante en la vida del sistema operativo de Microsoft, ya que es el día en el que fue lanzada la famosa versión Windows 95. La primera versión que ofrece un interfaz muy mejorada y donde ya aparecen la barra de tareas y el menú Inicio, dos elementos muy importantes y que siguen siendo parte a día de hoy del sistema operativo de Microsoft. Eso sin olvidar que Windows 95 incluía Internet Explorer.
Una versión destinada al mercado de consumo y con la que se pasaba de una arquitectura multitarea cooperativa de 16 bits a una arquitectura apropiativa de 32 bits y también multitarea.

Windows NT 4.0

Windows New Technology nació como una nueva línea del sistema operativo de Microsoft orientado a estaciones de trabajo y servidores de red. Un sistema con interfaz gráfica propia, estable y características similares a los sistemas de red UNIX. Su fecha de lanzamiento oficial fue el mes de agosto del año 1996, el soporte estándar finalizó el 31 de diciembre de 2000.

Windows 98

el 25 de junio de 1998, Microsoft lanzaba la nueva versión de su sistema operativo. Al igual que la anterior, adquirió como nombre las dos últimas cifras del año de su lanzamiento y era una versión que llegaba con el sistema de archivos FAT32 y que trató de potenciar el acceso a la red. Además, incluyó la entradad de DVDs y la incorporación del puerto USB.

Una mayor complejidad en el sistema hizo que se penalizara de gran manera el rendimiento del sistema, por lo que se convirtió en una de las versiones de Windows más criticadas por su lentitud y falta de fiabilidad en comparación con Windows 95, que en este sentido había dejado el listón muy alto.

Windows 2000 o Windows NT 5.0

El 29 de marzo de 1999 se lanza el sistema operativo Windows NT 5.0 EUR Edition, que no era otra cosa que la versión alemana de Windows NET 5.0 y que pasaría a llamarse Windows 2000 posteriormente. Una versión del sistema que Microsoft desarrolló como parte de su línea profesional y de la cual, se filtró parte de su código fuente en Internet. Esto hizo que la compañía decidiese utilizar su núcleo para desarrollas la nueva versión del sistema.
Además de continuar el camino de NET, enfocándose a los negocios, Windows 2000 incluyó nuevas opciones para una mayor protección de archivos.

Windows ME

Windows Me o Windows Millenium es una versión del sistema operativo de Microsoft lanzando el 14 de septiembre del año 2000 en formato gráfico híbrido de 16/32 bits. Fue diseñado por Microsoft Corporation para los usuarios de PC después de la madurez alcanzada por otras versiones anteriores como Windows 95 y Windows 98 pero que sin embargo, no tuvo gran aceptación por los usuarios como se espera por parte de la compañía.
Tanto es así, que muchos usuarios que probaron Windows Me en sus equipos volvieron a versiones anteriores al poco tiempo y esperando que desde Redmond se tomaran cartas en el asunto.

Windows XP

Otro gran salto en el desarrollo y evolución del sistema operativo de Microsoft se produjo el 25 de octubre del año 2001, momento en el que se lanzaba Windows XP. La primera versión del siglo XXI y que supuso un gran éxito al ser un producto de gran calidad.
Llegó en dos ediciones distintas, Home y Professional.

En el aspecto visual, hay que destacar grandes mejoras en la interfaz de usuario, con nuevos iconos, menús y opciones que permitían a los usuarios profundizar y controlar mucho más todo tipo de tareas sobre el sistema. Pero no sólo se quedo en ofrecer mejoras gráficas, sino que también llegó con un gran incremento de velocidad y agilidad.

Windows XP incorporó funciones como el cifrado de archivos del sistema, soporte para redes Wifi, la asistencia remota y su versión de 64 bits

Windows Vista

Hubo que esperar hasta 6 años para la llegada de la nueva versión del sistema, Windows Vista. Una versión que Microsoft lanzó mundialmente el 30 de enero de 2007 y que llegaba con infinidad de nuevas características y funciones, un Shell rediseñado y una interfaz con grandes cambios y enfocada en mejorar la seguridad de los usuarios y que, sin embargo, no fue del agrado de la gran mayoría de usuarios, los continuos problemas, la lentitud y sobrecargas, hicieron sombra a todas las novedades gráficas.

Con Windows Vista pudimos ver la interfaz Aero UI, que sin duda ofrecía un gran atractivo a nivel visual, pero que resultó ser demasiado problemático en equipos menos potentes.



Windows 7

El 22 de octubre de 2009, Microsoft anunció el lanzamiento de Windows 7 como solución al fiasco de Windows Vista y que resultó una de las versiones más importantes del sistema operativo de Microsoft. Algo que ha quedado retratado en la historia del sistema operativo, ya que ha sido etiquetada como una de las versiones más sólidas.

Añadía soporte multi touch, un Windows Shell rediseñado, nueva barra de tareas, sistema de red, mejoras en el rendimiento y su velocidad y una reducción del consumo de recursos. Además, introdujo el nuevo diseño de la barra de tareas, dejándola más ancha, y un sistema con iconos de mayor tamaño. 

Windows 8 

el 26 de octubre de 2012, se lanzó Windows 8. Una versión que añadía soporte para microprocesadores ARM y cuya interfaz llegaba modificada para hacerla más adecuada para su uso con pantallas táctiles, mostrando nuevos efectos planos para ventanas y botones con un color simple.
Esto supuso también la eliminación del clásico menú de Inicio de Windows por Tiles, algo que no fue del agrado de la gran mayoría de usuarios. Por primera vez desde Windows 95, el sistema operativo prescindía de uno de los elementos más importantes como son el botón de Inicio de Windows.


A escasa aceptación de la interfaz Metro por parte de los usuarios hizo que Microsoft lanzase Windows 8.1 para intentar dar respuesta a los usuarios que echaban de menos algunos elementos tradicionales del sistema y que recuperaba algunas de las características. 

Windows 10

Fue el 29 de julio de 2015 cuando Microsoft lanzó la última y esperada versión de su sistema operativo, Windows 10. Una versión que cuenta con un gran conjunto de aplicaciones, una interfaz moderna con un gran rendimiento y que además, es multiplataforma. Es decir, permite su utilización en ordenadores y dispositivos móviles.

 
Pero no son las únicas novedades, ya que también cabe destacar el uso de aplicaciones universales, el nuevo navegador Edge, el gran protagonismo de su asistente Cortana, la nueva página de Configuración del sistema, el TimeLine o la vuelta del menú de Inicio que tanto añoraban la gran mayoría de usuarios, entre otras muchas cosas. En definitiva, la mejor versión del sistema hasta la historia y un producto a la altura de las necesidades actuales de los usuarios.

  


















Visual Basic

 Visual Basic

 Es un lenguaje de programación desarrollado por el alemán Alan Cooper para Microsoft. El lenguaje de programación es un dialecto de BASIC, con importantes agregados. Su primera versión fue presentada en 1991, con la intención de simplificar la programación utilizando un ambiente de desarrollo completamente gráfico que facilitara la creación de interfaces gráficas y, en cierta medida, también la Programación misma. Desde el 2001 Microsoft ha propuesto abandonar el desarrollo basado en la API Win32 y pasar a trabajar sobre un framework o marco común de librerías independiente de la versión del sistema operativo, NET Framework, a través de Visual Basic.



¿Qué constituye Visual Basic?

Visual Basic. Constituye un IDE (entorno de desarrollo integrado, o, en inglés, Integrated Development Enviroment) que ha sido empaquetado como un Programa de aplicación; es decir, consiste en un editor de código (programa donde se escribe el código fuente), un depurador (programa que corrige errores en el código fuente para que pueda ser bien compilado), un compilador (programa que traduce el código fuente a lenguaje de máquina), y un constructor de interfaz gráfica o GUI (es una forma de programar en la que no es necesario escribir el código para la parte gráfica del Programa, sino que se puede hacer de forma visual).

Con Visual Basic se pueden desarrollar aplicaciones para Windows más rápidamente. Los errores de Programación no se generan tan frecuentemente y, si lo hacen, son más sencillos de depurar. Además incluye dos conceptos importantes:

  • Un método visual de creación de aplicaciones, incluyendo formularios (Ventanas), controles y, componentes del formulario.
  • La habilidad de asociar código directamente a cada evento de cada elemento del diseño visual.
  • Es posible escribir aplicaciones sin usar componentes visuales, es decir escribir aplicaciones de consola.


Programación en Visual Basic

Un Programa realizado en dos es un conjunto de sentencias que se ejecutan de arriba a abajo más o menos, en el orden que el programador ha diseñado. Una aplicación en Windows presenta todas las opciones posibles en uno o más Formularios para que el usuario elija entre ellas. La secuencia en la que se ejecutarán las sentencias no puede ser prevista por el programador. Ésto da lugar a la programación orientada a eventos.

Para programar una aplicación en Windows hay que escribir código separado para cada objeto en general, quedando la aplicación dividida en pequeños procedimientos, conducido cada uno de ellos por un suceso. Un suceso es una acción reconocida por un objeto (formulario o control) el suceso puede ser causado por el usuario o, indirectamente por el código.

En Visual Basic cada formulario y cada control tienen predefinidos un conjunto de sucesos. Cuando ocurren estos sucesos, Visual Basic invoca al procedimiento asociado con el objeto para ese suceso. Para desarrollar una aplicación en Visual Basic, los pasos que se seguirán son:

  1. Crear la interfaz de usuario.
  2. Modificar las propiedades de cada objeto.
  3. Escribir el código asociado a los eventos de cada objeto.


Modo de diseño y ejecución

En el modo de diseño el usuario construye interactivamente la aplicación, colocando controles en el formulario, definiendo sus propiedades y desarrollando funciones para gestionar los eventos. La aplicación se ejecuta en modo de ejecución. En ese caso el usuario actúa sobre el programa (Introduce eventos) y prueba cómo responde el programa.
    


Visual Studio 2017

Visual Studio es un conjunto de herramientas y otras tecnologías de desarrollo de software basado en componentes para crear aplicaciones eficaces y de alto rendimiento, permitiendo a los desarrolladores crear sitios y aplicaciones web, así como otros servicios web en cualquier entorno que soporte la plataforma.

Visual Studio es un conjunto completo de herramientas de desarrollo para la generación de aplicaciones web ASP.NET, Servicios Web XML, aplicaciones de escritorio y aplicaciones móviles. Visual Basic, Visual C# y Visual C++ utilizan todos el mismo entorno de desarrollo integrado (IDE), que habilita el uso compartido de herramientas y facilita la creación de soluciones en varios lenguajes. Asimismo, dichos lenguajes utilizan las funciones de .NET Framework.

Funciones de Visual Studio 2017:

Mayor productividad: correcciones y mejoras de código, navegación y depurado. Ahorra tiempo y esfuerzo en las tareas diarias sin importar el lenguaje o la plataforma. En equipos DevOps, Visual Studio 2017 agiliza en inner loop y acelera el flujo de código con nuevas características en tiempo real.

Azure: integrado en la suite de las herramientas de Azure, permite a los desarrolladores crear fácilmente aplicaciones “cloud first” bajo Microsoft Azure, facilitando la configuración, compilación, depurado y el package.

Desarrollo móvil: Visual Studio 2017 con Xamarin hace más rápido y fácil para los desarrolladores compilar, conectar y ajustar aplicaciones móviles para Android, iOS y Windows.

Adicional se le ha dado un enfoque renovado para mejorar la eficiencia de las tareas fundamentales que los desarrolladores desempeñan diariamente. Desde una nueva instalación más ligera y modular adaptada a las necesidades del desarrollador, un IDE más rápido desde el arranque al apagado, una nueva manera de ver, editar y depurar cualquier código sin proyectos ni soluciones.




viernes, 16 de octubre de 2020

Generaciones de la Computación

Generación de las Computadoras



PRIMERA GENERACIÓN (1951 A 1958)


Las computadoras de la primera Generación emplearon bulbos para procesar información.

La programación se realizaba a través del lenguaje de máquina. Las memorias estaban construidas con finos tubos de mercurio líquido y tambores magnéticos. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas.
Estos computadores utilizaban la válvula de vacío. Por lo que eran equipos sumamente grandes, pesados y generaban mucho calor.
La Primera Generación se inicia con la instalación comercial del UNIVAC construida por Eckert y Mauchly. El procesador de la UNIVAC pesaba 30 toneladas y requería el espacio completo de un salón de 20 por 40 pies.

SEGUNDA GENERACIÓN (1959-1964)


El Transistor Compatibilidad Limitada sustituye la válvula de vacío utilizada en la primera generación. Los computadores de la segunda generación erán más rápidas, más pequeñas y con menores necesidades de ventilación. Estas computadoras también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.
Los programas de computadoras también mejoraron. COBOL desarrollado durante la 1era generación estaba ya disponible comercialmente. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computación.

TERCERA GENERACIÓN (1964-1971)


Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora

Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.
Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizar sus modelos.
La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación).

CUARTA GENERACIÓN (1971 A 1981)



Microprocesador, Chips de memoria, Micro miniaturización

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la micro miniaturización de los circuitos electrónicos. El tamaño reducido del microprocesador y de chips hizo posible la creación de las computadoras personales (PC)
En 1971, intel Corporation, que era una pequeña compañía fabricante de semiconductores ubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. 
Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producción dé silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes.
Actualmente ha surgido una enorme cantidad de fabricantes de microcomputadoras o computadoras personales, que utilizando diferentes estructuras e arquitecturas se pelean literalmente por el mercado de la computación, el cual ha llegado a crecer tanto que es uno de los más grandes a nivel mundial; sobre todo, a partir de 1990, cuando se logran sorprendentes avances en Internet.
Esta generación de computadoras se caracterizó por grandes avances tecnológicos realizados en un tiempo muy corto. En 1977 aparecen las primeras microcomputadoras, entre las cuales, las más famosas fueron las fabricadas por Apple Computer, Radio Shack y Commodore Busíness Machines. IBM se integra al mercado de las microcomputadoras con su Personal Computer (figura 1.15), de donde les ha quedado como sinónimo el nombre de PC, y lo más importante; se incluye un sistema operativo estandarizado, el MS- DOS (MicroSoft Disk Operating System).

QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989)


Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.
Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras.
Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras.
Hay que mencionar dos grandes avances tecnológicos, que sirvan como parámetro para el inicio de dicha generación: la creación en 1982 de la primera supercomputadora con capacidad de proceso paralelo, diseñada por Seymouy Cray, quien ya experimentaba desde 1968 con supercomputadoras, y que funda en 1976 la Cray Research Inc.; y el anuncio por parte del gobierno japonés del proyecto "quinta generación", que según se estableció en el acuerdo con seis de las más grandes empresas japonesas de computación, debería terminar en 1992.
El proceso paralelo es aquél que se lleva a cabo en computadoras que tienen la capacidad de trabajar simultáneamente con varios microprocesadores. Aunque en teoría el trabajo con varios microprocesadores debería ser mucho más rápido, es necesario llevar a cabo una programación especial que permita asignar diferentes tareas de un mismo proceso a los diversos microprocesadores que intervienen.
También se debe adecuar la memoria para que pueda atender los requerimientos de los procesadores al mismo tiempo. Para solucionar este problema se tuvieron que diseñar módulos de memoria compartida capaces de asignar áreas de caché para cada procesador.
Según este proyecto, al que se sumaron los países tecnológicamente más avanzados para no quedar atrás de Japón, la característica principal sería la aplicación de la inteligencia artificial (Al, Artificial Intelligence). Las computadoras de esta generación contienen una gran cantidad de microprocesadores trabajando en paralelo y pueden reconocer voz e imágenes. También tienen la capacidad de comunicarse con un lenguaje natural e irán adquiriendo la habilidad para tomar decisiones con base en procesos de aprendizaje fundamentados en sistemas expertos e inteligencia artificial.
El almacenamiento de información se realiza en dispositivos magneto ópticos con capacidades de decenas de Gigabytes; se establece el DVD (Digital VideoDisk o Digital Versatile Disk) como estándar para el almacenamiento de video y sonido; la capacidad de almacenamiento de datos crece de manera exponencial posibilitando guardar más información en una de estas unidades, que toda la que había en la Biblioteca de Alejandría. Los componentes de los microprocesadores actuales utilizan tecnologías de alta y ultra integración, denominadas VLSI (Very Large Sca/e Integration) y ULSI (Ultra Lar- ge Scale Integration).
Sin embargo, independientemente de estos "milagros" de la tecnología moderna, no se distingue la brecha donde finaliza la quinta y comienza la sexta generación. Personalmente, no hemos visto la realización cabal de lo expuesto en el proyecto japonés debido al fracaso, quizás momentáneo, de la inteligencia artificial.
El único pronóstico que se ha venido realizando sin interrupciones en el transcurso de esta generación, es la conectividad entre computadoras, que a partir de 1994, con el advenimiento de la red Internet y del World Wide Web, ha adquirido una importancia vital en las grandes, medianas y pequeñas empresas y, entre los usuarios particulares de computadoras.
El propósito de la Inteligencia Artificial es equipar a las Computadoras con "Inteligencia Humana" y con la capacidad de razonar para encontrar soluciones. Otro factor fundamental del diseño, la capacidad de la Computadora para reconocer patrones y secuencias de procesamiento que haya encontrado previamente, (programación Heurística) que permita a la Computadora recordar resultados previos e incluirlos en el procesamiento, en esencia, la Computadora aprenderá a partir de sus propias experiencias usará sus Datos originales para obtener la respuesta por medio del razonamiento y conservará esos resultados para posteriores tareas de procesamiento y toma de decisiones.

SEXTA GENERACIÓN (1990 - 2000)


Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventa, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera.

Séptima Generación (2001 - A la  fecha)


La séptima generación de computadoras se refiere al gran desarrollo de los dispositivos para poder convertirse en equipos multimedia de gran envergadura en lo que respecta al video y sonido de alto nivel.
El arribo de esta generación se puede situar a partir de los últimos años de la década de 2000, que fue la etapa cuando los antiguos monitores de rayos catódicos comienzan a ser desplazados por las pantallas planas del tipo LCD, y se empieza a popularizar así esta nueva tecnología.
Con la introducción de estos nuevos elementos, la séptima generación de computadoras fue capaz de ir sustituyendo a los clásicos reproductores de vídeo y música como han sido televisores o aparatos musicales.
Otro de los hitos de estas computadoras domésticas fue su capacidad de reducir el tamaño y peso de los dispositivos, además de aumentar el almacenamiento. Esto permitió, por ejemplo, la aparición de los conocidos libros electrónicos o Kindle.

Esta evolución ha sido tan rápida, que las computadoras se han vuelto un verdadero centro de entretenimiento del hogar.

Características

Mayor capacidad de respuesta y más rapidez
La séptima generación de computadoras ofrece más rapidez en productividad y en desempeño, además de más eficacia en el uso web.

Acceso y apertura a contenidos UHD 4K (profesional y usuario)
La séptima generación permite a los aficionados a las películas y a la TV poder tener acceso a servicios con contenidos UHD 4K transmitidos.
Además, se pueden disfrutar los contenidos UHD 4K que se encuentran distribuidos a través de plataformas como YouTube, además de poder ver los mismos durante más tiempo.

Uso de dispositivos más livianos y delgados
Algunas de las computadoras personales de la séptima generación son más delgadas que un teléfono, además de poder ofrecer todo el desempeño esperado de una PC.

Hardware

Se incluye un avance notable en los dispositivos de hardware, permitiendo que los usuarios puedan disfrutar de mayor velocidad y potencia de procesamiento. Además, de la utilización de memorias compactas como los discos duros externos.

Microprocesadores Intel
Esta generación se refiere también al núcleo de la CPU desarrollado por la empresa Intel y lanzado en 2008. Este núcleo es lo que corresponde a las líneas i3, i5 e i7 de microprocesadores.

Así, los usuarios pueden obtener más provecho de todos los avances que han venido suscitándose en la red, pero que requieren más cómputos para lograr mejores resultados.

Pantalla plana LCD
Son aparatos que utilizan pantallas de cristal líquido para producir imágenes. Estas pantallas se caracterizan por ser delgadas y livianas. La mayoría de pantallas Full HD son de tecnología LCD.

UHD 4K
Es una mejora que integran los televisores para la resolución de la imagen, con la capacidad de aumentar cuatro veces la resolución ofrecida por la alta definición (HD).

Así, puede desplegar 8 millones de píxeles, en lugar de los 2 millones que despliega el Full HD.

     



Software

Entre lo incorporado adicionalmente está la expansión del comercio electrónico y de la realidad virtual.

Juegos

En los juegos por computadora se puede observar una gran mejora en los gráficos, si se compara con lo que se ofrecía unos años atrás. Esto significa que se puede jugar en una computadora portátil, que sea liviana y delgada.

Reconocimiento de voz
Permite que las computadoras y otros equipos reciban y entiendan expresiones humanas. Se utiliza el lenguaje natural como entrada para activar una operación, permitiendo que los dispositivos respondan a comandos hablados.

Esta tecnología adopta muchas formas, desde dictar mensajes de texto al teléfono inteligente mientras se conduce, hasta decirle al sistema de sonido que ponga una canción.

Mensajería instantánea

Se puede mantener una lista de personas con quienes interactuar y se pueden enviar mensajes a cualquier contacto de la lista tecleando en una ventana que aparece en ambas pantallas.

   


                                                      


Redes Informaticas

 Redes informáticas ¿Qué son las redes informáticas? Se entiende por redes informáticas, redes de comunicaciones de datos o redes de computa...