REDES

1) Evolución de las redes informáticas 2) Tipologías de red 3) Topologías de red 4) Como se hace un cable de red (Con fotos y paso a paso) 5) Velocidad que se puede alcanzar en los diferentes cables de red 6) ¿Qué es un switch? 7) Diferencia entree un switch y un HUB 8) ¿Qué es ADSL? 9) ¿Qué topología de red usa tu clase? Explica tu elección 1)

Arpanet fue creada durante la cortina de hierro, y su objetivo principal era que la información militar de los Estados Unidos no estuviera centralizada y pudiera estar disponible en punto del país ante un eventual ataque ruso
Hace 35 años, científicos de UCLA, en los Estados Unidos, conectaron dos computadoras usando un cable y vieron cómo los datos fluían de una máquina a la otra. Ese fue el principio de Arpanet, la red militar que es reconocida como la progenitora de lo que hoy se conoce como Internet. Arpanet fue creada durante la Guerra Fría, y su objetivo principal era que la información militar de los Estados Unidos no estuviera centralizada y pudiera estar disponible desde cualquier punto del país ante un eventual ataque ruso.
Sólo unos meses después de la primera conexión, la red ya contaba con cuatro nodos remotos en otras instituciones estadounidenses como el Instituto de Investigaciones de Standford y la Universidad de Utah.
Cuando el primer sistema de comunicaciones ya resultaba obsoleto, se creó el protocolo TCP/IP, que se sigue utilizando hasta hoy, y que funciona como estándar dentro de las redes informáticas.
Algunas sostienen que el protocolo TCP/IP, cuya característica principal es poder compartir información entre redes muy distintas entre sí, es la verdadera Internet.
En 1983, Paul Mockapetris y Jon Postel crearon el sistema de nombres de dominio (DNS) y las denominaciones .com, .org, y .gov, tan características de lo que hoy llamamos Internet.
La última etapa en el desarrollo fue la creación de la World Wide Web, a cargo de Tim Berners-Lee, quien a principio de los ’90 inventó el sistema de links, fundamental para el crecimiento de la red de redes. Tim Berners no patentó su invento para no poner escollos comerciales a la evolución de Internet. Su aporte fue reconocido recientemente, cuando fue condecorado como caballero por la realeza británica y además fue elegido por la revista Time como uno de los 20 pensadores más influyentes del siglo XX.
De todos modos, aunque no haya consenso total sobre cuál fue el hecho que le dio origen a lo que hoy conocemos como Internet, es indudable que aquella primera red Arpanet, que nació hace 35 años, fue fundamental para el inicio de lo que hoy solemos llamar simplemente “La Red”.
La historia de networking informática es compleja. Participaron en ella muchas personas de todo el mundo a lo largo de los últimos 35 años. Presentamos aquí una versión simplificada de la evolución de la Internet. Los procesos de creación y comercialización son mucho más complicados, pero es útil analizar el desarrollo fundamental.
En la década de 1940, los computadores eran enormes dispositivos electromecánicos que eran propensos a sufrir fallas. En 1947, la invención del transistor semiconductor permitió la creación de computadores más pequeños y confiables. En la década de 1950 los computadores mainframe, que funcionaban con programas en tarjetas perforadas, comenzaron a ser utilizados habitualmente por las grandes instituciones.
A fines de esta década, se creó el circuito integrado, que combinaba muchos y, en la actualidad, millones de transistores en un pequeño semiconductor. En la década de 1960, los mainframes con terminales eran comunes, y los circuitos integrados comenzaron a ser utilizados de forma generalizada.
Hacia fines de la década de 1960 y durante la década de 1970, se inventaron computadores más pequeños, denominados minicomputadores. Sin embargo, estos minicomputadores seguían siendo muy voluminosos en comparación con los estándares modernos. En 1977, la Apple Computer Company presentó el microcomputador, conocido también como computador personal. En 1981 IBM presentó su primer computador personal. El equipo Mac, de uso sencillo, el PC IBM de arquitectura abierta y la posterior micro miniaturización de los circuitos integrados dieron como resultado el uso difundido de los computadores personales en hogares y empresas.
A mediados de la década de 1980 los usuarios con computadores autónomos comenzaron a usar módems para conectarse con otros computadores y compartir archivos. Estas comunicaciones se denominaban comunicaciones punto-a-punto o de acceso telefónico. El concepto se expandió a través del uso de computadores que funcionaban como punto central de comunicación en una conexión de acceso telefónico.
Estos computadores se denominaron tableros de boletín. Los usuarios se conectaban a los tableros de boletín, donde depositaban y levantaban mensajes, además de cargar y descargar archivos. La desventaja de este tipo de sistema era que había poca comunicación directa, y únicamente con quienes conocían el tablero de boletín. Otra limitación era la necesidad de un módem por cada conexión al computador del tablero de boletín. Si cinco personas se conectaban simultáneamente, hacían falta cinco módems conectados a cinco líneas telefónicas diferentes. A medida que crecía el número de usuarios interesados, el sistema no pudo soportar la demanda. Imagine, por ejemplo, que 500 personas quisieran conectarse de forma simultánea. A partir de la década de 1960 y durante las décadas de 1970, 1980 y 1990, el Departamento de Defensa de Estados Unidos (DoD) desarrolló redes de área amplia (WAN) de gran extensión y alta confiabilidad, para uso militar y científico. Esta tecnología era diferente de la comunicación punto-a-punto usada por los tableros de boletín. Permitía la internet working de varios computadores mediante diferentes rutas. La red en sí determinaba la forma de transferir datos de un computador a otro. En lugar de poder comunicarse con un solo computador a la vez, se podía acceder a varios computadores mediante la misma conexión. La WAN del DoD finalmente se convirtió en la Internet.
2) TIPOLOGIA LOGICA

Define como se distribuyen los datos entre las estaciones que componen la red
Tipología lógica en bus: los datos se definen sin ningún orden preestablecido, es decir cualquier estación puede capturar los mensajes del medio de transmisión.
Tipología lógica en anillo: los datos se definen en un orden preestablecido, el mensaje continúa su recorrido en orden hasta alcanzar la estación destino.
TIPOLOGÍA FÍSICA
Las estaciones de trabajo de una red se comunican entre sí mediante una conexión física y el objeto es buscar la forma más económica y eficaz de conectarlas. Las opciones que encontramos son:
3) Topología en Estrella

En una red estrella típica, la señal pasa de la tarjeta de red (NIC) de la computadora que está enviando el mensaje al Hub y este se encarga de enviar el mensaje a todos los puertos.  La topología estrella es similar a la Bus, todas las computadoras reciben el mensaje pero solo la computadora con la dirección, igual a la dirección del mensaje puede leerlo.
Tipología en Anillo

Esta topología conecta a las computadoras con un solo cable en forma de círculo. Con diferencia de la topología bus, las puntas no están conectadas con un terminados. Todas las señales pasan en una dirección y pasan por todas las computadoras de la red. Las computadoras en esta topología funcionan como repeaters, porque lo que hacen es mejorar la señal. Retransmitiéndola a la próxima computadora evitando que llegue débil dicha señal. La falla de una computadora puede tener un impacto profundo sobre el funcionamiento de la red.
Comunicacion en la topologia Linear Bus
En una red tipo linear Bus, cuando una computadora envía un mensaje, el mensaje va a cada computadora.
Topología en árbol 

 La topología de árbol combina características de la topología de estrella con la BUS. Consiste en un conjunto de subredes estrella conectadas a un BUS. Esta topología facilita el crecimiento de la red.
Ventajas
·  Cableado punto a punto para segmentos individuales.
·  Soportado por multitud de vendedores de software y de hardware
Topología híbrida

Las redes pueden utilizar diversas tipologías para conectarse, como por ejemplo en estrella.
La tipología híbrida es una de las más frecuentes y se deriva de la unión de varios tipos de topologías de red, de aquí el nombre de híbridas. Ejemplos de topologías híbridas serían: en árbol, estrella-estrella, bus-estrella, etc.
Su implementación se debe a la complejidad de la solución de red, o bien al aumento en el número de dispositivos, lo que hace necesario establecer una topología de este tipo. Las topologías híbridas tienen un costo muy elevado debido a su administración y mantenimiento, ya que cuentan con segmentos de diferentes tipos, lo que obliga a invertir en equipo adicional para lograr la conectividad deseada.
4) Necesitas Crimpadora, cable de red, tijeras y 2x Conectores RJ-45

1. Pelar el cable con cuidado

tutorial-cable-2

2. Separar los cables y estirarlos

tutorial-cable-3 3) Ordenar los cables cable-de-red-directo 4. Cortarlos e introducirlos con cuidado en la clavija RJ-45 tutorial-cable-4 5. Fijar con la crimpadora tutorial-cable-5 6. Repetir con el otro extremo y comprobar tutorial-cable-6   5) Cat 5 : Su velocidad de transferencia es de 100 mbytes. Cat 5 E : Su velocidad de transferencia es de 165 mbytes. HUB: Su velocidad de transferencia es de 10 mbytes 6) Un switch es un dispositivo cuyo cometido es conectar varios elementos dentro de una red 7) Al Switch se le denomina puente multipuerto, así como el hub se denomina repetidor multipuerto.La diferencia entre el hub y el switch es que los switches toman decisiones basándose en las direcciones MAC y los hubs no toman ninguna decisión. Como los switches son capaces de tomar decisiones, así hacen que la LAN sea mucho más eficiente. Los switches hacen esto “conmutando” datos sólo desde el puerto al cual está conectado el host correspondiente. A diferencia de esto, el hub envía datos a través de todos los puertos de modo que todos los hosts deban ver y procesar (aceptar o rechazar) todos los datos. Esto hace que la LAN sea mas lenta. A primera vista los switches parecen a menudo similares a los hubs. Tanto los hubs como los switches tienen varios puertos de conexión (pueden ser de 8, 12, 24 o 48, o conectando 2 de 24 en serie), dado que una de sus funciones es la concentración de conectividad (permitir que varios dispositivos se conecten a un punto de la red). La diferencia entre un hub y un switch está dada por lo que sucede dentro de cada dispositivo. 8)

TRABAJO 10 CONECTORES.

1) Tipo de conectores para :

– Ratón PS/2, USB

pines ps2

– Teclado AT, PS/2

pines ps2

USB

pines usb

– Monitor

VGA

pines vga

DVI

descarga

HDMI

pines hdmi

– Disco duro

SCSI

pines scsi

SATA

pines sata

IDE

pines ideee

– Audio

RCA

Pines RCA

Mini USB

Pînes mini usb

Din TV

pines din tv

– Red

pines de red

– Alimentación

Molex

pines de conector moles

Conector ATX

ATXXXX

Conector disco duro SATA

SATA

IDE

pines ideee

Conectores internos como externos

2) Poner una explicación de las patillas / pines y foto.

Trabajo 9 : Unidades de almacenamiento

1) Evolución

Un dispositivo de almacenamiento computacional que es capaz de almacenar datos o cualquier tipo de información. Históricamente se ha usado el papel como método más común, pero actualmente es posible almacenar digitalmente en un CD por ejemplo, los datos que cabrían en miles de carpetas archivadas. A lo largo de la historia se ha buscado el camino al conocimiento y sus consecuencias de encontrar el sistema más pequeño físicamente y con más capacidad para almacenar más datos y tratarlos rápidamente.

También conocido como circuito integrado. Se desarrolló por primera vez en 1958 por el ingeniero Jack Kilby justo meses después de haber sido contratado por la firma Texas Instruments. Se trataba de un dispositivo de germanio que integraba seis transistores en una misma base semiconductora para formar un oscilador de rotación de fase. En el año 2000, Kilby obtuvo el Premio Nobel de Física por la contribución de su invento al desarrollo de la tecnología de la información.

Un microchip es una pastilla muy delgada donde se encuentran miles o millones de dispositivos electrónicos interconectados, principalmente diodos y transistores, y también componentes pasivos como resistores o condensadores. Su área puede ser de 1 cm, 2 cm o inferior. Los microchips son quizás los sistemas de almacenamiento más empleados, hoy en día se utilizan además de en los computadores, en los teléfonos móviles, electrodomésticos, juguetes con algún componente electrónico, etc.

El transistor actúa como interruptor. Puede encenderse o apagarse electrónicamente o amplificar corriente. Se usa en computadoras para almacenar información o en amplificadores para aumentar el volumen de sonido. Las resistencias limitan el flujo de electricidad y nos permiten controlar la cantidad de corriente que fluye, esto se usa por ejemplo para controlar el volumen de un televisor o radio.

El desarrollo del microchip es especialmente importante en la historia, pues es algo increíblemente pequeño que puede almacenar cantidad de datos inmensas, que hace años era impensable. Se necesita un desarrollo a nivel microscópico para diseñar los microchips.

El primer computador que usó microchips fue un IBM lanzado en 1965, llamado serie 360. Estas computadoras se consideran de la tercera generación de computadoras, y sustituyeron por completo a las de segunda generación, introduciendo una manera de programar que aún se mantiene en grandes computadoras de IBM.

2) Tipos y descripción

* Memoria Ram (Ramdom Access Memory) :

La Memoria de Acceso Aleatorio, o RAM (acrónimo inglés de Random Access Memory), es una memoria de semiconductor, en la que se puede tanto leer como escribir información. Es una memoria volátil, es decir, pierde su contenido al desconectarse de la electricidad.

La memoria RAM es el componente de almacenamiento más importante de un computador actual, junto al disco duro. Con la llegada de los computadores de escritorio, había que idear un sistema de almacenamiento que no ocupara espacio, pues los computadores de escritorio se idearon para que cupiesen en una mesa de oficina. La memoria RAM se forma a partir de microchips con entradas de memoria. La memoria es almacenada en esas entradas de manera aleatoria, de ahí su nombre. La memoria RAM es uno de los componentes informáticos que más ha evolucionado en los últimos veinte años. Si a finales de los 80 la capacidad de las memorias RAM rondaban los 4 MB, ahora lo normal es comprarse un computador con al menos 1024 MB, (1 GB). Normalmente se ha ido avanzando en una cantidad de MB igual a potencias de 2. A mediados de los 90, con la llegada de Windows 95, los computadores comenzaron a usar memorias de 16 MB de RAM, más tarde de 32, 64, 128… hasta los Pentium 4 y usando Windows XP, en donde se recomienda al menos 256 MB de RAM, aunque hoy en día lo normal es que usen 1 gigabyte o más.

Imagen

* Disco duro :

Es el medio de almacenamiento por excelencia. Desde que en 1955 saliera el primer disco duro hasta nuestros días, el disco duro o HDD ha tenido un gran desarrollo. Los discos duros se emplean en computadores de escritorio, portátiles y unidades de almacenamiento de manejo más complejo. El disco duro es el componente que se encarga de almacenar todos los datos que queremos. Mientras que la memoria RAM actúa como memoria “de apoyo” (como variable que almacena y pierde información según se van procesando datos), el disco duro almacena permanentemente la información que le metemos, hasta que es borrado. Generalmente, lo primero que se graba en un disco duro es el sistema operativo que vamos a usar en nuestro computador. Una vez tenemos instalado el sistema operativo en el disco duro, podemos usar todos los programas que queramos que hayan instalados, y toda la información que queramos guardar se almacenará en el disco duro. En el disco duro almacenamos cualquier cosa, como documentos, imagen, sonido, programas, vídeos, ficheros, etc.

Los discos duros también han evolucionado muchísimo en los últimos veinte años, sobre todo ampliando su capacidad

El disco duro está compuesto básicamente de:

– Varios discos de metal magnetizado, que es donde se guardan los datos.

– Un motor que hace girar los discos.

– Un conjunto de cabezales, que son los que leen la información guardada en los discos.

– Un electroimán que mueve los cabezales.

– Un circuito electrónico de control, que incluye el interface con el ordenador y la memoria caché.

– Una caja hermética (aunque no al vacío), que protege el conjunto.

Normalmente usan un sistema de grabación magnética analógica.

El número de discos depende de la capacidad del HDD y el de cabezales del numero de discos x 2, ya que llevan un cabezal por cada cara de cada disco (4 discos = 8 caras = 8 cabezales).

Actualmente el tamaño estándar es de 3.5′ de ancho para los HDD de pcs y de 2.5′ para los discos de ordenadores portátiles.

Imagen

* Dispositivos portátiles :

Además de los dispositivos fijos que existen como componentes en una computadora, hay otros que pueden introducirse y sacarse en cualquier computador. Estos sistemas son realmente útiles para transportar información entre dos o más computadoras.

* Disquete

También llamado disco flexible (floppy disk en inglés). A simple vista es una pieza cuadrada de plástico, en cuyo interior se encuentra un disco flexible y magnético, bastante frágil. Los disquetes se introducen en el computador mediante la disquetera.

En los años 80 gozaron de gran popularidad. Los programas informáticos y los videojuegos para PC se distribuían en este formato. Ya que en aquella época los programas y juegos no llegaban ni a 1 MB, cabían perfectamente en los disquetes. En su día existió un disquete rectangular, y más tarde apareció el disquete de 3 1/2 pulgadas, el popular disquete cuadrado. En los noventa, los programas comenzaron a ocupar más memoria, por lo que en algunos casos se necesitaban varios disquetes para completar una instalación.

El disquete es un sistema de almacenamiento magnético, al igual que los casetes o los discos duros, y aunque han gozado de gran popularidad desde los 80 hasta ahora, pero ya son obsoletos. De hecho, algunos computadores ya salen de fábrica sin disquetera, pues los disquetes se han quedado pequeños en cuanto a capacidad y velocidad. Teniendo en cuenta lo que ocupan los programas actuales, un disquete hoy en día solo sirve para almacenar algunos documentos de texto, imágenes y presentaciones.

Imagen

* CD ROM

Es un disco compacto (del inglés: Compact Disc – Read Only Memory). Se trata de un disco compacto (no flexible como los disquetes) óptico utilizado para almacenar información no volátil, es decir, la información introducida en un CD en principio no se puede borrar. Una vez un CD es escrito, no puede ser modificado, sólo leído (de ahí su nombre, Read Only Memory). Un CD-ROM es un disco de plástico plano con información digital codificada en espiral desde el centro hasta el borde. Fueron lanzados a mediados de los 80 por compañías de prestigio como Sony y Philips. Microsoft y Apple fueron dos de las grandes compañías informáticas que la utilizaron en sus comienzos. Es uno de los dispositivos de almacenamiento más utilizados. De hecho, fue el sustituto de los casetes para almacenar música, y de los disquetes para almacenar otro tipo de datos.

Hay varios tipos de CD-ROM. Los clásicos miden unos 12 centímetros de diámetro, y generalmente pueden almacenar 650 o 700 MB de información. Sin embargo en los últimos años también se han diseñado CD-ROMS con capacidades de 800 o 900 MB. Si tenemos en cuenta la capacidad en minutos de música, serían 80 minutos los de 700 MB, por ejemplo. También existen discos de 8 cm con menos capacidad, pero ideales para almacenar software relativamente pequeño. Generalmente se utilizan para grabar software, drivers, etc. de periféricos o similares, aunque también se usan para transportar datos normalmente como los CD normales.

La principal ventaja del CD-ROM es su versatilidad, su comodidad de manejo, sus pequeñas dimensiones (sobre todo de grosor). Sin embargo sus principal inconveniente es que no pueden manipularse los datos almacenados en él. Con el fin de solucionar este problema aparecieron los CD-RW, o CD regrabable. Sus características son idénticas a los CD normales, pero con la peculiaridad de que pueden ser escritos tantas veces como se quiera. Los CD son leídos por lectores de CD, que incluyen un láser que va leyendo datos desde el centro del disco hasta el borde. El sistema es parecido al de las tarjetas perforadas. Mientras que una tarjeta perforada es claramente visible sus agujeros, en un cd también se incluyen micro perforaciones que son imperceptibles a simple vista, pues son microscópicas. A la hora de escribir en un CD, se emplea el sistema binario con perforación o no perforación (ceros y unos).

Imagen

* DVD

 El crecimiento tecnológico en la informática es tal que incluso los CD se han quedado pequeños. Si hace 10 años los disquetes se habían quedado pequeños y parecía que un CD era algo demasiado grande, algo ha cambiado, pues todas las aplicaciones, ya sean programas, sistemas operativos o videojuegos ocupan mucha más memoria. De los tradicionales 700MB de capacidad de un CD se pasaron a los 4,7 GB de un DVD. La primera ráfaga de ventas de DVD aparecieron para formato vídeo, para sustituir a los clásicos VHS . Las ventajas de los DVD eran claras, a más capacidad, mejor calidad se pueden almacenar. Y mejor se conservan los datos, ya que las cintas magnétiicas de los videocasetes eran fácilmente desgastables. Un DVD es mucho más durarero, su calidad de imagen es mejor y también la calidad de sonido. Las películas en DVD comenzaron a popularizarse a finales de los años 90.

Sin embargo en esos años aún los CD eran los más populares a nivel informático. Un videojuego solía ocupar unos 600mb de instalación, con lo que fácilmente cabía en un CD. Pero poco a poco los videojuegos y otros programas comenzaron a ocupar más, ya que conforme va avanzando la tecnología de datos, gráficos, etc. más memoria se necesita. Algunos videojuegos llegaban a ocupar 4 o 5 cds, lo que hacía muy incómodo su manipulación. Finalmente se ha decidido por fin que aquellos programas que ocupen más memoria de lo que cabe en un CD, sea almacenado en un DVD. Los DVD son más caros que los CD, aunque poco a poco se están haciendo con el mercado. Quizás sean los sustitutos definitivos de los CD, aunque por ahora estos últimos no están decayendo en absoluto. La venta de CD vírgenes sigue siendo abrumadora. Sin embargo se ha disparado la venta de DVD, pues cada vez más la gente empieza a grabar más datos y lógicamente se busca el menor espacio posible. Y si en un DVD se pueden almacenar seis películas, mejor que usar seis CD.

También existen los DVD-R, ya que al igual que los CD, el DVD normal es de sólo lectura. Pero con la lección aprendida de los CD, se diseñaron los DVD regrabables. Además, hace unos años que existen los DVD de doble capa. Este tipo de DVD siguen leyendo por una cara, pero con doble capa de datos. Pero también existen DVD que se pueden leer por las dos caras. Los hay de doble cara y una capa, pero si el DVD es de doble cara y doble capa por cada una, la capacidad llega a los 17 gb. Sin embargo aún estos sistemas se utilizan mínimamente, son muy caros, pero seguramente algún día sustituirán a los actuales CD.

Imagen

* Memoria USB

La Memoria USB fue inventada en 1998 por IBM, pero no fue patentada por él. Su objetivo era sustituir a los disquetes con mucha más capacidad y velocidad de transmisión de datos.Aunque actualmente en un CD o DVD se puede almacenar memoria para luego borrarla y manipularla, lo más cómodo y usado son las memorias USB. Son pequeños dispositivos del tamaño de un mechero que actúan prácticamente igual que un disquete, pero con una capacidad mucho mayor, que actualmente van desde los 64 mb a varios gigabytes. Su principal ventaja es su pequeño tamaño, su resistencia (la memoria en sí está protegida por una carcasa de plástico como un mechero) y su velocidad de transmisión, mucho más rápido que los disquetes.

Actualmente está muy de moda este tipo de dispositivos, sobre todo entre jóvenes u oficinistas, pues gracias a su reducido tamaño y forma puede colgarse como llavero por ejemplo, y lo más importante, con los sistemas operativos (Linux,Windows o Mac), sólo hay que conectarlo al computador y usarlo sin más complicaciones. Además existen otros aparatos como los reproductores de MP3 que utilizan las mismas características. Pueden almacenar cualquier tipo de dato, pero su principal característica es que los ficheros de música en formato mp3 y wma sobre todo, son reconocidos y procesados para ser escuchados a través de unos auriculares conectados al aparato. Esto es pues, un sustituto del walkman. Pero además cada vez están apareciendo nuevos diseños que son capaces de almacenar ya decenas de gigabytes (miles de canciones) y también vídeo, que con una pequeña pantalla pueden ser visualizados.

Imagen

3) Tipos de conexiones

  • USB 2.0 es la conexión más universal ya que no hay equipo que no integre dicho puerto de conexión. La velocidad teórica máxima de dicha conexión es de 60MB/s.
  • USB 3.0 es la nueva versión. Un estándar que aumenta notablemente la velocidad consiguiendo un máximo teórico de transferencia de 640MB/s. Como podéis ver casi 11 veces más rápida que la versión 2.0. El conector USB 3.0 es retrocompatible con USB 2.0
  • Firewire 400 es otro tipo de conexión. Apple la creo y popularizó siendo usada por numerosas videocámaras convirtiendo el estándar en el más ideal para temas de vídeo gracias a que la transferencia se hace a una velocidad sostenida. La velocidad teórica máxima es de 50MB/s.
  • Firewire 800 es la versión mejorada que duplica la velocidad de transferencia, llegando hasta los 100MB/s.
  • eSata es la versión externa del conector SATA. La velocidad máxima que alcanza son 384 MB/s lo que la hace realmente interesante.

4) Como se conectan a la placa base

1 Apaga tu ordenador asegúrate de desconectar todos los cables de corriente.

2 Abre la tapa del gabinete del ordenador. Los tornillos y tuercas que pueda tener varían de un modelo a otro.

3 Ahora en la regrabadora/lectora IDE deb erás ver la posición de los jumpers dependiendo de cómo quieras instalarlo, ya sea como maestro, esclavo, o cable selector. Las instrucciones del jumper están por lo general en el dorso de la misma regrabadora/lectora.

4 Una vez la hayas jumpeado correctamente, posiciona regrabadora/lectora en la bandeja reservada para la misma que se encuentra dentro del gabinete. Por lo general están arriba de todo.

5 Asegura la regrabadora/lectora a la bandeja usando tornillos.

6  Conecta un extremo del cable IDE a la placa madre. El cable IDE por lo general es blanco con el conector negro.

7 Conecta el otro extremo del cable IDE a la regrabadora/lectora.

8 Conecta el cable de alimentación a la regrabadora/lectora. Este cable sale de la fuente de alimentación del ordenador y su conector es por lo general blanco y un poco más pequeño que el del cable IDE.

 9 Vuelve a conectar los cables de corriente y enciende tu ordenador. Si has instalado tu regrabadora/lectora IDE en tu ordenador de escritorio correctamente, el nombre de la mismo debería aparecer cuando el ordenador inicia.

5) Explicar como conectar dos unidades de CD/DVD a un mismo cable.

  1. Colócate una pulsera antiestática para proteger la unidad de CD-ROM y el disco duro de daños electrostáticos. Inserta un extremo del cable de cinta IDE en la ranura IDE1 o ATA1 en la tarjeta madre.
  2. Comprueba la configuración de los puentes en la parte posterior del disco duro. Comparar la configuración con el diagrama de puente encontrado en el manual del dispositivo. Confirma que el disco duro esté configurado como el dispositivo maestro.
  3. Revisa la configuración de los puentes en la parte posterior de la unidad de CD-ROM. Confirma que el CD-ROM esté configurado como el dispositivo esclavo.
  4. Introduce el otro extremo del conector IDE en la ranura IDE en la parte posterior del disco duro. Inserta el conector medio IDE en la unidad de CD-ROM.

6) Futuras unidades de almacenamiento

El futuro no está tan lejos como podemos pensar, por ello, destacamos tres de las noticias más novedosas e interesantes que hemos encontrado.

* Almacenamiento convergente de HP

hp_P1000_3PAR

* Cristales de memoria

* Mini memorias flash con grafeno

Memoria-flash

TRABAJO 8 : PANTALLAS

1) Evolución

2) Tipos

3) Conexiones

4) Mantenimiento

5) Averías más comunes

6) Precios

1)

Desde la aparición de los primeros monitores hasta hoy día, el avance de estos dispositivos no ha sido muy importante comparada con el resto de componentes, como por ejemplo los microprocesadores, que evolucionan a una velocidad impensable pocos años atrás.

Es indudable que los monitores han evolucionado, pero hoy en día es uno de los componentes del ordenador que más tiempo permanece “actualizado”, y siempre es compatible con las nuevas tecnologías. Por ejemplo, podemos tener un  moderno Pentium III con un monitor monocromo usado para un 386, sin embargo una tarjeta AGP no puede ser utilizada con una placa base que tenga más de un año.

El modo CGA (320 x 200 y 4 colores) fue el utilizado con la aparición de los primeros PC’s. Seguidamente surgió el modo EGA (640 x 350 y 16 colores) En actualidad el estándar  mínimo es el VGA, que ofrece una resolución de 640 x 480 y 16 colores. Posteriormente IBM propuso el modo XGA (65.536 colores a 640 x 480) más tarde han aparecido el VGA+ o Súper VGA que ofrecen resoluciones y colores superiores. Los fabricantes se han agrupado en la VESA (Video Electronics Standards Associations),para definir, entre otras cosas, la norma SVGA, que ofrece una resolución de 1024 x 768 en 256 colores.

Hoy en día, con la aparición de las nuevas tarjetas gráficas AGP (Acelerated Graphic Port), podemos obtener resoluciones de hasta 1600 x 1200 y 16.7 millones de colores, siempre que el monitor esté preparado para ello, y además con unas frecuencias de barrido mucho más que aceptables.

Los monitores CRT fueron los únicos hasta la aparición de los LCD en 1971, hoy en día los dos monitores se utilizan pero se prevé que el CRT quedará obsoleto en poco tiempo.

2)

Monitores MDA : Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en el año 1981. Junto con la tarjeta CGA de IBM. Los MDA son

conocidos popularmente por los monitores monocromáticos solo ofrecían textos, no incorporaban modos gráficos.

Este tipo de monitores se caracterizaban por tener un único color principalmente verde. El mismo creaba irritación en los ojos de sus usuarios.

  • Sin modo gráfico.
  • Resolución 720_350 píxeles.
  • Soporte de texto monocromático.
  • No soporta gráfico ni colores.
  • La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.
  • Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.

Imagen

Monitores CGA : Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o “Adaptador de Gráficos en Color” en español. Este tipo de monitores fueron comercializados a partir del año 1981, cuando se desarrollo la primera tarjeta gráfica conjuntamente con un estándar de IBM.

A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían optando por los monitores MDA, ambos fueron lanzados al mercado en el mismo año existiendo competencia entre ellos. CGA fue el primero en contener sistema gráfico a color.

  • Resoluciones 160_200, 320×200, 640×200 píxeles.
  • Soporte de gráfico a color.
  • Diseñado principalmente para juegos de computadoras.
  • La tarjeta gráfica contenía 16 KB de memoria de vídeo.

Imagen

Monitores EGA : Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar desarrollado IBM para la visualización de gráficos, creado en 1984. Este nuevo monitor incorporaba una mayor amplitud de colores y resolución.

EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería sustituido por un monitor de mayores características.

  • Resolución de 640_350 píxeles.
  • Soporte para 16 colores.
  • La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.

Imagen

Monitores CRT : Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.

Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que hoy cuentan, estos pasaron por diferentes modificaciones y que en la actualidad también se realizan.

  • Excelente calidad de imagen (definición, contraste, luminosidad).
  • Económico.
  • Tecnología robusta.
  • Resolución de alta calidad.

Imagen

Monitores VGA : Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores anteriores empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas resoluciones.

Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores anteriores no son compatibles a los VGA, estos incorporan señales analógicas.

  • Soporte de 720×400 píxeles en modo texto.
  • Soporte de 640×480 píxeles en modo gráfico con 16 colores.
  • Soporte de 320×200 píxeles en modo gráfico con 256 colores.
  • Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.

Imagen

Monitores SVGA : 

SVGA denominado por sus siglas en inglés “Super Video Graphics Array”, también conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su antecesor VGA.

SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones.

  • Resolución de 800×600, 1024_768 píxeles y superiores.
  • Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI, GeForce, NVIDIA, entre otros.

Imagen

Monitores LCD : A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en español. Este dispositivo fue inventado por Jack Janning.

Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros.

  • Poco peso y tamaño.
  • Buena calidad de colores.
  • No contiene parpadeo.
  • Poco consume de energía.
  • Poca generación de calor.
  • No genera radiaciones eléctricas y magnéticas.

Imagen

Pantallas plasma : La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y H. Gene Slottow.

Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas se encuentran una la mayor resolución y ángulo de visibilidad.

  • Excelente brillo.
  • Alta resolución.
  • Amplio ángulo de visión.
  • No contiene mercurio.
  • Tamaño de pantalla elevado.

Imagen

3)

VGA : 

El conector VGA es el que se usaba, y se sigue usando, para conectar el PC al monitor analógicamente. Aunque son conocidos como VGA (Video Graphics Array), realmente los conectores actuales no trabajan bajo el estándar VGA, que permite mostrar hasta un máximo de 256 colores de una paleta de 262.144 colores, con una resolución máxima de 720×480 y un refresco máximo de 70Hz, sino SVGA (Super Video Graphics Array), que permite unas resoluciones y paletas de colores muchísimo mayores, tal y como estamos acostumbrados.

Estos dos sistemas utilizan el mismo tipo de conector, denominado VGA D-sub de 15 pines. Pero este tipo de conector, que para monitores del tipo CRT van bastante bien, no son capaces de suministrar la suficiente calidad de imagen cuando se trata de monitores TFT u otros tipos similares. Esto es debido a que, sea el tipo de tarjeta gráfica que sea, la conexión con el monitor se realiza de forma analógica. La profundidad de color y el brillo se define mediante voltaje simple. En los TFT el brillo y color de cada pixel se determina mediante bits(digital) así que necesitamos un decodificador para pasar el voltaje del VGA a ese sistema de bits, quitándole precisión y por lo tanto, calidad.

vga-plug

DVI : 

Con el conector DVI esto ya se hace de otra manera porque es capaz de transmitir los datos de forma digital. Así que cada bit es el encargado de darle la información a cada pixel de nuestro TFT. No hace falta decir que para que nuestra pantalla tenga su máxima calidad debemos usarla en su resolución nativa, eso es, la resolución en la que cada pixel de salida corresponde con su pixel en pantalla. Además, el DVI está libre de los ruidos y distorsiones inherentes en las señales analógicas.

Cada enlace DVI consiste de cuatro pares trenzados de hilos (uno con un código de color de rojo, azul y verde y uno para una señal de reloj) para transmitir 24 bits por píxel. La señal del reloj es prácticamente la misma que la de la señal de vídeo analógica, mientras que la imagen es enviada electrónicamente línea por línea con intervalos de corte que separa cada línea y el marco, sin ningún tipo de compresión.

Los tipos de DVI existentes son tres:

DVI-D transmite sólo digital.
DVI-A transmite sólo analógica.
DVI-I transmite tanto señal digital como analógica.

A su vez, los tipos DVI-D y DVI-I pueden ser duales (DL o Dual Link), es decir, que pueden admitir dos enlaces. Como imaginaréis lo normal es que usemos el DVI-D dual link.

dvi

HDMI :

El HDMI, (High Definition Multimedia Interface), es el tipo de conector más usado actualmente y, claro está, el más nuevo. La principal diferencia con los demás tipos y en particular con el DVI es que a parte de transmitir la señal de video digital también es capaz de transmitir el audio. Y ambos sin comprimir.

Esta conexión ofrece un ancho de banda de hasta 5 gigabytes por segundo, por esose utiliza para enviar señales de alta definición, 1920×1080 píxeles (1080i, 1080p) o 1280×720 píxeles (720p).
Existen tres tipos de conectores HDMI:

– El conector HDMI habitual es el tipo A, que dispone de 19 pines y es compatible hacia atrás con un enlace simple DVI, usado por monitores LCD y tarjetas gráficas modernas. Esto significa que una fuente DVI puede conectarse a un monitor HDMI, o viceversa, por medio de un adaptador adecuado.

– El conector HDMI tipo B tiene 29 pines y apenas está extendido actualmente, ya que fue diseñado para resoluciones más altas que las del formato 1080p (1920×1080 píxeles).

– Y el conector tipo C es igual que el tipo A pero con un tamaño más reducido. Es lo que sería el miniUSB al USB. Su uso aún no está muy estendido.

Dentro de los tipos de HDMI encontramos tres especificaciones:

HDMI 1.0 (Diciembre 2002).
Cable único de conexión digital audio/video con bitrate máximo de 4.9 Gbit/s. Soporte hasta 165Mpixels/s en modo video (1080p60 Hz o UXGA) y 8-canales/192 kHz/24-bit audio.

HDMI 1.2 (Agosto 2005).
Se añade en esta especificación soporte para One Bit Audio, usado en Super Audio CD’s, hasta 8 canales. Disponibilidad HDMI Tipo A para conectores de PC.

HDMI 1.3 (Junio 2006).
Se incremente el ancho de banda a 340 MHz (10.2 Gbit/s) y se añade soporte para Dolby TrueHD y DTS-HD. TrueHD y DTS-HD son formatos de audio de bajas pérdidas usados en HD-DVD y Blu-ray Disc. Esta especificación dispone también de un nuevo formato de miniconector para videocámaras.

hdmi_000

 

4) Mantenimiento

Hoy en día es sabido que un buen mantenimiento de nuestros aparatos electrónicos y de más elementos ayuda a prolongar la vida útil de los mismos, conseguir un rendimiento aceptable durante más tiempo y reducir la cantidad de fallos que nos pueda dar. Dichos fallos pueden estar causados por problemas de materiales, de diseño o de montaje. Por eso mismo hoy vamos a ofrecerte varios consejos para mantener activo tu monitor de PC de segunda mano durante mucho tiempo.

Algunos consejos previos:

• Primero de todo, nos aseguramos que el monitor de PC está desconectado de la corriente.

• Debemos disponer de un lugar de trabajo cómodo y libre de cualquier peligro para trabajar con eficacia.

• Debemos usar productos específicos de limpieza y trapos de algodón y limpios.

• Para limpiar el polvo de las partes internas del monitor, podemos usar aire comprimido para evitar tocar todos sus componentes.

Procedemos a su limpieza. Para empezar, vamos a realizar el mantenimiento interno del monitor de PC de segunda mano.

1- Desconectamos de la corriente para evitar descargas no deseadas. Una vez desconectado, lo dejamos reposar 10-15 minutos para que se enfríe y descargue toda la energía acumulada en sus partes.

2- Retiramos el pie del monitor. Tendemos un trapo o tela en una superficie plana, colocamos el monitor con la pantalla hacia abajo y retiramos la carcasa trasera, con la ayuda de un destornillador, con mucho cuidado para no dañar les conexiones.

3- Procedemos al limpieza interna. Con la ayuda de una pistola de aire comprimido y un pincel, vamos limpiando solamente sus circuitos, sin presionar mucho ni acercar mucho la pistola para no romper ningún circuito.

4- La zona más delicada es el Osciloscopio. Con la ayuda del pincel le quitamos la posible acumulación de polvo y/o tierra con muchísimo cuidado.

5- Una vez terminado, cerramos de nuevo la carcasa y le ponemos el pie.

Pasamos ahora a la limpieza externa:

1- Con la ayuda de un trapo de algodón limpio y espuma de limpieza, limpiamos toda la carcasa del monitor, así como la orilla del mismo. Se recomienda hacerlo de abajo hacia arriba, en forma de circuitos, para evitar que entre espuma en el ventilador.

2- Seguimos con la pantalla. Usaremos otro paño limpio con alcohol. Limpiamos en forma vertical y horizontal, con mucha suavidad y con la mínima presión posible, para evitar rayones.

3- En lugares con manchas rebeldes, hagamos movimientos circulares lentos pero firmes.

Con estos procedimientos, aplicados de forma periódica, podremos disfrutar de nuestro monitor de PC de segunda mano durante mucho más tiempo.

5) Averías como:

* En el tubo de imagen, oscurecimiento del mismo.

* Los fallos mas comunes son los relacionados con la alimentación, tales como fallos en los transformadores, soldaduras frías, etc.

* Fallos en la sincronización, perdida de algún canal de color, falta total de imagen.

* El desgaste del tubo es otra avería que se produce con una cierta frecuencia.

* La única avería propia de un monitor es la relativa al cable de conexión con la tarjeta gráfica, que puede dañarse con el uso al doblarlo.

* También puede romperse o doblarse algún pin por mala manipulación del mismo o por forzarlo al conectarlo.

6) Precios : 109 + 86 + 86 + 79 + 55 + 155 + 429 + 249 + 120 + 304 + 47 =1719 : 11 = 156 € precio medio de los monitores.

TRABAJO 7 DISCOS DUROS

1) Evolucion de los discos duros

2) Tipos de discos duros

3) Como se conecta el disco duro a la placa base

4) Media de precios

1) Unos de los más importantes y también unos de los componentes más interesantes dentro del ordenador. Como componentes y tecnología, tienen una larga e interesante historia que se remonta a la década de 1950 y tiene un futuro por delante cuyo final cuesta vislumbrar. Tal vez una de las razones que nos parecen tan fascinante es cómo los ingenieros de las últimas décadas los han hecho mejorar en todos los aspectos: fiabilidad, capacidad, velocidad, consumo de energía, y mucho más. Sobre esto te contamos aquí, donde repasamos algunos momentos claves de la evolución del disco duro en cuanto a capacidad de almacenamiento, formatos y tamaños.


IBM 350 PRIMERA UNIDAD DE ALMACENAMIENTO BASADA EN DISCOS

Componente característico de la IBM RAMAC 305 (Sistema de Contabilidad con Memoria de Acceso Aleatorio, el primer ordenador de venta libre que usaba un  disco duro de cabeza móvil (disco magnético). Este componente fue presentado en septiembre de 1956 y su sistema constaba de 40-50 platos con doble lectura/escritura de la cabeza de un solo brazo que se movía arriba y abajo de la pila de discos duros magnéticos. Esos 50 discos podían almacenar una cantidad de información gigantesca (para la época) de 5 millones de caracteres, que aproximadamente podrían ser 5 mb, aunque en esos momentos un carácter era de 7 bytes y hoy lo son de 8, por lo que estaríamos hablando de 4.2 MB aprox. La tasa de transferencia era de 8.800 bytes por segundo y cada disco medía 61 cm de diámetro. Dos refrigeradores cuidaban esta maquinaria de lujo, que costaba 10.000 dólares por megabyte.

La llegada de los 5,25 y de los 3.5 pulgadas

Primeras semanas de una nueva década y veíamos nacer a la primera unidad de disco duro diseñada con el formato de 5,25 pulgadas. Era 1980, y Seagate sacaba el  ST-506. Este contaba con cuatro cabezales y una capacidad de 5MB. Aquí se generó un conflicto pequeño, porque IBM dejó pasar este primer modelo y fue por el segundo de Seagate, el ST-412, que tenía 10MB, para que fuera incorporado a la IBM PC/XT. Una posterior ampliación de la ST -412 utilizaba RLL para aumentar en un 50 % la capacidad y la velocidad de bits.

Más capacidad, menor tamaño: El nacimiento del disco duro moderno

Los 90 no sólo son la época dorada de las sitcoms y de las boybands de pop, también fue la era en donde los discos duros se hicieron masivos y todos comenzamos a poder cambiar aquellos que venían con los ordenadores de fábrica. En 1991 IBM presenta el 0663 Corsair, de cabezales de película magneto-resistiva (MR). Formato de 3.5 y almacenaba hasta 1GB. Pero es en 1992 donde se hará historia en la evolución moderna, pues Seagate presenta el Barracuda de 2.1 GB que corría a 7200 rpm, rompiendo la frontera de las 5400rpm. En 1996, IBM anuncia la mayor densidad de almacenamiento de 1 mil millones de bits por pulgada cuadrada. Y para cerrar la década, Seagate lanza al mercado la familia de discos duros Cheetah, que lograrán velocidades de giro de hasta 10.000 rpm.

2)

Western Digital WD5000AAKB (Caviar SE16)

Descripción:

Los discos duros IDE de la última generación de Western Digital, Caviar SE16, con 7200 rpm disponen de una caché de 16 MB para un rendimiento vertiginoso, un funcionamiento refrigerado y silencioso, y de 500 GB de memoria para aplicaciones que demandan prestaciones elevadas. Esta segura unidad no es sólo rápida, sino que simultáneamente proporciona una acústica de alto desarrollo tecnológico y bajas temperaturas de funcionamiento. Desarrollado para ordenadores de gama alta, sistemas multimedia y juegos sofisticados.

descarga (4)

Western Digital WD7500AAKS (Caviar SE16)

Descripción:

Las unidades de disco duro SATA de la nueva generación WD Caviar SE16 con 7200 rpm disponen de una caché de 16 MB para un rendimiento fulgurante, un funcionamiento silencioso y refrigerado, y un máximo de 750 GB de memoria para aplicaciones que demandan prestaciones elevadas. Esta segura unidad no es sólo rápida, sino que simultáneamente presenta una acústica de alto desarrollo tecnológico y bajas temperaturas de funcionamiento. Desarrollado para ordenadores de gama alta, sistemas multimedia y juegos sofisticados.

descarga (5)

DISCOS DUROS EXTERNOS, (USB)

Western Digital My Book Essential Edition (Negro, WDH1U10000)

Descripción:

El Western Digital My Book Essential Edition con forma de libro y LED alargado y azul, tiene conexión USB 2.0 y para poder conectarlo a prácticamente cualquier PC o Macintosh de sobremesa o portátil. Gracias a su capacidad de 1000 GB puede almacenarse gran cantidad de datos.

descarga (6)

Conceptronic HD Multimedia 500 GB

Descripción:

Este disco duro funciona como un reproductor multimedia o como disco duro auxiliar. Se puede conectar directamente al TV.

descarga (7)

DISCOS DUROS PARA PORTATILES

Seagate ST973402SS (Savvio 10K.2)

Descripción:

El ST973402SS de Seagate es un disco duro SAS de 2,5″ con unos excelentes valores de rendimiento y es perfecto para servidores rápidos. El ST973402SS con un formato de tan sólo 2,5″ es claramente más pequeño que los modelos de 3,5″ permitiendo a su vez un mayor ahorro energético, lo que representa una clara ventaja en Blade Centers. Está equipado con la rápida conexión SAS (Serial Attaches SCSI) de 300 MB/s Los disco duros SAS son compatibles con controladoras Serial ATA y emplean las mismas conexiones.

descarga (8)

Fujitsu MHX2300BT (12,5 mm de altura)

Descripción:

Interfaz Serial-ATA, el más moderno sistema electrónico, así como niveles de ruido y consumo de energía reducidos, son las principales características de este rápido disco duro de 2,5″ de Fujitsu. A pesar de su compacto formato de 2,5″ y su altura de 12,5 mm, tiene capacidad para 300 GB, una velocidad de 4.200 rpm y una generosa memoria caché de 8 MB.

descarga (9)

3)

Hay 3 pasaos básicos para instalar este tipo de dispositivo.

Poner en la posición correcta los jumper en el disco duro

Conectar los cables que correspondern y colocar el disco duro.

Encender el ordenador y asegurarse que el disco es reconocido.

Es sistema es igual al que usamos cuando instalamos un CD-ROM

En la siguiente fotografía mostramos la parte de atrás de un disco duro donde podemos ver los jumpers y el conector del cable IDE.

disco duro

A la derecha podemos ver el conector del cable IDE. Una punta del cable irá conectado en el conector y la otra puntar debe ir a la placa base. Tienes que recordar que el conector final del cable IDE es el maestro o ”master” y el conector central es el esclavo o ”slave”. Hay un reborde que impide la conexión errónea dando al conector una sola posición al conectar.

En la parte central de la foto, podemos ver los Jumper. Normalmente ponemos nuestro disco duro, sobre todo si es el primero, en modo maestro. Debemos poner los Jumper en dicha posición. Estas posiciones nos vendrán escritas en el propio disco duro y en las especificaciones del equipo (manual).

Por último, a la izquierda tenemos la conexión de alimentacion. Aquí se conectará el cable que alimenta a los distintos equipos internos del ordenador y que sale de la Fuente de alimentación.

En las siguientes fotografías podemos observar un cable IDE y los conectores de los cables de alimentación. En un mismo cable IDE podemos tener un maestro y un esclavo. Hay que prestar atención al colocar los jumper dependiendo de cual sea su papel y luego realizar la correspondiente conexión con el cable. Si por ejemplo ponemos ambos en modo maestro, alguno de los dispositivos nos puede ocasionar problemas.

idecable alimentacion

Tenemos una opción de poner el jumper en modo ”seleccionar cable” que se auto ajustará a cualquier conector que lo pongas, aunque no todos los discos duros soportan esta función.

Ahora solo quedaría colocar y atornillar el disco duro en la caja para que quede fijo. Cuando hayamos cerrado la tapa de la caja, podremos encerder el ordenador y ver si el sistema reconoce el nuevo hardware.

disco duro

Puede que tengas que entrar a la BIOS y comprobar que el canal IDE apropiado está configurado en AUTO, para que auto detecte el disco duro. Muchas placas base vienen con los canales IDE en modo AUTO por defecto. Si no es así, tendrás que cambiarlo.

Para entrar en el sistema BIOS aprieta la tecla suprimir poco después de haber arrancado el sistema.

Haz una búsqueda en el menú y entra en el apartado de los canales IDE. Si has tenido que hacer algún cambio, no olvides de salvar la configuración al salir de la BIOS. El disco dura será automáticamente instalado y podrás empezar a utilizarlo sin problemas.

4)

84+60+55+95+45+54+185+102+62+99 = 831 : 10 = 83,1 € precio medio de los discos duros

TRABAJO 6 MEMORIAS RAM

1) HISTORIA (EVOLUCIÓN)

2) TIPOS DE MEMORIAS RAM

-NOMBRE

-VELOCIDADES

-TAMAÑO

-FOTO

3) ¿QUÉ ES DUAL CHANNEL?

4) ¿FUNCIONA UN ORDENADOR SIN MEMORIA RAM? ¿POR QUÉ?

1) HISTORIA (EVOLUCIÓN)

A lo largo de la historia, la humanidad, siempre ha tenido la necesidad de trabajar con datos. Por supuesto, el mundo de la programación en la computación no podía ser menos. E igual que con todo, los comienzos resultaron ser rudimentarios, cuando menos, teniendo que mover la información bit a bit. Mejorando esto, pasamos a formar palabras, los bytes, automatizando el proceso. Derivado de estos comienzos, acabamos con el diseño de la tabla ASCII, que asignaba 1 valor a cada una de las 256 posibles combinaciones de una red de 16×16 bytes.

Sin embargo, el proceso seguía siendo demasiado lento, ademas de poco productivo,  pues los programadores no veían los resultados ”en pantalla”, si no que tenían que imprimir el estado del programa. Con el paso del tiempo, pasamos de depender de tarjetas perforadas a memorias de acceso secuencial, que tenían que ser leídas de principio a fin. Y en diferencia con estas cintas de memoria, surgió nuestra RAM o ”Memoria de Acceso Aleatorio” (Random Access Memory).

2) TIPOS DE MEMORIAS RAM

VRAM  permite mejores rendimientos gráficos aunque es más cara que la una RAM normal. Su tamaño es de 16mb, 8mb, 4mb, y 2gb.

popopoopoea

SIMM Hay de dos tipos de 30 y de 72 pines. Los de 30 vienen en capacidades de 256K y 1Mb y ya casi no se usan. Los de 72 vienen en versiones de 4, 8, 16, 32. Su tamaño es aproximadamente entre 25 MHz y 33 MHz. 

RAM Disk son aproximadamente miles de veces más rápidos que los discos duros, y son particularmente útiles para aplicaciones que precisan de frecuentes accesos a disco. Su tamaño es de 4gb, 8gb, 16gb..

SRAM No necesita tanta electricidad para su refresco y reemplazo de las direcciones y funciona más rápido porque no está reemplazando constantemente las instrucciones y los valores almacenados en ella. Su tamaño normalmente son de 1gb

DRAM es utilizado para referirse a la DRAM y distinguirla de la RAM estática (SRAM) que es más rápida y más estable que la RAM dinámica, pero que requiere más energía y es más cara. Su tamaño suele ser de 512mb, 1gb…

SDRAM También conocido como DDR DRAM o DDR SDRAM (Double Data Rate DRAM o SDRAM), permite leer y escribir datos a dos veces la velocidad bús. Su tamaño es normalmente de 4gb, 8gb, 16gb…

EDO Siglas de Extended Data Output, un tipo de chip de RAM dinámica que mejora el rendimiento del modo de memoria Fast Page alrededor de un 10%. Al ser un subconjunto de Fast Page, puede ser substituida por chips de modo Fast Page. Su tamaño máximo no llega a 128mb

BEDO (Burst EDO) es un tipo más rápido de EDO que mejora la velocidad usando un contador de dirección para las siguientes direcciones y un estado ‘pipeline’ que solapa las operaciones.

PB SRAM La PB SRAM trabaja de esta forma y se mueve en velocidades de entre 4 y 8 nanosegundos.

 

3) ¿Qué es Dual Channel?

Es una tecnología para memorias que incrementa el rendimiento de estas al permitir el acceso simultáneo a dos módulos distintos de memoria. Esto se consigue mediante un segundo controlador de memoria en el NorthBrigde

4)¿Funciona un ordenador sin memoria RAM? ¿Por qué?

No puede funcionar, porque Sin RAM la PC no inicia. y la memoria RAM (Random Access Memory o memoria de acceso aleatorio) es una memoria que utilizan las computadoras para almacenar los datos y programas. Y es donde la computadora guarda los datos que está utilizando en el momento presente, por eso es muy importante.

Trabajo 5 : PROCESADORES (CPU)

1) Historia (EVOLUCIÓN).

2) Marcas Comerciales de CPU’s.

3) Precios (Tiendas informáticas.

4) Futuro (investigación)

1) Historia (evolución)

El primer procesador comercial, el Intel 4004, fue presentado el 15 de noviembre de 1971. Los diseñadores fueron Ted Hoff y Federico Faggin de Intel, y Masatoshi Shima de Busicom (más tarde ZiLOG).

Los microprocesadores modernos están integrados por millones de transistores y otros componentes empaquetados en una cápsula cuyo tamaño varía según las necesidades de las aplicaciones a las que van dirigidas, y que van desde el tamaño de un grano de lenteja hasta el de casi una galleta. Las partes lógicas que componen un microprocesador son, entre otras: unidad aritmético-lógica, registros de almacenamiento, unidad de control, Unidad de ejecución, memoria caché y buses de datos control y dirección.

Existen una serie de fabricantes de microprocesadores, como IBM, Intel, Zilog, Motorola, Cyrix y AMD. A lo largo de la historia y desde su desarrollo inicial, los microprocesadores han mejorado enormemente su capacidad, desde los viejos Intel 8080, Zilog Z80 o Motorola 6809, hasta los recientes Intel Core 2 Duo, Intel Core 2 Quad, Intel Xeon, Intel Itanium II, Transmeta Efficeon o Cell.

Ahora los nuevos microprocesadores pueden tratar instrucciones de hasta 256 bits, habiendo pasado por los de 128, 64, 32, 16, 8 y 4 bits. Desde la aparición de los primeros computadores en los años cuarenta del siglo XX,

Antecedentes
Entre estas evoluciones podemos destacar estos hitos:

•ENIAC (Electronic Numeric Integrator And Calculator) Fue un computador con procesador multiciclo de programación cableada, esto es, la memoria contenía sólo los datos y no los programas. ENIAC fue el primer computador, que funcionaba según una técnica a la que posteriormente se dio el nombre de monociclo.

•EDVAC (Electronic Discrete Variable Automatic Computer) fue la primera máquina de Von Neumann, esto es, la primera máquina que contiene datos y programas en la misma memoria. Fue el primer procesador multiciclo.

•El IBM 7030 (apodado Stretch) fue el primer computador con procesador segmentado. La segmentación siempre ha sido fundamental en Arquitectura de Computadores desde entonces.

•El IBM 360/91 supuso grandes avances en la arquitectura segmentada, introduciendo la detección dinámica de riesgos de memoria, la anticipación generalizada y las estaciones de reserva.

•El CDC 6600 fue otro importante computador de microprocesador segmentado, al que se considera el primer supercomputador.

•El último gran hito de la Arquitectura de Computadores fue la segmentación superescalar, propuesta por John Cocke, que consiste en ejecutar muchas instrucciones a la vez en el mismo microprocesador. Los primeros procesadores superescalares fueron los IBM Power-1.

2) Marcas comerciales de CPU’s

AMD

descarga (3)descarga (2)

Advanced Micro Devices

Cirrus Logic

Cyrix

VIA Technologies

Zilog, Zilog Microcontrolers

PowerPC, IBM PowerPC Microprocesador

Motorola, Motorola

MMC, MMC Networks

Intel

descarga (1)   descarga

3) Precios ( Tienda Informática )

Procesadores AMD AM3 = 48 € precio medio

Procesadores AMD AM3+ = 154,7 € precio medio

Procesadores AMD FM1 = 75,4 € precio medio

Procesadores AMD FM2 = 83,3 € precio medio

Procesadores Intel Core i3/i5/i7 1150 = 197,81 € precio medio

Procesadores Intel Core i3/i5/i7 1155 = 128 € precio medio

Procesadores Intel Core i7 SK 2011 = 415 € precio medio

4) Futuro ( Investigación )

Ya en los últimos eventos de este año, Intel anunció que ”Haswell” ofrecerá una nueva arquitectura de 22 nm a partir del 2013.

Luego de esto viene el siguiente paso en la estrategia de ”Tick-Tock”: la arquitectura ”Skylake” de 14 y 10 nm.

Con ”Romley” se cumplió con el primer paso, gracias al PCI Express 3.0, al usar múltiples procesadores usar conexiones LAN duales a 40 Gbit/s. A partir de ”Skylake” se espera la aparición de PCI Express 4.0 que permitirá 100 Gbit/s a partir de fines de 2016.

Por lo pronto la información que se tiene sobre los procesadores de 22nm es que su perfomance se incrementará en un 37% y su consumo se reducirá mas del 50%!! Los 10nm del Skymont que es menos de la mitad de tamaño consumirán la mitad también?

Otro dato interesante es que los actuales ”Gulftown” de 32nm (entre ellos las ediciones extreme de i7) poseen 1170 millones de transistores. Los 22nm superarán los 2000 millones.

Aparte de PCI Express 4.0, otra tecnología que está por cumplir una nueva versión es DDR, que a partir de 2012 tendra su version 4. DDR4 correrá a 2.133 y 2.667 MHz de forma estándar, y versiones especiales llegarán a los 3.200MHz.. Todo esto consumiendo menos energía ya que necesitarán 1.2 voltios ( DDR3 1.5v)

TRABAJO 4 : PLACA BASE

TRABAJO 4: PLACA BASE

 

1) Tipos de placa base

 

2) Dimensiones de los diferentes tipos

 

3) Partes características de las placas base

 

4) Precios de placas base

 

5) Fallos más comunes en las placas base

 

 

1) Tipos de placa base

 

ATX : Incluyen un tipo de conector a la Fuente de alimentación de 24 (20+4) contactos (pines) que permiten una única forma de conexión y otro conector adicional llamado P4, de 4 contactos. Algunas de las ventajas de este tipo de placas son:

  • Integración de los puertos E/S en la propia placa base.

  • La rotación de 90º de los formatos anteriores.

  • El procesador está en paralelo con los slots de memoria.

  • Los slots AGP, PCI, PCI-e, están situados horizontalmente con el procesador.

  • Tiene mejor refrigeración.

microATX o µATX : Diseñadas inicialmente para ser compatibles con las placas ATX. Las placas microATX suelen tener tres puertos de expansión por cinco las ATX. Para evitar la ocupación de puertos y ahorrar espacio en la caja, las placas microATX incluyen algunos componentes (como por ejemplo la tarjeta gráfica) integrados en la propia placa base, lo que facilita su utilización en equipos de reducido tamaño como los centros multimedia.

BTX : introducidas en 2004, presentan una evolución sobre las placas ATX. Las CPUs y las tarjetas gráficas consumen cada vez más potencia, lo que hace que se desprenda mayor calor. Las placas ATX no fueron diseñadas para esos niveles de calor, lo que hacía que se generasen algunos errores. Por ello fue necesario la aparición de otro tipo de placas, en este caso, las placas BTX. A pesar de que los factores de forma de las placas ATX y BTX son incompatibles entre sí, la fuente de alimentación puede ser la misma al utilizarse el mismo conector. Existen varios factores derivados de BTX, como son la microBTX.

DTX : las placas bases DTX tienen una serie de ventajas que permiten reducir costes en la producción. Fueron diseñadas para caber sin problemas en un chásis ATX convencional.incluye dos ranuras de expansión que pueden ser PCI o PCI-Express. Las placas DTX utilizan un conector de corriente de 24 pines y un conector adicional de 2×2.

  • Con el tamaño de una placa normal, se podrían construir hasta cuatro placas DTX.

  • Las placas base DTX se pueden fabricar en cuatro capas de cableado reduciendo los costes de la producción de la placa base

 

2) Dimensiones de los diferentes tipos

ATX : 305x244mm

microATX o µATX : 244mm × 244 mm

BTX : como son la microBTX (264x266mm) y la picoBTX (203x266mm).

DTX : (200mm x 244mm)

3) Partes características de las placas base

zócalo del microprocesador

  • ranuras de memoria (SIMM, DIMM…)

  • chipset

  • BIOS

  • slots de expansión (ISA, PCI, AGP…)

  • memoria caché

  • conectores internos

  • conectores externos

  • conector eléctrico

  • pila

3.1 Zócalo del microprocesador

También denominado socket, el zócalo de microprocesador es el lugar donde se inserta el microprocesador. Cada microprocesador tiene su propio tipo de socket. El zócalo va soldado sobre la placa base de manera que tiene conexión eléctrica con los circuitos del circuito impreso. En los últimos años el número de pines ha aumentado de manera substancial debido al aumento en el consumo de energía y a la reducción de voltaje de operación. En los últimos 15 años, los procesadores han pasado de voltajes de 5 V a algo más de 1 V.  Cada fabricante de microprocesadores suele tener sus propios sockets. Algunos tipos de sockets son:

  • PGA

  • ZIF

  • Socket AM3

  • Socket 423

3.2 Ranuras de memoria

Es la zona donde se pinchan los módulos de memoria RAM. La cantidad y el tipo de zócalos depende de la placa.Hace unos años podíamos ver diferentes tipos de ranuras, dependiendo también del tipo de memoria que quisiéramos utilizar (SIMM o DIMM).

Actualmente el formato de zócalo utilizado para la memoria RAM es el DIMM. Dentro de este formato también nos podemos encontrar tres tipos de zócalos:

  • DIMM 240 contactos: para memorias DDR2 y DDR3.

  • DIM 184 contactos: para memoria DDR.

  • DIMM 168 contactos: para memoria SDR.

En los ordenadores portátiles nos encontramos con otro tipo de zócalos DIMM denominados SO-DIMM. Su tamaño es aproximadamente la mitad de un zócalo DIMM convencional. Dependiendo del tipo de memoria que utilicen (DDR3, DDR2, DDR o SDR) existen zócalos SO-DIMM de 204, 200 y 144 contactos respectivamente.

3.3 Chipset

El chipset es un conjunto de circuitos integrados (chips) que actúa como interconexión entre el procesador y el resto de los elementos de la placa base. Sirve como medio de comunicación entre el procesador y los otros componentes de la placa base, proporcionando el medio a través del cual circula la electricidad necesaria y las señales de control.

Dentro de los circuitos que integran el chipset destacan el puente norte (North bridge) y el puente sur (South bridge).

  • Puente norte: Es el circuito más importante del chipset, situado en la parte superior de la placa muy próximo al microprocesador. Se encarga de comunicar los dispositivos de alta velocidad, como la memoria RAM, el microprocesador, etc.

  • Puente sur: Se encarga de comunicar los dispositivos de entrada/salida que trabajan a baja velocidad. El puente sur se conecta indirectamente con el microprocesador a través del puente norte. Su ubicación es variable, aunque suele encontrarse en el extremo opuesto donde se encuentra el microprocesador, junto a los slots de expansión. Algunos de los dispositivos que se controlan a través del puente sur son las unidades de almacenamiento, la tarjeta de sonido, la tarjeta de sonido, etc.

El chipset determina algunas características del PC como son la cantidad de memoria RAM que se puede soportar, cantidad de puertos USB, número de discos soportados, velocidad de comunicación, calidad del acelerador gráfico, buses PCI y el grado de administración remota que permite el ordenador.

En ocasiones habíamos dicho que el microprocesador equivaldría al cerebro de las personas, capaz de controlar todas las operaciones internas. En este caso, el chipset funcionaría como la columna vertebral, a través del cual se comunicarían todas las operaciones al resto del cuerpo.

3.4 BIOS

La BIOS (Basic Input output System) es el elemento fundamental en el arranque del ordenador. Se trata de una pequeña memoria que contiene un programa capaz de controlar a más bajo nivel los elementos hardware del ordenador. La BIOS se encarga de comprobar los dispositivos conectados a la placa a la hora de encender el ordenador y de localizar e iniciar el arranque del sistema operativo para pasarle el control posteriormente al microprocesador.

La BIOS es un componente que viene instalado en el ordenador por el propio fabricante e incluye una serie de valores por defecto. Sin embargo, esos valores pueden ser modificados por el usuario según sus necesidades. Hay que tener en cuenta que en caso de que la BIOS sufriera algún daño, la placa base quedaría inutilizada, ya que sería imposible arrancar el ordenador.

La configuración de la BIOS se mantiene almacenada gracias a una fuente de energía que suele ser una pila. Para restaurar los valores por defecto que traía la BIOS de fábrica, basta con aislarla de la alimentación durante unos instantes.

 

Su ubicación dentro de la placa es variable, aunque suele identificarse fácilmente gracias a una pegatina plateada del fabricante que indica el tipo de BIOS utilizada.

Los principales fabricantes de BIOS son Award, AMI y Phoenix.

3.5 Slots de expansión

Los componentes del ordenador se comunican a través de buses. Un bus no es más que un conjunto de hilos que conectan dos o más dispositivos. Existen diferentes tipos de buses: datos, direcciones y control. Las ranuras o slots de expansión son conectores que nos permiten conectar dispositivos adicionales a la placa base, por ejemplo la tarjeta gráfica. Los principales tipos de ranuras o slots son:

  • PCI (Peripheral Component Interconnect, en español, “Interconexión de Componentes Periféricos”. Es un bus estándar que permite conectar dispositivos periféricos directamente a la placa base. Las ranuras PCI son comunes en los ordenadores modernos, desplazando a las anteriormente utilizadas ISA y VESA; sin embargo, PCI será próximamente reemplazado por PCI Express, que ya es estándar en la mayoría de los nuevos ordenadores.

    PCI fue desarrollado por Intel y trabaja a una frecuencia de reloj de hasta 133MHz.  Permite la configuración automática o plug and play de las tarjetas de expansión conectadas. PCI es independiente del procesador y requiere un controlador de bus PCI. Es capaz de soportar hasta 10 periféricos conectados (5 en tarjetas y 5 integrados en la placa base).

 

 

Dependiendo del número de bits y del voltaje utilizado nos encontramos con varios estándares. El más utilizado hoy día es el PCI 3.0 que usa 32 bits y funciona a 3.3 V.

  • PCI-X (PCI eXtended) es un tipo de bus y estándar de tarjetas de expansión que fue desarrollado como evolución del bus PCI. PCI-X posee un mayor ancho de banda que PCI y es capaz hasta cuadruplicar la velocidad de reloj. Su desarrollo fue necesario ya que algunos dispositivos saturaban por completo el ancho de banda del bus PCI (de sólo 133 MHz). 

    PCI-X normamalmente es compatible hacia atrás con la mayoría de tarjetas basadas en el estándar PCI, dando lugar a que una tarjeta PCI se pueda instalar en una ranura PCI-X.

     

  • PCI-Express (anteriormente conocido por las siglas 3GIO, 3rd Generation I/O) es un nuevo desarrollo del bus PCI. PCI-Express no tiene nada que ver con PCI-X, y es capaz de aumentar el ancho de banda mediante el incremento de la frecuencia, llegando a ser 32 veces más rápido que el PCI normal. La velocidad de PCI-X es mayor que PCI-Express, pero presenta el inconveniente de que al instalar más de un dispositivo la frecuencia base se reduce y pierde velocidad de transmisión. Cada slot de expansión lleva uno, dos, cuatro, ocho, dieciséis o treinta y dos enlaces de datos entre la placa base y las tarjetas conectadas.

    El número de enlaces se escribe con una x de prefijo (x1 para un enlace simple y x16 para una tarjeta con 16 enlaces. 32 de 250MB/s dan el máximo ancho de banda, 8 GB/s (250 MB/s x 32). En el uso más común (x16) proporcionan un ancho de banda de 4 GB/s (250 MB/s x 16).

    En la siguiente fotografía se muestran varios slots PCI Express; de arriba a abajo: x4, x16, x1 y x16, mientras que el que está más abajo es un slot tradicional PCI de 32 bits.

     

  • La variante de PCI para aspectos gráficos son las ranuras AGP. Estos slots funcionan a 32 bits pero incluyen mejoras orientadas a mejorar el rendimiento de la tarjeta gráfica. Su velocidad base es de 66MHz, aunque suelen encontrarse factores multiplicadores de hasta x1, x2, x4 o x8. Estas versiones no se distinguen físicamente. Las diferencias físicas tienen más relevancia con los modelos y los voltajes que utilizan, como se muestra en esta figura. 

Debido a sus características sólo es posible disponer de un slot AGP por placa, identificándose claramente por ser de color marrón. Existen placas que no disponen de estos slots ya que han ido siendo reemplazados por los PCI-Express

3.6 Conectores internos

Si obsevamos la placa base, podemos identificar otro tipo de conectores:

3.6.1 Conectores de corriente

También denominado conector de corriente ATX en alusión al modelo de fuente de alimentación. Este conector es de 20pines aunque en las placas más modernas, con mayores requerimientos eléctricos, se suele encontrar un conector de 24 pines o bien, una extensión de 4 pines que proporcionan 12V en lugar de los 5 genéricos.

Otro conector de corriente necesario es el del ventilador. Dentro del equipo suelen alcanzarse temperaturas altas, lo que supone una bajada en el rendimiento del equipo. Por ello, es necesario una buena refrigeración dentro del equipo para lo cual las placas más modernas suelen incorporar tres o más conectores para ventiladores.

3.6.2 Interfaz IDE y SATA

Las interfaces son las encargadas de transmitir los datos entre los distintos componentes y periféricos de nuestro sistema. Estas interfaces son importantes de cara al rendimiento de nuestro ordenador, ya que aunque tengamos el procesador más potente, si la interfaz no tiene la velocidad suficiente para enviarle los datos que necesita, habrá que que esperar y por tanto el rendimiento del sistema bajará notablemente.

La interfaz IDE (Integrated Drive Electronics, electrónica de unidades integradas) también denominada ATA paralelo o simplemente PATA, se utiliza para conectar discos duros, grabadoras o lectores de CD/DVD. Se caracteriza por su bajo coste y por su alto rendimiento; equiparable al de las unidades SCSI, que poseen un coste superior. La mayoría de las unidades de disco actuales utilizan este interfaz debido a su bajo precio y a la facilidad de instalación, ya que no es necesario añadir ninguna tarjeta adicional a nuestro ordenador. Para la conexión de estos dispositivos es necesario un cable IDE

Normalmente las placas han incorporado dos modelos de puertos IDE: el puerto IDE de 34 pines para la disquetera (FDD) y el puerto IDE de 40 pines para el resto de unidades.

Esta interfaz trabaja a 16bits y llega a alcanzar velocidades de 133MBps (como un slot PCI de 32 bits).

La interfaz SATA (Serial Advanced Technology Attachment) ha sido diseñada para sobrepasar los límites de la actual interfaz IDE. La interfaz Serial ATA (SATA) es compatible con todos los sistemas operativos y poco a poco irá sustituyendo a la interfaz IDE. Cabe destacar que las placas bases actuales soportan ambos tipos de interfaces.

Gracias a esta interfaz, podremos obtener mayores velocidades, crear discos duros de mayor capacidad y reducir el consumo eléctrico de las unidades. Además, el cable mediante el cual la unidad se conecta a la placa base es mucho más pequeño (7 conectores), lo que ayuda a mejorar la ventilación dentro del ordenador.

Esta interfaz ha evolucionado dando lugar al SATA-2 y al SATA-3. Con este último, se llegan a alcanzar velocidades de hasta 6GBps.

3.6.3 Conectores frontales

La placa base también suele incorporar una serie de conectores correspondientes a elementos externos a la placa que se encuentran en el panel frontal del ordenador (en la torre). Estos conectores suelen corresponderse con los siguientes elementos:

  • Botón de encendido.

  • Botón de reset.

  • LED de encendido

  • LED de actividad del disco duro

  • Altavoz interno

  • USB frontales

La conexión de estos conectores varía de una placa a otra por lo que es necesario consultar el manual de la placa para realizar la conexión correcta. No obstante, en las placas actuales los conectores se diferencian por colores y por su descripción impresa al lado del jumper que le corresponde.

3.6.4 Jumpers de configuración

Un jumper es un elemento que permite unir dos terminales permitiendo cerrar el circuito eléctrico del que forma parte.  Estos elementos permiten configurar el hardware o dispositivos que se conectan al ordenador. Un uso muy común es en la configuración de discos duros y lectoras de CD/DVD del tipo IDE. 

Los jumpers permiten utilizar diferentes configuraciones (maestro, esclavo…) según la posición en la que se encuentren. Son utilizados para definir el voltaje y la velocidad del microprocesador de forma mecánica,  aunque esta característica ha quedada obsoleta. Actualmente estos parámetros son determinados a través de software.

Actualmente, para configurar el voltaje de alimentación del procesador, la velocidad del reloj, la velocidad del bus, etc. hay una tendencia de hacer las placas “jumperless”, es decir, sin jumpers, totalmente configurables por software.Es más, en la nueva interfaz SATA ya no son necesarios los jumpers.

3.7 La pila

La pila del ordenador, o más correctamente el acumulador, se encarga de conservar los parámetros de la BIOS cuando el ordenador está apagado. Sin ella, cada vez que encendiéramos tendríamos que introducir las características del disco duro, del chipset, la fecha, la hora, etc.

Se trata de un acumulador que se recarga cuando el ordenador está encendido. La pila, con el paso de los años, va perdiendo poco a poco su capacidad (como todas las baterías recargables) y llega un momento en que hay que cambiarla. Esto, que ocurre entre 4 y 6 años después de la compra del ordenador, puede vaticinarse observando si la hora del ordenador se retrasa más de lo normal.

Para cambiarla es importante apuntar todos los parámetros de la BIOS para reescribirlos posteriormente. Basta sacar la pila, y reemplazarla por otra igual.

4) Precios de placas base

304 + 353 + 423 + 66 + 129 + 179 + 129 + 188 + 70 + 111 = 1953 : 10 = 195,3 € precio medio de las placas base

5) Fallos más comunes en las placas base

Los fallos en la tarjeta madre son críticos para el sistema, porque una tarjeta madre dañada puede dañar todos los componentes conectados a ella, incluyendo el procesador, la memoria, tarjetas añadidas e incluso dispositivos externos conectados a los puertos de la placa o motherboard.

Las tarjeta madre o motherboard pueden fallar por las siguientes razones:

 

1) Descarga electrostática.

2) Picos de energía, fallos en la fuente de energía electrica.

3) Daños físicos (golpes o impacto) durante la instalación de un procesador o bien del procesador.

4) Flexión excesiva durante el proceso de instalación de un procesador o de memoria.

5) Daño en componentes junto al zócalo del procesador durante la instalación de un nuevo procesador.

6) Componentes sueltos dentro del sistema que impactan cuando se mueve el sistema.

7) Sobrecalentamiento del chip de puente norte.

8) Cortocircuitos en componentes después de la instalación. 

TRABAJO 3 : CAJAS

TRABAJO 3: CAJAS

 

1) TIPOS Y CARACTERÍSTICAS (TABLA)

2) PRECIOS ( 10PRECIOS/TIPO->MEDIA)

3) DISTRIBUCION DEL AIRE EN LA CAJA

 

1) TIPOS Y CARACTERÍSTICAS (TABLA)

 

 

TIPOS

CARACTERÍSTICAS

Semitorre

Como ya he comentado es el tipo de torre más común. Son torres de tamaño mediano y con suficiente espacio en su interior para cubrir las necesidades de un usuario normal. Normalmente disponen de 4 bahías de 5 ¼, entre 4 y 6 de 3 ½ y además ofrecen bastantes posibilidades de expansión mediante tarjetas.

Full Tower

Son más grandes que las semitorres. Están pensadas para los usuarios más exigentes debido a que tienen mucho espacio en su interior, lo que por ejemplo, permite instalar bastantes discos duros, dispositivos ópticos (Grabadoras/Lectores de DVD), tarjetas gráficas o disipadores de gran tamaño, refrigeración líquida, etc.

Micro ATX minitorre

Tienen un tamaño más pequeño que las semitorres. Suelen disponer de 2 o 3 bahías de 5 ¼, de 2 a 4 bahías de 3 ½ y se utilizan principalmente para ordenadores con uso ordinario (navegar por Internet, correo electrónico, procesadores de texto, juegos simples), o uso en oficinas y despachos.

Sobremesa

No se diferencian mucho de las cajas micro ATX, a excepción de que en lugar de colocarse en vertical se colocan en horizontal sobre una mesa o escritorio.

HTPC

Son las siglas de Home Theater Personal Computer, que puede traducirse al español como ordenador personal de cine en casa. Este tipo de cajas están pensadas para ofrecer entretenimiento multimedia (video, música, etc), con unos diseños elegantes y de formas variadas (imagen 6) y disponen de características especiales para su manejo, como por ejemplo, mando a distancia para su funcionamiento o pequeñas pantallas LCD para mostrar información básica.Algo en contra de estas cajas es que a veces sufren de un calentamiento excesivo, debido a que no disponen de mucho espacio para instalar ventiladores para su refrigeración. También existen Barebones premontados dentro de este tipo de cajas.

Mini-ITX

Este tipo de cajas son de formato muy reducido. La función es la misma que las HTPC con menor tamaño, pero también con menos extras y menos posibilidades de expansión. (imagen 8) A la hora de elegir entre un formato u otro, se debe tener en cuenta el uso que se le vaya a dar al ordenador, los componentes que serán instalados dentro y también tener en cuenta las posibles ampliaciones que puedas hacer en el futuro. Por ejemplo, no sería lo más lógico coger para un PC que vaya a usarse para multimedia y que vaya a estar un el salón de casa, una caja tipo FullTower.

 

 

 

 

 

 

 

 

2) DISTRIBUCIÓN DEL AIRE EN LA CAJA

 

* Refrigeración:

 

Este es otro punto esencial que debemos tener en cuenta a la hora de comprar nuestra caja.
Es importante que la refrigeración dentro de la caja sea buena, puesto que hoy día, varios de los componentes de un PC (gráfica, procesador, etc.), generan bastante calor y debe poder ser extraído de manera eficaz del interior de la caja.
Dentro de la caja debe formarse un flujo de aire por el cual, el aire caliente salga y el aire fresco entre, todo ello de manera eficiente (
imagen 9), por lo que debemos elegir una caja que tenga varios puntos en los que podamos instalar ventiladores.



Imagen 9: Flujo de aire idóneo
en el interior de la caja

 

 

 

 

3) PRECIOS (10 PRECIOS/TIPO → MEDIA)

 

 

SEMITORRE : 48,90€, 41,96€, 45,90€, 39€, 41,90€, 43,90€, 112,63€, 42€, 40,36€, 91,26€ = 541,70€ : 10 = 54,751€ es el precio medio de las semitorres.

 

FULLTOWER : 529, 498, 528, 710, 585, 528 = 3378 : 6 = 563 € es el precio medio de las Full tower.

 

MICROATXMINITORRE : 31, 30 , 43, 23, 27, 21, 33, 72, 70 ,19 = 369 : 10 = 36,9 € precio medio de las Micro ATX minitorres.

 

SOBREMESA : 63, 39, 38, 28, 75, 34, 49, 203, 172, 194 = 895 € : 10 = 89,5€ precio medio de las sobremesa

 

HTPC : 40, 249, 157, 40, 21 , 31, 192, 94, 172, 27 = 1023 € : 10 = 102,3 € precio medio de los HTPC.

 

MINIITX: 19, 44 , 54, 99 , 42, 88, 38, 117, 28, 34 = 561 € : 10 = 56,1 € predio medio de las MINI ITX

 

Trabajo 2: Ordenadores

TRABAJO 2 : ORDENADORES

 

 

1) HISTORIA DE LOS ORDENADORES (TABLA)

2) ¿QUÉ ES HARDWARE?

3) ¿QUÉ ES SOFTWARE?

4) PARTES DE UN ORDENADOR BREBE EXPLICACIÓN DE CADA PARTE

 

 

 

AÑO

INVENTO

AUTOR

1642

Calculadora mecánica

Blaise Pascal

1880

Telar automático

Joseph Marie Jacquard

1939-1945

Primer ordenador digital totalmente electrónico: El colossus

Trabajadores de Bletchley Park

1945

El eniac

 

1960

Circuito integrado varios transitores

 

 

 

2) ¿Qué es hardware?

 

Se refiere a todo lo físico que podemos ver en la computadora

 

 

3) ¿Qué es software?

Software Libre se refiere a la libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, cambiar y mejorar el software. De modo más preciso, se refiere a cuatro libertades de los usuarios del software:

  • La libertad de usar el programa, con cualquier propósito libertad 0).

  • La libertad de estudiar cómo funciona el programa, y adaptarlo a tus necesidades (libertad 1). El acceso al código fuente es una condición previa para esto.

  • La libertad de distribuir copias, con lo que puedes ayudar a tu vecino (libertad 2).

  • La libertad de mejorar el programa y hacer públicas las mejoras a los demás, de modo que toda la comunidad se beneficie. (libertad 3). El acceso al código fuente es un requisito previo para esto.

4) Partes de un ordenador (Breve explicación de cada parte)

 

En informática también se aplica a los periféricosde una computadora tales como el disco duro,CD-ROM,disquetera (floppy). En dicho conjunto se incluyen los dispositivos electrónicos y electromecánicos, circuitos, cables, armarios o cajas, periféricosde todo tipo y cualquier otro elemento físico involucrado.

Tipos de Hardware

1.Hardware de un Servidor:

Se clasifica generalmente en básico y complementario, entendiendo por básico todo aquel dispositivonecesario para iniciar el funcionamiento de la computadora, y el complementario, como su nombre indica, sirve para realizar funciones específicas (más allá de las básicas) no estrictamente necesarias para el funcionamiento de la computadora.

Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar instrucciones programadas que consisten en operaciones aritmetilógicas y de entrada/salida; reciben entradas (datos para su procesamiento), producen salidas (resultados del procesamiento), procesan y almacenan información.

2.Periféricos de entrada (E)

Son los que permiten al usuario que ingrese información desde el exterior. Entre ellos podemos encontrar:teclado,mouse o ratón,escáner, SAI (Sistema de Alimentación Ininterrumpida),micrófono,cámara web, lectores de código de barras,Joystick, etc.

·Ratón o Mouse:Es un dispositivo empleado para señalar en la pantalla objetos u opciones a elegir; desplazándose sobre una superficie según el movimiento de la mano del usuario.

Normalmente se utilizan dos botones del ratón, el principal y el secundario que corresponden con el botón izquierdo y derecho respectivamente. Si eres zurdo puedes cambiar esta configuración en Configuración, Panel de Control, icono Mouse y activar la casilla “Zurdo”. Con el botón principal se realizan las operaciones más usuales como hacer clic, doble clic y arrastrar. Mientras que con el botón secundario normalmente aparece el menú contextual.

·Teclado:Es el periférico de entrada por excelencia, introduce texto escrito en la computadora. Este dispositivo ha ido evolucionando con la incorporación de teclas y nuevas funciones, pulsando las mismas se introducen números, letras u otros caracteres, también se puede realizar determinadas funciones al combinar varias de ellas.

Entre las partes del teclado podemos distinguir: el teclado numérico, que facilita el trabajo con datos numéricos, las teclas de navegación que permiten ir rápidamente al principio de una línea, pagina o documento, las teclas especiales y de función.

·Escáner: Se emplea para digitalizar una imagen y sonidos, convirtiéndolos en archivos manejables en la computadora, solo se requiere un micrófono que se conecta a la carcasa de la misma. La resolución en un escáner se mide en puntos por pulgada y se expresa con 2 números.

3.Periféricos de salida (S)

Son los que muestran al usuario el resultado de las operaciones realizadas por el PC. En este grupo podemos encontrar: monitorimpresoraaltavoces, etc.

  • Monitor:es el dispositivo en el que se muestran las imágenes generadas por el adaptador de vídeo del ordenador o computadora. El término monitor se refiere normalmente a la pantalla de vídeo y su carcasa.

El monitor se conecta al adaptador de vídeo mediante un cable. La calidad del monitor se mide por su tamaño (especificado como la longitud de la diagonal de la pantalla, medida en pulgadas), el tamaño del punto, la frecuencia de barrido horizontal y la frecuencia de barrido vertical o frecuencia de refresco.

  • Impresora: periférico para ordenador o computadora que traslada el texto o la imagen generada por computadora a papel u otro medio, como transparencias o diversos tipos de fibras. Las impresoras se pueden dividir en categorías siguiendo diversos criterios.

La distinción más común se hace entre las que son de impacto y las que no lo son. Las impresoras de impacto se dividen en impresoras matriciales e impresoras de margarita. Las que no son de impacto abarcan todos los demás tipos de mecanismos de impresión, incluyendo las impresoras térmicas, de chorro de tinta e impresoras láser.

4.Unidad Central de Procesamiento: CPU

Es el componente que interpreta instrucciones y procesa datos. Es el elemento fundamental, el cerebro de la computadora. Su papel sería equiparable al de un director de orquesta, cuyo cometido es que el resto de componentes funcionen correctamente y de manera coordinada. Las unidades centrales de proceso no sólo están presentes en los ordenadores personales, sino en todo tipo de dispositivos que incorporan una cierta “inteligencia” electrónica como pueden ser: televisores, automóviles, calculadores, aviones, teléfonos móviles, juguetes y muchos más.

5.La Unidad Aritmético Lógica (UAL), o Arithmetic Logic Unit (ALU):

 

Es un circuito digitalque calcula operaciones aritméticas (como adición, substracción, etc.) y operaciones lógicas (como OR, NOT, XOR, etc.), entre dos números.

Muchos tipos de circuitos electrónicos necesitan realizar algún tipo de operación aritmética, así que incluso el circuito dentro de un reloj digital tendrá una ALU minúscula que se mantiene sumando 1 al tiempo actual, y se mantiene comprobando si debe activar el pitido del temporizador, etc…

6.Unidades de Almacenamiento:

Estas unidades se encargan de guardar los datos que se producen durante el funcionamiento del procesador para un posterior uso, o simplemente para guardar determinados datos como, fotografías, documentos, etc. De manera que podemos decir que los datos en una computadora se guardan en las unidades de almacenamiento de forma permanente o temporal. Estas unidades se clasifican en:

·Unidades de almacenamiento primario:incluye la memoria de acceso aleatorio (RAM), la cual se compone de uno o más chips y se utiliza como memoria de trabajo para programas y datos. Es un tipo de memoria temporal que pierde sus datos cuando se queda sin energía; y la memoria de solo lectura (ROM), la cual está destinada a ser leída y no destructible, es decir, que no se puede escribir sobre ella y que conserva intacta la información almacenada.

·Unidades de almacenamiento secundario:Tenemos el disco duro, el cual es el dispositivo encargado de almacenar información de forma permanente en unacomputadora; los discos compactos o CD, que son un soporte digital óptico utilizado para almacenar cualquier tipo de información; los DVD o disco de video digital, los cuales sonun formato de almacenamiento óptico que puede ser usado para guardar datos, incluyendo películas con alta calidad de vídeo y audio; y los dispositivos de almacenamiento extraíbles.

Software Es el conjunto de órdenes lógicas empleadas por una computadora para controlar la entrada y salida de datos, realizar cálculos entre otras cosas. A los paquetes de software se les denomina paquetes o programas, y cada uno de estos tienen una aplicación determinada.

Básicamente, el software es un plan de funcionamiento para un tipo especial de máquina, una máquina “virtual” o “abstracta”. Una vez escrito mediante algún lenguaje de programación, este  hace funcionar en ordenadores, que temporalmente se convierten en esa máquina para la que el programa sirve de plan, de igual manera permite la relación entre el ser humano y a la máquina y también a las máquinas entre sí. Sin ese conjunto de instrucciones programadas, los ordenadores serían objetos inertes, como cajas de zapatos, sin capacidad siquiera para mostrar algo en la pantalla.

Clasificaciones del Software

Ø Sistemas Operativos

Ø Software de Uso General

Ø Lenguajes de Programación

Sistema Operativo

Es aquel que controla y administra el computador, tiene tres grandes funciones:

·Coordina y manipula el hardware de la computadora, como la memoria, las impresoras, las unidades de disco, el teclado o el mouse.

·Organiza los archivosen diversos dispositivos de almacenamiento, como discos flexibles, discos duros, discos compactos o cintas magnéticas, y gestiona los errores de hardware y la pérdida de datos.

Entre las funciones del Sistema Operativo se tiene:

Aceptar todos los trabajos y conservarlos hasta su finalización.

Interpretación de comandos: Interpreta los comandos que permiten al usuario comunicarse con el ordenador.

Control de recursos: Coordina y manipula el hardware de la computadora, como la memoria, las impresoras, las unidades de disco, el teclado o el Mouse.