REPRESENTACION DE ALMACENAMIEN DE INFORMACION

Bit.

Bit, en informática, acrónimo de Binary Digit (dígito binario), que adquiere el valor 1 o 0 en el sistema numérico binario. En el procesamiento y almacenamiento informático un bit es la unidad de información más pequeña manipulada por el ordenador, y está representada físicamente por un elemento como un único pulso enviado a través de un circuito, o bien como un pequeño punto en un disco magnético capaz de almacenar un 0 o un 1. La representación de información se logra mediante la agrupación de bits para lograr un conjunto de valores mayor que permite manejar mayor información. Por ejemplo, la agrupación de ocho bits componen un byte que se utiliza para representar todo tipo de información, incluyendo las letras del alfabeto y los dígitos del 0 al 9.

Bytes.
Byte, en informática, unidad de información que consta de 8 bits; en procesamiento informático y almacenamiento, el equivalente a un único carácter, como puede ser una letra, un número o un signo de puntuación. Como el byte representa sólo una pequeña cantidad de información, la cantidad de memoria y de almacenamiento de una máquina suele indicarse en kilobytes (1.024 bytes) o en megabytes (1.048.576 bytes).

Kilobytes.
Kilobyte, abreviado KB, K o Kbyte. Equivale a 1.024 bytes.
Megabyte.
Megabyte, en ordenadores o computadoras, bien un millón de bytes o 1.048.576
bytes (220).
Gigabyte.
Gigabyte, el significado exacto varía según el contexto en el que se aplique. En un sentido estricto, un gigabyte tiene mil millones de bytes. No obstante, y referido a computadoras, los bytes se indican con frecuencia en múltiplos de potencias de dos. Por lo tanto, un gigabyte puede ser bien 1.000 megabytes o 1.024 megabytes, siendo un megabyte 220 o 1.048.576 bytes.

LENGUAJE DEL COMPUTADOR

El lenguaje propio del ordenador, basado en el sistema binario, o código máquina, resulta difícil de utilizar para las personas. El programador debe introducir todos y cada uno de los comandos y datos en forma binaria, y una operación sencilla como comparar el contenido de un registro con los datos situados en una ubicación del chip de memoria puede tener el siguiente formato: 11001010 00010111 11110101 00101011. La programación en lenguaje máquina es una tarea tan tediosa y consume tanto tiempo que muy raras veces lo que se ahorra en la ejecución del programa justifica los días o semanas que se han necesitado para escribir el mismo.

Lenguaje bajo nivel

Vistos a muy bajo nivel, los microprocesadores procesan exclusivamente señales electrónicas binarias. Dar una instrucción a un microprocesador supone en realidad enviar series de unos y ceros espaciadas en el tiempo de una forma determinada. Esta secuencia de señales se denomina código máquina. El código representa normalmente datos y números e instrucciones para manipularlos. Un modo más fácil de comprender el código máquina es dando a cada instrucción un mnemónico, como por ejemplo STORE, ADD o JUMP. Esta abstracción da como resultado el ensamblador, un lenguaje de muy bajo nivel que es específico de cada microprocesador.
Los lenguajes de bajo nivel permiten crear programas muy rápidos, pero que son a menudo difíciles de aprender. Más importante es el hecho de que los programas escritos en un bajo nivel sean altamente específicos de cada
procesador. Si se lleva el programa a otra máquina se debe reescribir el programa desde el principio

Lenguaje alto nivel

Los lenguajes de alto nivel sueles utilizar términos ingleses del tipo LIST, PRINT u OPEN como comandos que representan una secuencia de decenas o de centenas de instrucciones en lenguaje máquina. Los comandos se introducen desde el teclado, desde un programa residente en la memoria o desde un dispositivo de almacenamiento, y son interceptados por un programa que los traduce a instrucciones en lenguaje máquina.
Los programas traductores son de dos tipos: interpretes y
compiladores. Con un interprete, los programas que repiten un ciclo para volver a ejecutar parte de sus instrucciones, reinterpretan la misma instrucción cada vez que aparece. Por consiguiente, los programas interpretados se ejecutan con mucha mayor lentitud que los programas en lenguaje máquina. Por el contrario, los compiladores traducen un programa integro a lenguaje máquina antes de su ejecución, por lo cual se ejecutan con tanta rapidez como si hubiese sido escrita directamente en lenguaje máquina.
Se considera que fue la estadounidense Grace Hopper quien implementó el primer lenguaje de ordenador orientado al uso comercial. Después de programar un ordenador experimental en la
Universidad de Harvard, trabajó en los modelos UNIVAC I y UNIVAC II, desarrollando un lenguaje de alto nivel para uso comercial llamado FLOW-MATIC. Para facilitar el uso del ordenador en las aplicaciones científicas, IBM desarrolló un lenguaje que simplificaría el trabajo que implicaba el tratamiento de fórmulas matemáticas complejas. Iniciado en 1954 y terminado en 1957, el FORTRAN (acrónimo de Formula Translator) fue el primer lenguaje exhaustivo de alto nivel de uso generalizado.
En 1957 una asociación estadounidense, la Association for Computing Machinery comenzó a desarrollar un lenguaje universal que corrigiera algunos de los defectos del FORTRAN. Un año más tarde fue lanzado el ALGOL (acrónimo de Algorithmic Language), otro lenguaje de orientación científica de gran difusión en
Europa durante las décadas de 1960 y 1970, desde entonces ha sido sustituido por nuevos lenguajes, mientras que el FORTRAN continúa siendo utilizado debido a las gigantescas inversiones que se hicieron en los programas existentes. El COBOL
(Acrónimo de Common Business Oriented Language) es un
lenguaje de programación para uso comercial y empresarial especializado en la organización de datos y manipulación de archivos, y hoy día está muy difundido en el mundo empresarial.
Aunque existen centenares de lenguajes informáticos y de variantes, hay algunos dignos de mención, como el
PASCAL, diseñado en un principio como herramienta de enseñanza, hoy es uno de los lenguajes de microordenador más populares; el logro fue desarrollado para que los niños pudieran acceder al mundo de la informática; el C, un lenguaje de Bell Laboratories diseñado en la década de 1970, se utiliza ampliamente en el desarrollo de programas de sistemas, al igual que su sucesor, el C++. El LISP y el PROLOG han alcanzado amplia difusión en el campo de la inteligencia artificial
.

TIPOS DE MEMORIA

Memoria RAM

La memoria RAM, se compone de uno o más chips y se utiliza como memoria de trabajo para programas y datos. Es un tipo de memoria temporal que pierde sus datos cuando se queda sin energía(por ejemplo, al apagar el ordenador).
RAM es el acrónimo inglés de Random Access Memory Module (memoria de acceso aleatorio). Ladenominación surgió antiguamente para diferenciarlas de otro tipo de memorias como los registros dedesplazamiento, y en contraposición a las denominadas memorias de acceso secuencial. Debido a que en los comienzos de la computación las memorias principales y primeras de las computadoras eran
siempre de tipo RAM y las memorias secundarias (o masivas) eran de acceso secuencial (cintas o tarjetas perforadas), es frecuente que se hable de memoria RAM para hacer referencia a la memoria principal de una computadora, pero actualmente la denominación no es demasiado acertada.Se trata de una memoria de semiconductor en la que se puede tanto leer como escribir información.
Se utiliza normalmente como memoria temporal para almacenar resultados intermedios y datos similares no permanentes. Se dicen "de acceso aleatorio" o "de acceso directo" porque los diferentes accesos son independientes entre sí (no obstante, el resto de memorias ROM, ROM borrables y Flash, también son de
acceso aleatorio). Por ejemplo, si un disco rígido debe hacer dos accesos consecutivos a sectores alejados físicamente entre sí, se pierde un tiempo en mover la cabeza lectograbadora hasta la pista deseada (o esperar que el sector pase por debajo, si ambos están en la misma pista), tiempo que no se
pierde en la RAM. Sin embargo, las memorias que se encuentran en el ordenador, son volátiles, es decir,pierde su contenido al desconectar la energía eléctrica ; pero hay memorias (como la memoria RAM flash), que no lo son porque almacenan datos.
La memoria RAM a evolucionado con el tiempo a medida que se ha hecho necesario poder manejar una mayor cantidad de datos y a una mayor velocidad, las mismas se han clasificado de acuerdo al numero de contactos con los que lleven los módulos que la conforman.
SIMM
SIMM o Single inline Memory Module (módulo de memoria en línea simple), pequeña placa de circuito impreso con varios chips de memoria integrados. Vinieron a sustituir a los SIP, Single inline Package (encapsulado en línea simple), chips de memoria independientes que se instalaban
directamente sobre la placa base. Los SIMM están diseñados de modo que se puedan insertar fácilmente en la placa base de la computadora, y generalmente se utilizan para aumentar la cantidad de memoria RAM. Se fabrican con distintas capacidades (4Mb, 8Mb, 16Mb...) y con diferentes velocidades de acceso.
En un principio se construían con 30 contactos y luego aparecieron los de 72 contactos. Recientemente se han desarrollado módulos de memoria DIMM, Dual inline Memory Module (módulo de memoria en línea doble), con 168 contactos, que presentan un doble número de vías de comunicación entre el módulo y la placa base, al poder utilizar de manera independiente cada lado del conector; su manejo resulta más sencillo, ya que se pueden emplear de forma aislada, mientras que los SIMM se utilizan por pares. En los ordenadores portátiles se usan unos módulos de memoria de perfil muy fino denominados
SO-DIMM, Small Outline DIMM.
DIMM
Dimm o de Dual Inline
Memory Module, (módulo de memoria en línea doble). Hace referencia a
su sistema de comunicación con la placa base, que se gestiona en grupos de datos de 64 bits, en contraposición con los módulos SIMM (Single Inline Memory Module, módulo de memoria en línea simple), que usan una vía simple y sólo transfieren 32 bits de datos cada vez. Se fabrican con 168 contactos en sus conectores de anclaje con la placa base; también suele ser habitual disponer de cuatro o más conectores, pudiendo utilizarse uno o varios de ellos, mientras que los módulos SIMM deben ir por parejas, además de tener anclajes incompatibles, que son de 30 o 72 contactos. Esto determina que la mayoría de las placas base puedan utilizar módulos de uno u otro tipo, pero no ambos.
La extensión en el uso de los módulos DIMM ha coincidido con un aumento muy sustancial de la capacidad de memoria: actualmente están disponibles de 64, 128, 256 y 512 MB (megabytes) y de 1, 2 o más gigabytes.
Los módulos de memoria denominados DDR DIMM (Double Data Rate DIMM, módulos DIMM de doble velocidad de transferencia de datos), han ido sustituyendo paulatinamente a los módulos DIMM estándar a partir del año 2000; tienen la ventaja de doblar la velocidad con que se transfieren los datos a
la placa principal. Así, los valores estándar de 100 y 133 MHz, se convertirán en un módulo DDR en 200 y 266 MHz, respectivamente.
RIMM
Módulo de memoria RDRAM (Rambus Son los módulos de memoria, sustituyen a los actuales DIMM, y son una continuación del canal; el canal entra por un extremo del RIMM y sale por el otro. Los RIMM tienen el mismo tamaño que los DIMM y han sido diseñados para soportar SPD, (Serial Presence
Detect). También hay RIMM de doble cara o de una cara, y pueden tener cualquier número de chips hasta el máximo de 32 soportados por canal. Hay módulos de 64Mb, 128Mb y 256Mb, la máxima cantidad total de memoria va desde los 64Mb hasta 1Gb por canal. Podemos instalar dos repetidores para aumentar el número de conectores, y así aumentar el numero de RIMMs, con un repetidor aumentamos a 6 conectores y con dos repetidores aumentamos a 12 conectores.
Memoria ROM
Memoria de sólo lectura o (Read Only Memmory), también es conocida como BIOS, y es un chip que viene agregado a la tarjeta madre. El Chip de Memoria ROM se encuentra insertado en la tarjeta madre, debido a que guarda el conjunto de instrucciones que permiten arrancar la computadora y posibilita la carga del sistema operativo. Por lo tanto es de vital importancia para el funcionamiento del sistema.
Al encender el ordenador, el BIOS se carga automáticamente en la memoria principal y se ejecuta desde ahí por el procesador (aunque en algunos casos el procesador ejecuta la BIOS leyéndola directamente desde la ROM que la contiene), cuando realiza una rutina de verificación e inicialización de
los componentes presentes en la computadora, a través de un proceso denominado POST (Power On Self Test). Al finalizar esta fase busca el código de inicio del sistema operativo (bootstrap) en algunos de los dispositivos de memoria secundaria presentes, lo carga en memoria y transfiere el control de la
computadora a éste. Se puede resumir diciendo que el BIOS es el firmware presente en computadoras IBM PC y compatibles, que contiene las instrucciones más elementales para el funcionamiento de las mismas por incluir rutinas básicas de control de los dispositivos de entrada y salida. Está almacenado en un chip de memoria ROM o Flash, situado en la placa base de la computadora. Este chip suele denominarse en femenino "la BIOS", pues se refiere a una memoria (femenino) concreta; aunque para referirnos al contenido, lo correcto es hacerlo en masculino "el BIOS", ya que nos estamos refiriendo a un sistema (masculino) de entrada/salida. Hoy por hoy existe un potencial sustituto a la BIOS, EFI, (Extensible Firmware Interface) es una especificación desarrollada por Intel dirigida a reemplazar la antigua interfaz de la estándar IBM PC BIOS
(la cual se ha estado implementando por los fabricantes de ordenadores personales desde que salió a luz el primer IBM PC hasta hoy), se ha implementado en los ordenadores Macintosh de Apple con procesador Intel. El objetivo de esta Interfaz es establecer la forma en que un software específico como un Sistema Operativo o una aplicación de arranque debe acceder a los recursos del sistema.

TARJETA MADRE

Es el segundo elemento mas importante a la hora de determinar el desempeño de una computadora personal, ya que esta gran placa de circuito impreso es el puente de comunicación entre el microprocesador y todos los elementos de una computadora.
Cada vez que el microprocesador desean enviar o recibir algún dato; una buena tarjeta madre garantiza una transferencia de datos de veloz que continua.


Una tarjeta madre es una tarjeta de circuito impreso usada en una computadora personal. Esta es también conocida como la tarjeta principal. El termino "tarjeta principal" es también usado para la tarjeta de circuito principal en otros dispositivos electrónicos. El resto de este artículo discute la muy llamada "PC compatible IBM" tarjeta madre.
Como cualquier otro sistema de computo, toda la circuitería básica y componentes requeridos para una PC para funcionar se monta cualquiera directamente en la tarjeta madre o en una tarjeta de expansión enchufada en una ranura de expansión de la tarjeta madre. Una tarjeta madre de PC permite la unión de la
CPU, tarjeta de gráficos, tarjeta de sonido, controlador de IDE/ATA/Serial ATA de disco duro, memoria (RAM), y caso todos los otros dispositivos en un sistema de computo. Contiene el chipset, que controla el funcionamiento de el CPU, las ranuras de expansión PCI, ISA y AGP, y (usualmente) los controladores de IDE/ATA también. La mayoría de los dispositivos que pueden unirse a una tarjeta madre son unidos vía uno o mas ranuras de expansión o enchufes.

Este es el componente principal de una PC, es quien integra a todos los demás componentes. Mediante ella, todos los componentes interactúan y se comunican para realizar procesos. Para decidir que tarjeta madre debemos elegir de acuerdo a nuestras necesidades.
Ya que encontramos el procesador, debemos buscar ciertas características de la tarjeta madre. Cada procesador tiene el tipo de tarjeta madre que le sirve (Aunque algunos comparten el mismo tipo) por lo que esto define mas o menos la tarjeta madre que usaremos. Hoy en día las tarjetas madres traen incorporados los puertos seriales (Ratón, Scanner, etc ), los paralelos (Impresora) y la entrada de teclado, así que por eso no debemos preocuparnos.

LA ESTRUCTURA DE LA TARJETA MADRE

La tarjeta madre es un modulo base al que se conecta otros modulos para formar un sistema mayor capaz de cumplir funciones que cada parte por si sola no puede realizar. Lo que se puede entender como una sociedad cooperativa donde cada elemento o modulo cumple una funcion especifica para obtener un resultado especial el cual solo se da mediante la interaccion de las partes.

EL BUS

El bus es el que envía la información a todas partes del computador y por lo tanto a todos los puertos de la computadora.Hoy en día las computadoras tienen los tres tipos de ranuras que son PCI, EISA y los nuevos estándares AGP para tarjetas de video y el USB (universal serias bus) para conexion con componenetes externos al PC.

LOS TRES TIPOS DE RANURAS

AGP, PCI y EISA son los tres tipos de ranuras compatibles con las tarjetas de hoy en día.
Si se le va a colocar un Disco Duro SCSI (Más rápido y caro que el IDE) se debe tener un puerto de este tipo, y el estándar es IDE. Las velocidades que se han obtenido hoy en dia para algunos discos duros EIDE (IDE Mejorado) igualan a las obtenidas por el SCSI, por lo que no vale la pena complicarse ya que estos son más difíciles de configurar.
La cantidad y tipo de ranuras que tiene para las tarjetas de expansión y para la memoria RAM. Es importante que traiga las ranuras estandar de expansión EISA, PCI y AGP, y mientras más mejor. Para la memoria RAM, es importante que traiga varias y que estas concuerden con el tipo de memoria que se vaya a comprar.

FORMATOS DE TARJETA MADRE

Existen varios factores de forma compatibles que se utilizan para las tarjetas madres.El factor de forma se refiere a las dimensiones físicas y al tamaño de la tarjeta y dicta el tipo de gabinete en que puede ajustarse la tarjeta. En general, los tipos de factores de forma de tarjeta madre disponible son los siguientes:Sistema Plano AT de tamaño natural,Baby-AT,LPX,ATX,NLX.

CPU

Unidad central de procesos (CPU): Es el cerebro del PC. Se encarga de procesar las instrucciones y los datos con los que trabaja el computador. El procesador es el dispositivo más importante y el que más influye en su velocidad al analizar información.

FUENTE DE PODER

FUENTE DE PODER

La fuente de poder(Power supply en ingés) es como su nombre indica, la encargada de suministrar energía o poder a la computadora y a los distintos elementos que componen nuestro sistema de computadora y ademas es el que nos mantiene fresca la computador.
La electricidad que llega hasta nuestros hogares u oficinas es del tipo conocido como "corriente alterna" y nos es suministrada habitualmente con una tensión (o voltaje) que suele ser de alrededor de
115 o 230 voltios. Este tipo de corriente no es en absoluto adecuada para alimentar equipos electrónicos, y más concretamente dispositivos informáticos, en dónde es necesario trabajar con "corriente continua" y
voltajes mucho más bajos.Por lo tanto, este dispositivo es el que se encarga de "reducir" el voltaje (mediante un transformador) y despues convierte la corriente alterna en corriente continua ,con un puente de diodos, para finalmente filtrarla por medio de condensadores electrolíticos.Evidentemente el esquema es mucho más complejo que el comentado, ya que en su interior se encuentran muchos otros componentes.
Esta viene expresada en vatios e indica la capacidad para alimentar más dispositivos. ya se puede encontrar modelos entre 200 y 300 w (vatios), aunque también existen otros, sobre todo los que siguen el estándar MicroATX o FlexATX que ofrecen potencias menores.
La gran cantidad de dispositivos que actualmente son incorporados al ordenador y así mismo el incremento de la potencia de los procesadores y en consecuencia el aumento del consumo de energía,han motivado que en los últimos años podamos ver en el mercado modelos de hasta 500 y 600 vatios.

EL RATON

RATON(MAUSE)

El mouse , del ingles y su significado es ratón es un periférico de computadora de uso manual, generalmente fabricado en plástico, utilizado como entrada o control de datos. Se utiliza con una de las dos manos del usuario y detecta su movimiento relativo en dos dimensiones por la superficie horizontal en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor.

EL TECLADO


TECLADO DE LA COMPUTADORA

El teclado de computadora (ordenador) es un periférico, físico o virtual (por ejemplo teclados en pantalla o teclados láser), utilizado para la introducción de órdenes y datos en una computadora. Tiene su origen en los teletipos y las máquinas de escribir eléctricas, que se utilizaron como los teclados de los primeros ordenadores y dispositivos de almacenamiento (grabadoras de cinta de papel y tarjetas perforadas). Aunque físicamente hay una miríada de formas, se suelen clasificar principalmente por la distribución de teclado de su zona alfanumérica, pues salvo casos muy especiales es común a todos los dispositivos y fabricantes (incluso para teclados árabes y japoneses).

FUNCIONAMIENTO DE LA COMPUTADORA

FUNCIONAMIENTO DE LA COMPUTADORA


Las instrucciones que se ejecutan en un ordenador, no son las ricas instrucciones del ser humano. Una computadora sólo se diseña con un número limitado de instrucciones bien definidas. Los tipos de instrucciones típicas realizadas por la mayoría de las computadoras son como estos ejemplos: Copia los contenidos de la posición de memoria 123 Coloca la copia en la posición 456 Añade los contenido de la posición 666 a la 042 Coloca el resultado en la posición 013
Si los contenidos de la posición 999 son 0 Tu próxima instrucción está en la posición 345 Las instrucciones dentro del computador se representan mediante números. Por ejemplo, el código para copiar puede ser 001. El conjunto de instrucciones que puede realizar un computador se conoce como
lenguaje de máquina o código máquina. En la práctica, no se escriben las instrucciones para los ordenadores directamente en lenguaje de máquina, sino que se usa un lenguaje de programación de alto nivel que se traduce después al lenguaje de la máquina automáticamente, a través de programas especiales de traducción (intérpretes y compiladores). Algunos lenguajes de programación representan de manera muy directa el lenguaje de máquina, como el lenguaje ensamblador (lenguajes de bajo nivel) y, por otra parte, los lenguajes como Java, se basan en principios abstractos muy alejados de los que hace la máquina en concreto (lenguajes de alto nivel).
Por lo tanto, el funcionamiento de un computador es en principio bastante sencillo. El computador trae las instrucciones y los datos de la memoria. Se ejecutan las instrucciones, se almacenan los datos y se va a por la siguiente instrucción. Este procedimiento se repite continuamente, hasta que se apaga el ordenador. Los
programas de ordenador son simplemente largas listas de instrucciones que debe ejecutar el computador, a veces con tablas de datos. Muchos programas de computador contienen millones de instrucciones que se ejecutan a gran velocidad; un computador personal moderno (en el año 2003) puede ejecutar de 2000 a 3000 millones de instrucciones por segundo. Las capacidades extraordinarias que tienen los computadores no se deben a su habilidad para ejecutar instrucciones complejas. Los computadores ejecutan millones de instrucciones simples diseñadas por programadores. Hay programadores que desarrollan grupos de instrucciones para hacer tareas comunes (por ejemplo, dibujar un punto en la pantalla) y luego ponen dichos grupos de instrucciones a disposición de otros programadores para que estos elaboren funciones o tareas más complejas.

COMPUTADORA

COMPUTADORA


Una computadora (del latín computare -calcular-), también denominada como ordenador o computador, es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, sorprendente rapidez, y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una múltiple variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora u ordenador, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output". La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento
La característica principal que la distingue de otros dispositivos similares, como una
calculadora no programable, es que puede realizar tareas muy diversas cargando distintos programas en la memoria para que el microprocesador los ejecute.