miércoles, 16 de enero de 2013

EL OVERCLOCKING

¿QUE ES EL OVERCLOCKING?

El overclocking es forzar los componentes del equipo para que trabajen a una velocidad más rápida que la fijada por la fábrica con el objetivo de mejorar el rendimiento del equipo.
Aunque hay que tener cuidado con la modificación de estos parámetros ya que esto implica la perdida inmediata de la grantía de la empresa, por eso se recomienda que este tipo de prácticas solo se hagan con equipos a los que ya se le haya pasado la garantía.

¿QUE PUEDE PASAR?
Cuando practiquemos el overlocking podemos enconttrarnos con varios problemas sino sabemos modificar los diferentes elementos de nuestro ordenador.
Los principales problemas que nos podemos encontrar son los siguientes:
Componentes de un Ordenador

  1. Perder la garantía del fabricante: se aconseja realizar este tipo de operaciones en equipos con la garantía vencida.
  2. Se caliente el microprocesador: a más velocidad más generación de calor.
  3. Que se estropee el componente: si la subida se hace escalonadamente no debería haber problemas.
  4. El equipo no funciona correctamente: y además puedes perder información del disco duro.
Al hablar de overlocking tenemos que hablar también de la electromigración, que es el desgaste de microprocesador debido a varios factores (calor,voltaje...), esto puede se producido por el overlocking.

Para realizar el overlocking tenemos varias opciones:

  • Elevar la frecuencia base del sistema o FSB.
  • Subir aisladamente la velocidad del micro, memoria o buses.
  • Alguna conbinación de las anteriores.
  • Mejorar el rendimiento de otros elementos del equipo como la tarjeta gráfica...
Recuerdas estas fórmulas muy sencillas:

VELOCIDAD DEL MICRO=MULTIPLICADOR X VELOCIDAD BASE FSB

VELOCIDAD REAL DEL FSB=VELOCIDAD BASE FSB X INDICE DE APROVECHAMIENTO
CPU-Z


















¿COMO SE DEBERIA DE HACER OVERLOCKING PARA QUE FUNCIONE?

El overlocking para que sea seguro debería de hacerse de forma gradual y verificando en cada pequeña subida que el sistema funciona correctamente realizándose un test de tortura, realizando este test se puede garantizar la seguridad del sistema (cpu, memoria, placa base).

A continuación presento un video en el que se muestra como hacer el overlocking:


¿COMO SE PUEDEN MODIFICAR ESTOS PARAMETROS?

Antigüamente el overlocking se hacía configurando los jumpers de la placa base.En la actualidad todos los elementos de ordenadores se modifican vía sofware de la siguiente manera:
Microprocesador

  • Mediante la Bios: es la forma más común.
  • Con el programa de overlocking: proporcionado por el fabricante la placa base.
  • Con algún programa específico.
El microprocesador funciona a dos velocidades:

  • Externa: es la velocidad con la que se comunica con la placa base y es la velocidad del FSB.
  • Interna: es la velocidad del FSB multiplicada por el multiplicador


ELEVAR EL VOLTAJE

Es una de las posibles opciones que tenemos para aumentar la velocidad del sistema. Todos los expertos aseguran que es la opción más arriesgada puesto que no solo se puede producir un deterioro de los materiales por el aumento del calor producido, sino también por un aumento de la corriente al propio componente.

OVERLOCKING DE LA TARJETA GRÁFICA

Si se utiliza el equipo solo para diseño o simplemente para jugar, el disponer de una tarjeta gráfica con mejores prestaciones hará que todo el equipo vaya mucho mas rápido. No obstante el cambio de una tarjeta de vídeo es bastante cara y no queda más remedio que overlocking.
Para overlockear la tarjeta gráfica tenemos varias opciones:
Tarjeta gráfica
  • Aumentar la velocidad de la GPU.
  • Aumentar la velocidad de la memoria de video.
  • Aumentar las dos anteriores.











OVERLOCKING DE LA MEMORIA

La memoria funciona a una velocidad proporcional al bus FSB.


MIENTRAS MÁS PARAMETROS MODIFIQUES MÁS POSIBILIDADES DE ERROR SE PRODUCIRÁN Y MEJORES PRESTACIONES CONSEGUIRÁS.

OBJETIVO = CONSEGUIR UN MEJOR RENDIMIENTO CON UN SISTEMA ESTABLE

domingo, 13 de enero de 2013

CONCEPTOS IMPORTANTES

A continuación presento mi lista de los 50 conceptos importantes que he adquirido de las hojas repartidas por el profesor en clase (Arquitectura de Von Neumann, Generación de computadoras y clasificación y tipos de computadoras):

1. Computadora Analógica:es un dispositivo electrónico o hidráulico diseñado para manipular la entrada de datos en términos de niveles de tensión o presiones hidraúlicas, en lugar de hacerlo con números.

Ordenador Anlógico
2. Computadora Digital: suele utilizarse para referirse al tipo digital. El ordenador puede reconocer dos estados: abierto o cerrado, alta o baja tensión o en el caso de números, 0 y 1.

3. Computadora Híbrida: son la combinación de un componente digital y un componente analógico conectados a través de una interfaz que permite el intercambio de información entre los dos componentes y el desarrollo de su trabajo en conjunto.

4. Superordenador: es el tipo de computadora más potente, más rápido y caro que existe actualmente y de elevadísimas prestaciones, que se utilizan para cálculos y simulaciones que necesitan una gran capacidad de proceso.

5. Mainframes: son servidores de gama alta. Son rápidos y caros sistemas que son capaces de controlar cientos de usuarios simultáneamente, procesar grandes bases de datos y de gran capacidad de almacenamiento.

6. Miniordenadores: son equipos con mayores prestaciones que un PC, que permiten el uso simultáneo de decena de usuarios. En la actualidad son imprescindibles en redes

7. Ordenadores Personales (PC): es un equipo de sobrmesa o portátil diseñado para que solo permita una entrada simultánea al equipo. Se carcteriza por su asequibilidad y su fácil manejo.

8. PDA (Personal Digital Assistant): es un equipo de tamaño y prestaciones más reducidas que las de un PC y que funciona de manera similar a un ordenador personal convencional. Su función principal es el de funcionar como agenda electrónica.

PDA
9. CISC: se caracteriza por tener un amplio conjunto de instrucciones complejas y potentes.

10. RISC: se caracteriza por tener un conjunto de instrucciones no muy complejas, la mayoría completadas en un ciclo de reloj.

11. Unidad de Memoria (UM): es la encargada de almacenar información. Esta arquitectura se caracteriza por utilizar dicha unidad tanto para almacenar información como para programas.

12.  Unidad central de proceso (CPU): es el circuito integrado constituido por millones de componentes electrónicos. Se encarga de interpretar las instrucciones contenidas en los programas y procesa los datos.

13. Unidad de Entrada/salida: su misión es realizar las operaciones de introducción y extraccion de informacion en el ordenador.

14. Unidad de memoria: la unidad de memoria viene a coincidir con la memoria principal del ordenador.

15.Unidad Central de Proceso:  es el componente principal del ordenador y otros dispositivos programables, que interpreta las instrucciones contenidas en los programas y procesa los datos.

Unida central de Proceso
16. Unidad Aritmetico-Lógica: es el verdadero nucleo de cálculo del ordenador ya que se encarga de realizar las operaciones aritmeticas (suma, resta...) y lógicas (comparación,negación...) ordenadas por la UC.

17. Unidad de Control: se encarga de buscar las instrucciones en la UM; interpretarlas y generar en cada momento las órdenes necesarias para ejecutar la operación requerida por cada instrucción.

18. Periféricos de entrada: con ellas el usuario introduce la informacion en el ordenador.

19. Periféricos de salida: son utilizados por el ordenador para mostrar informacion al usuario: monitor.

20. Interfaz: se encarga de gestionar el intercambio de información entre el periférico y la CPU.

21.  Controlador: su misión es gestionar directamente el periférico.

22. Aritmética Binaria: es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se utiliza en las computadoras, debido a que trabajan internamente con dos niveles de voltaje, por lo cual su sistema de numeración natural es el sistema binario (encendido 1, apagado 0).

23. Byte:  es una unidad de información utilizada como un múltiplo del bit. Equivale a 8 bits.

24. Desbordamiento: es un fallo informático que se da cuando el código almacenado en un registro supera su valor máximo.

25. Gigabyte:  es una unidad de almacenamiento de información cuyo símbolo es el GB, equivale a 109 bytes.

26. Kilobyte:  es una unidad de almacenamiento de información cuyo símbolo es el kB (con la 'k' en minúsculas) y equivale a 103 bytes.

27. Megabyte:  es una unidad de medida de cantidad de datos informáticos. Es un múltiplo del byte u octeto, que equivale a 106 B (un millón de bytes).

28. Notación científica: es una manera rápida de representar un número utilizando potencias de base diez. Esta notación se utiliza para poder expresar muy fácilmente números muy grandes o muy pequeños.

29. Número Decimal:  Se denominan números decimales aquellos que poseen una parte decimal, en oposición a los números enteros que carecen de ella.

30. Informática: se puede definir como una mezcla de ciencia y tecnología que estudia y posibilita el tratamiento automático y racional de la información por medio de computadoras o equipos informáticos.

31. Programa: es un conjunto de instrucciones u órdenes que indican a la máquina las operaciones que esta debe realizar con unos datos determinados.

32. Datos de entrada: son los datos que la computadora va a procesar.

33. Datos de salida: son datos derivados, es decir, obtenidos a partir de los datos de entrada.

34. Hardware: es el conjunto de componentes tangibles (o físicos) de una computadora.

35. Software: es el conjunto de programas y datos con los que trabaja una computadora.

36. Red Informática: está compuesta por un conjunto de equipos informáticos conectados entre sí mediante distintos elementos de conexión (cables, tarjetas de red, dispositivos inalámbricos, etc...)

37. Protocolo: es un protocolo de comunicación de datos digitales clasificado funcionalmente en la Capa de Red según el modelo internacional OSI
Su función principal es el uso bidireccional en origen o destino de comunicación para transmitir datos mediante un protocolo no orientado a conexión que transfiere paquetes conmutados a través de distintas redes físicas previamente enlazadas según la norma OSI de enlace de datos .

38. Comunicación: puede definirse como la transmisión de información entre diversas entidades organizada según ciertas reglas básicas.

39. interfaz: punto de contacto entre dos módulos o entre un módulo y el exterior del sistema. 

40. Bus: : Un bus o colector de señales es un conjunto de conductores eléctricos que proporcionan 
una vía de comunicación entre dos o más dispositivos. Tres tipos: Bus de direcciones, bus de 
datos y bus de control.

Iconos comunicación
41.Teorema fundamental de la numeracion: Este teorema establece la forma general de construir números en un sistema de numeración posicional. Primero estableceremos unas definiciones básicas:
N\,, número válido en el sistema de numeración.
b\,, base del sistema de numeración. Número de símbolos permitidos en el sistema.
d_i\,, un símbolo cualquiera de los permitidos en el sistema de numeración.
n\,,: número de dígitos de la parte entera.
,\,, coma fraccionaria. Símbolo utilizado para separar la parte entera de un número de su parte fraccionaria.
k\,,: número de dígitos de la parte decimal.
La fórmula general para construir un número N, con un número finito de decimales, en un sistema de numeración posicional de base b es la siguiente:
N= \begin{cases}
\langle d_{(n-1)} \ldots d_1 d_0,  d_{-1} \ldots  d_{-k} \rangle = \sum_{i=-k}^n d_i b^i \\
N = d_n b^n + \ldots + d_1 b^1 + d_0 b^0+d_{-1} b^{-1} + \ldots + d_{-k} b^{-k} \end{cases}

42. Disco de Inicio: es un disquete que permite arrancar el ordenador desde la unidad A>. Esto puede resultar muy útil en caso de que nuestro ordenador no arranque debido, por ejemplo, a errores en el registro de Windows, a algún fichero dañado, etc.

43. Formatear: formatear o dar formato a un disco es dividirlo en distintas zonas que tienen una función específica, el sector de arranque (BOOT), el directorio, la tabla de localización de archivos (FAT) y el área de datos.

44. Hacker: es una persona con conocimientos elevados de informática adquiridos por un increíble afán de aprender y que utiliza estos como le viene en gana.

45. Shareware: se trata de programas que pueden ser grabados en el disco duro en forma gratuita y que son ofrecidos con el fin de probarlos durante unos días.

46. Drivers: es un programa que interactúa con un dispositivo de hardware en particular.

47. ZIP: unidad de almacenamiento removible, conectable a un puerto SCSI, que utilizaba unos cartuchos parecidos a los disquetes, pero que lograban contener 100 Mb en datos.

48. Firewall: es un sistema básico de seguridad que debemos utilizar para nuestra conexión a internet. Es un sistema de defensa que se basa en la instalación de una barrera entre tu PC y la red.

49. CD-R: es un dispositivo de almacenamiento tipo WORM (Write Once Read Many - una escritura múltiples lecturas.

50. Sistemas expertos: es una rama de la inteligencia artificial y es aquel que limita las actividades de un humano para resolver problemas de distinta índole.

martes, 8 de enero de 2013

HISTORIA DE LAS COMPUTADORAS

HISTORIA

En 1928 la empresa Fairchild y Texas Instruments produjeron los primeros circuitos integrados basados en semiconductores.
ENIAC
Las primeras computadoras, incluyeron a la ENIAC, el Electronic Numerical Integrator and Computer, que en 1943 comenzaron a construir John W. Mauchly y John P. Eckert en la universidad de Pensilvania (EE.UU.). Esta enorme máquina medía más de 30 metros de largo y pesaba 32 toneladas, estaba compuesta por 17.468 válvulas.
 Cuando la ENIAC se terminó en 1946, la II Guerra Mundial ya había terminado. El fin de la contienda hizo que los esfuerzos hasta entonces dedicados principalmente a objetivos militares, se destinaran también a otro tipo de investigación científica más relacionada con las necesidades de la empresa privada. Los esfuerzos múltiples dieron resultados en 1945 Mauchly y Eckert comenzaron a trabajar en una sucesora de la ENIAC, el EDVAC (Electronic Discrete Variable Automatic Computer) y Aiken inició el diseño de la Mark 2. En 1951, el que está considerado como la primera computadora que se llamo saly ampliamente comercializada, la UNIVAC primera, comenzó a funcionar con éxito. En 1952 la computadora UNIVAC se utilizó para realizar el recuento de votos en las elecciones presidenciales de EE.UU. El resultado victoria (Eisenhower sobre Adlai Stevenson) se conoció 45 minutos después de que se cerraran los colegios electorales.

PRIMERA GENERACIÓN (1940-1954)

En esta época las computadoras funcionaban con válvulas, usaban tarjetas perforadoras para entrar los datos y los programas, utilizaban cilindros magnéticos para almacenar la información e instrucciones internas y se utilizaban exclusivamente en el ámbito científico y militar. La programación implicaba la modificación directa de los cartuchos y eran sumamente grandes, utilizaban gran cantidad de electricidad, generaban gran cantidad de calor y eran sumamente lentas. La comunicación es breve.

SEGUNDA GENERACIÓN (1955-1963)

Características de está generación: Usaban transistores para procesar información. Los transistores eran más rápidos, pequeños y más confiables que los tubos al vacío. 200 transistores podían acomodarse en la misma cantidad de espacio que un tubo al vacío. Usaban pequeños anillos magnéticos para almacenar información e instrucciones. Producian gran cantidad de calor y eran sumamente lentas. Se mejoraron los programas de computadoras que fueron desarrollados durante la primera generación. Se desarrollaron nuevos lenguajes de programación como COBOL y FORTRAN, los cuales eran comercialmente accesibles. Se usaban en aplicaciones de sistemas de reservaciones de líneas aéreas, control del tráfico aéreo y simulaciones de propósito general. La marina de los Estados Unidos desarrolla el primer simulador de vuelo, "Whirlwind primero". Surgieron las minicomputadoras y los terminales a distancia. Se comenzó a disminuir el tamaño de las computadoras.
ATLAS (universidad de manchester)
Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester. Algunas computadoras se programaban con cinta perforadas y otras por medio de cableado en un tablero.

TERCERA GENERACIÓN (1964-1970)

Comienza a utilizarse los circuitos integrados, lo cual permitió abaratar costos al tiempo que se aumentaba la capacidad de procesamiento y se reducía el tamaño de las máquinas.La tercera generación de computadoras emergió con el desarrollo de circuitos integrados (pastillas de silicio) en las que se colocan miles de componentes electrónicos en una integración en miniatura. El PDP-8 de la Digital Equipment Corporation fue el primer miniordenador.

CUARTA GENERACIÓN (1971-1983)

Fase caracterizada por la integración de los componentes electrónicos, lo que propició la aparición del microprocesador, es decir, un único circuito integrado en el que se reúnen los elementos básicos de la máquina. Se desarrolló el microprocesador. Se colocan más circuitos dentro de un "chip". "LSI - Large Scale Integration circuit". "VLSI - Very Large Scale Integration circuit". Cada "chip" puede hacer diferentes tareas. Un "chip" sencillo actualmente contiene la unidad de control y la unidad de aritmética/lógica. El tercer componente, la memoria primaria, es operado por otros "chips". Se reemplaza la memoria de anillos magnéticos por la memoria de "chips" de silicio. Se desarrollan las microcomputadoras, o sea, computadoras personales o PC. Se desarrollan las supercomputadoras Características de está generación:
Se desarrollaron circuitos integrados para procesar información. Se desarrollaron los "chips" para almacenar y procesar la información. Un "chip" es una pieza de silicio que contiene los componentes electrónicos en miniatura llamados semiconductores. Los circuitos integrados recuerdan los datos, ya que almacenan la información como cargas eléctricas. Surge la multiprogramación. Las computadoras pueden llevar a cabo ambas tareas de procesamiento o análisis matemáticos.

 QUINTA GENERACIÓN (1984-1989)

Surge la PC tal cual como la conocemos en la actualidad. IBM presenta su primera computadora personal y revoluciona el sector informativo.En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras.

COMPUTADORAS PERSONALES 

IBM PC
 La IBM PC fue la primera computadora personal de IBM. Se basaba en el procesador Intel 8086 de 16 bits a 4,7 MHz Y llegó a ser una computadora muy popular. Su precio era de 3285 dólares de la época. Hoy una computadora con infinitas prestaciones cuesta 10 veces menos.







SEXTA GENERACIÓN (1999 HASTA LA FECHA)

 Como supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes.