miércoles, 1 de diciembre de 2010

25. Ensamblar una Pc





Para ensamblar una pc se necesita:

1- Destornillador 
2- Alcohol Isopropilico minimo de 70grados si se tiene de 100 mucho mejor.
3- Una brocha (para limpiar el polvo).


Lo mas importante es conectar la pc al finalizar el ensamblaje porque si se pone a estar haciendo prueba tras prueba pueda ser que algun componente se le dañe.

1- se atornillan lo que son el board, los disk hards, cd-rom, disquets (si existen) , tarjeta de red y sonido si se tiene y el power suply al case.

2- despues procede a interconectar todos los conponentes al board, conectando de ultimo la electricidad (power suply).

3- ojo: apuesto que se les olvido que deven conectar los interruptores de encendido/ apagado y reset, con sus respectivas luces.

4- Instalar el sistema operativo despues de que la maquina al conectarse tanto interna como externamente muestre el BIOS en la pantalla.

24. Entornos Virtuales

La educación actual afronta múltiples retos. Uno de ellos es dar respuesta a los profundos cambios sociales, económicos y culturales que se prevén para la "sociedad de la información".

Internet, la red de redes, ha generado un enorme interés en todos los ámbitos de nuestra sociedad. Su utilización con fines educativos es un campo abierto a la reflexión y a la investigación.

En esta investigación se exploran algunas de sus posibilidades, especialmente como recurso tecnológico de enseñanza-aprendizaje abierto, dinámico y flexible.

En este video se exponen algunas de sus posibilidades, especialmente
como recurso tecnológico de enseñanza-aprendizaje abierto, dinámico y flexible.

23. Sistema Experto

Los sistemas expertos son llamados así porque emulan el comportamiento de un experto en un dominio concreto y en ocasiones son usados por éstos. Con los sistemas expertos se busca una mejor calidad y rapidez en las respuestas dando así lugar a una mejora de la productividad del experto.


Es una aplicación informática capaz de solucionar un conjunto de problemas que exigen un gran conocimiento sobre un determinado tema.Un sistema experto es un conjunto de programas que, sobre una base de conocimientos, posee información de uno o más expertos en un área específica. Se puede entender como una rama de la inteligencia artificial, donde el poder de resolución de un problema en un programa de computadora viene del conocimiento de un dominio específico. Estos sistemas imitan las actividades de un humano para resolver problemas de distinta índole (no necesariamente tiene que ser de inteligencia artificial). También se dice que un SE se basa en el conocimiento declarativo (hechos sobre objetos, situaciones) y el conocimiento de control (información sobre el seguimiento de una acción).

22. Lenguaje C


C es un lenguaje de programación creado en 1972 por Dennis M. Ritchie en losLaboratorios Bell como evolución del anterior lenguaje B, a su vez basado en BCPL.
Al igual que B, es un lenguaje orientado a la implementación de Sistemas Operativos, concretamente Unix. C es apreciado por la eficiencia del código que produce y es el lenguaje de programación más popular para crear software de sistemas, aunque también se utiliza para crear aplicaciones.
Se trata de un lenguaje débilmente tipificado de medio nivel pero con muchas características de bajo nivel. Dispone de las estructuras típicas de los lenguajes de alto nivel pero, a su vez, dispone de construcciones del lenguaje que permiten un control a muy bajo nivel. Los compiladores suelen ofrecer extensiones al lenguaje que posibilitan mezclar código en ensamblador con código C o acceder directamente a memoria odispositivos periféricos.

21. Modelo OSI(Open system Interconnected)

Las siglas O.S.I. cuyo significado es Open System Interconnection o, en castellano, Interconexión de Sistemas Abiertos, se formó en el año 1983 y es el resultado del trabajo de la ISO (International Standard Organization) para la estandarización internacional de los protocolos de comunicación como necesidad de intercambiar información entre sistemas heterogéneos, entre sistemas cuyas tecnologías son muy diferentes entre sí , llevó a la ISO a buscar la manera de regular dicho intercambio de información.

Se consideró que los protocolos y modelos de la OSI llegarían a dominar las comunicaciones entre computadores, reemplazando eventualmente las implementaciones particulares de protocolos así como a modelos rivales tales como TCP/IP o el Protocolo de Control de Transmisión y Protocolo Internet.

Pero esto no ha sucedido así, aunque se han desarrollado muchos protocolos de utilidad dentro del contexto de OSI, el modelo de las siete capas en su conjunto no ha prosperado. Por el contrario, la arquitectura TCP/IP se ha convertido en la dominante.

No tenemos que descartar que la agencia que se encargó de esta tarea, la ISO consiguió obtener grandes avances en lo dedicado a la comunicación entre los computadores aunque su trabajo se extiende desde 1946 hasta hoy día con el objetivo de promociar el desarrollo de normalizaciones que abarcan un gran abanico de materias siguiendo a su vez unas determinadas normas para la creación de un estándar ISO.

20. Inteligencia Artificial


Se denomina inteligencia artificial (IA) a la rama de las Ciencias de la Computación dedicada al desarrollo de agentes racionales no vivos.
Para explicar la definición anterior, entiéndase a un agente como cualquier cosa capaz de percibir su entorno (recibir entradas), procesar tales percepciones y actuar en su entorno (proporcionar salidas), y entiéndase a la racionalidad como la característica que posee una elección de ser correcta, más específicamente, de tender a maximizar un resultado esperado (este concepto de racionalidad es más general y por ello más adecuado que inteligencia para definir la naturaleza del objetivo de esta disciplina).
Por lo tanto, y de manera más específica la inteligencia artificial es la disciplina que se encarga de construir procesos que al ser ejecutados sobre una arquitectura física producen acciones o resultados que maximizan una medida de rendimiento determinada, basándose en la secuencia de entradas percibidas y en el conocimiento almacenado en tal arquitectura.
Existen distintos tipos de conocimiento y medios de representación del conocimiento, el cual puede ser cargado en el agente por su diseñador o puede ser aprendido por el mismo agente utilizando técnicas de aprendizaje.

4. Sistema de Archivos (video)

video 



19. Areas de Aplicacion de la Informatica

La informatica juega un papel muy importante en el desarrollo de todas las areas y asi tambien tiene una gran diversidad de areas de aplicacion, por esto es parte de nuestra lavor como profesionales saber todas las areas en las que nuestra carrera puede ser aplicada, muchas veces algunos renglones o actividades se saturan de gente que tiene el mismo conocimiento sobre algo, habiendo miles de cosas que necesitan tambien ser conocidas para ser puestas en practica.

Areas en las cuales la informatica puede desarrolarse, aportar y ser aplicada:

-Algebra computacional
-Análisis numérico
-Gráficos por computadoras
-Química computacional
-Física computacional
-Quimica computacional
-Fisica computacional
-Bioinformatica
-Gestion de negocios
-Ciencias físicas e ingeniería
-Ciencias de la vida y médicas
-Ciencias sociales y del comportamiento
-Aplicaciones en educación.
-Arte y humanides

18. OS/400


El sistema operativo OS/400 apareció en el mercado en 1988 al mismo tiempo que la línea de miniordenadores AS/400, llamados en la jerga de IBM, servidores midrange. El desarrollo conjunto de hardware y sistema operativo da como resultado un intenso aprovechamiento de los recursos de aquél.
Entre sus características iniciales más destacadas podríamos señalar la integración a nivel del propio sistema de la base de datos DB2/400, que no solo se ofrece como soporte para los datos de aplicaciones y usuarios, sino también como un almacenamiento estructurado para todos los objetos del sistema operativo, incluyendo un sistema de librerías mononivel. Como es usual en los sistemas medios tiene la posibilidad de generar "subsistemas", es decir asignar recursos (memoria, procesadores, etc) a funciones o entornos concretos, permitiendo un control más profundo de los mismos que el existente en otras arquitecturas.

17. Windows



Microsoft Windows es el nombre de una serie de sistemas operativos desarrollados porMicrosoft desde 1981, año en que el proyecto se denominaba "Interface Manager".
Anunciado en 1983, Microsoft comercializó por primera vez el entorno operativo denominado Windows en noviembre de 1985 como complemento para MS-DOS, en respuesta al creciente interés del mercado en una interfaz gráfica de usuario (GUI).Microsoft Windows llegó a dominar el mercado de ordenadores personales del mundo, superando a Mac OS, el cual había sido introducido previamente a Windows. En octubre de 2009, Windows tenía aproximadamente el 91% de la cuota de mercado de sistemas operativos en equipos cliente que acceden a Internet.La versiones más recientes de Windows son Windows 7 para equipos de escritorioWindows Server 2008 R2 paraservidores y Windows Mobile 7 para dispositivos móviles.


16. AIX


AIX (Advanced Interactive eXecutive) es un sistema operativo UNIX System V propietario de IBM. Inicialmente significaba "Advanced IBM Unix" pero probablemente el nombre no fue aprobado por el departamento legal y fue cambiado a "Advanced Interactive eXecutive"
AIX corre en los servidores IBM eServers pSeries, utilizando procesadores de la familiaIBM POWER de 32 y 64 bits.
Algunas de las características únicas de AIX incluyen el Object Data Manager (ODM, una base de datos de información del sistema). La integración de AIX del "Logical Volume Management" (administrador de volumen lógico) dentro del núcleo está siendo incluido gradualmente a varios sistemas operativos libres similares a UNIX.

15. Macintosh




Macintosh (abreviado Mac) es el nombre con el que actualmente nos referimos a cualquier computadora personal diseñada, desarrollada, construida y comercializada porApple Inc. El Macintosh 128K fue lanzado el 22 de julio de 1984. Fue el primer ordenador personal que se comercializó exitosamente, que usaba una interfaz gráfica de usuario(GUI) y un mouse en vez del estándar de esa época: la interfaz por línea de comandos. La línea de producción de Macs en la actualidad varía desde el básico Mac mini de escritorio hasta los servidores de rango medio como Xserve. Los sistemas Mac tienen como objetivo principal de mercado el hogar, la educación y la creatividad profesional. La producción de Mac está basada en un modelo de integración vertical en los que Apple proporciona todos los aspectos de su hardware y crea su propio sistema operativo que viene preinstalado en todas las Macs. Esto contrasta con las PC preinstalados conMicrosoft Windows, donde un vendedor proporciona el sistema operativo y múltiples vendedores crean el hardware. En ambos casos, el hardware permite el funcionamiento de otros sistemas operativos: las Mac modernas, así como las PC son capaces de soportar sistemas operativos como LinuxFreeBSD y Windows, éste último gracias al software de Apple Boot Camp o a otros softwares de virtualización como por ejemploParallels Desktop o VMWare Fusion. En la actualidad también es posible modificar el sistema operativo de Apple para hacerlo compatible con la mayoría de hardware existente; es el llamado movimiento OSx86.
Los primeros Macintosh estaban basados en los microprocesadores de la familia Motorola MC68000, de tecnología CISC. En marzo de1994, Apple introdujo en la gama Macintosh los chips PowerPC del Consorcio Apple/IBM/Motorola, que suponían el cambio a la tecnología RISC. En el 2006 Apple inició la transición desde la línea de PowerPC line a los procesadores Intel con arquitectura x86. Los Macs actuales usan la serie de microprocesadores Intel Core 2 Duo, Intel Core i3, Intel Core i5Intel Xeon e Intel Core i7. Todos los modelos de Mac actuales vienen con una versión nativa de la última versión de Mac OS X, que desde el 28 de agosto de 2009 está en su versión Mac OS X v10.6 Snow Leopard.

14. LINUX





Linux es uno de los términos empleados para referirse a la combinación del núcleo o kernel libre similar a Unix denominado Linux, que es usado con herramientas de sistema GNU. Su desarrollo es uno de los ejemplos más prominentes de software libre; todo su código fuente puede ser utilizado, modificado y redistribuido libremente por cualquiera bajo los términos de la GPL (Licencia Pública General de GNU) y otra serie de licencias libres.

A pesar de que Linux (núcleo) es, en sentido estricto, el sistema operativo, parte fundamental de la interacción entre el núcleo y el usuario (o los programas de aplicación) se maneja usualmente con las herramientas del proyecto GNU o de otros proyectos como GNOME. Sin embargo, una parte significativa de la comunidad, así como muchos medios generales y especializados, prefieren utilizar el término Linux para referirse a la unión de ambos proyectos. Para más información consulte la sección "Denominación GNU/Linux" o el artículo "Controversia por la denominación GNU/Linux".

13. UNIX

Unix (registrado oficialmente como UNIX®) es un sistema operativo portablemultitarea y multiusuario; desarrollado, en principio, en1969 por un grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran Ken ThompsonDennis Ritchie y Douglas McIlroy.


Hasta 2009, el propietario de la marca UNIX® fue The Open Group, un consorcio de normalización industrial. A partir de marzo de 2010 y tras una larga batalla legal, esta ha pasado nuevamente a ser propiedad de Novell, Inc. Sólo los sistemas totalmente compatibles y que se encuentran certificados por la especificación Single UNIX Specification pueden ser denominados "UNIX®" (otros reciben la denominación "similar a un sistema Unix" o "similar a Unix"). En ocasiones, suele usarse el término "Unix tradicional" para referirse a Unix o a un sistema operativo que cuenta con las características de UNIX Versión 7 o UNIX System V.

12. VAX (Virtual Address Extention)

El VAX es uno de los más exitosos de la familia de ordenadores de Digital Equipment Corporation (DEC). El nombre Virtual Address Extention (VAX), que significa "Extensión de dirección virtual",se refiere al gran espacio de direcciones virtuales, que estaba destinado a ser una extensión a la arquitectura de la PDP-11. En los primeros meses del proyecto, la máquina fue llamado PDP-11 / 780. Tambien VAX es una arquitectura de conjunto de instrucciones (ISA), de 32 bits de Instrucciones Equipo Conjunto Complejo (CISC), ISA que fue diseñado para ampliar o reemplazar los diversos programadas de datos del procesador (PDP). The VAX name was also used by DEC for a family of computer systems based on this processor architecture. El nombre VAX fue utilizado por DEC para una familia de informática de sistemas basados en esta arquitectura de procesador.

Fue la primera minicomputadora en interconectar todos los elementos del sistema — procesador, memoria y periférico — a un único bus de comunicación, bidireccional, asíncrono). Su nombre original era VAX-11 (Virtual Address Extended PDP-11). El VAX-11 fue diseñado para ampliar el PDP-11 en una "cultura de la moda compatibles"
(Strecker, 1978).
A finales de 1978, cuando era evidente que el mercado estaba respondiendo a VAX, la estrategia de VAX se desarrollo, elaboró y se aprobó.

Lanzada el 25 de octubre de 1977, fue la primera máquina comercial de arquitectura de 32 bits, lo que la convierte en un hito destacable en la historia de la computación. La primera VAX-11/780 fue instalada en Carnegie Mellon University, se introdujo a principios de 1978.


El VAX fue visto como una extensión de 32 bits de la edad de 16 bits del PDP-11 y porque era uno de los primeros de la memoria virtual para gestionar este espacio de direcciones mayor.



11. Virtual Machines (Maquina Virtual)


una máquina virtual es un software que emula a una computadora y puede ejecutar programas como si fuese una computadora real. Este software en un principio fue definido como "un duplicado eficiente y aislado de una máquina física". La acepción del término actualmente incluye a máquinas virtuales que no tienen ninguna equivalencia directa con ningún hardware real.
Una característica esencial de las máquinas virtuales es que los procesos que ejecutan están limitados por los recursos y abstracciones proporcionados por ellas. Estos procesos no pueden escaparse de esta "computadora virtual".
Uno de los usos domésticos más extendidos de las máquinas virtuales esejecutar sistemas operativos para "probarlos". De esta forma podemos ejecutar un sistema operativo que queramos probar (GNU/Linux, por ejemplo) desde nuestro sistema operativo habitual (Mac OS X por ejemplo) sin necesidad de instalarlo directamente en nuestra computadora y sin miedo a que se desconfigure el sistema operativo primario.

10. VMS Virtual Memory System

La memoria virtual es una técnica para proporcionar la simulación de un espacio de memoria mucho mayor que la memoria física de una máquina. Esta "ilusión" permite que los programas se hagan sin tener en cuenta el tamaño exacto de la memoria física.
La ilusión de la memoria virtual está soportada por el mecanismo de traducción de memoria, junto con una gran cantidad de almacenamiento rápido en disco duro. Así en cualquier momento el espacio de direcciones virtual hace un seguimiento de tal forma que una pequeña parte de él, está en memoria real y el resto almacenado en el disco, y puede ser referenciado fácilmente.
Debido a que sólo la parte de memoria virtual que está almacenada en la memoria principal, es accesible a la CPU, según un programa va ejecutándose, la proximidad de referencias a memoria cambia, necesitando que algunas partes de la memoria virtual se traigan a la memoria principal desde el disco, mientras que otras ya ejecutadas, se pueden volver a depositar en el disco (archivos de paginación).







video

9. MVS (Múltiple Virtual Storage)


MVS (Multiple Virtual Storage, Múltiple Almacén Virtual en inglés) fue el sistema operativo más usado en los modelos de mainframesSystem/370 y System/390 de IBM. No tiene ninguna relación con VM/CMS, otro sistema operativo de IBM.
El MVS fue lanzado al mercado por primera vez en 1974, y luego fue renombrado a MVS/XA (por arquitectura extendida en inglés), más tarde a MVS/ESA (por arquitectura de sistemas empresariales), luego se renombró como OS/390 cuando se le añadió al sistema operativo los servicios de UNIX, y finalmente a z/OS cuando los modelos zSeries fueron introducidos al mercado. Todos ellos, sin embargo, son fundamentalmente el mismo sistema operativo. De hecho, los programas que hayan sido diseñados para el sistema MVS pueden correr en z/OS sin modificación alguna.
MVS fue creado basado en SVS (Single Virtual Storage, Único Almacén Virtual), y éste a su vez fue creado a partir de MVT, una de las variantes del sistema operativo OS/360.

8. CP/M-Control Process For Micro Processors

CP/M (Control Program/Monitor) es un sistema operativo desarrollado por Gary Kildall para el microprocesador Intel 8080 (los Intel 8085 y Zilog Z80 pueden ejecutar directamente el código del 8080, aunque lo normal es que se entregara el código recompilado para el microprocesador de la máquina). Se trata del sistema operativo más popular entre las computadoras personales en los años 1970. Aunque fue modificado para ejecutarse en un IBM PC, el hecho que IBMeligiera MS-DOS, al fracasar las negociaciones con Digital Research, hizo que el uso de CP/M disminuyera hasta hacerlo desaparecer.

El acrónimo CP/M significa Control Program for Monitors, es decir, Programa de control para monitores. En la época, la barra inclinada (/) tenía esta acepción de "diseñado para". No obstante, Gary Kildall redefinió el significado del acrónimo poco después.

CP/M se convirtió en un estándar de industria para los primeros micro-ordenadores.

7. Procesos

Un proceso es un programa en ejecución, los procesos son gestionados por el sistema operativo y están formados por:
·         Las instrucciones de un programa destinadas a ser ejecutadas por el microprocesador.
·         Su estado de ejecución en un momento dado, esto es, los valores de los registros de la CPU para dicho programa.
·     Su memoria de trabajo, es decir, la memoria que ha reservado y sus contenidos.
Otra información que permite al sistema operativo su plantificación.



Un proceso, ya sabemos quién controla los procesos de nuestro computador pero también podemos decir que:

Los procesos son creados y destruidos por el sistema operativo, así como también este se debe hacer cargo de la comunicación entre procesos.  El mecanismo por el cual un proceso crea otro proceso se denomina bifurcación.