Date post: | 22-Mar-2016 |
Category: |
Documents |
Upload: | maria-camila-buitrago |
View: | 218 times |
Download: | 1 times |
Avances de la Tecnología Por: María Camila Buitrago Vargas
Ing. Sistemas y Computación
Cod:201221134
Universidad Pedagógica y Tecnológica de
Colombia
EN ESTA REVISTA, SE RECOLECTAN DATOS, DANDO INFORMACION CLARA Y ACTUALIZADA SOBRE LOS DIFERENTES AVANCES, EN LOS CAMPOS DE INVESTIGACION, QUE A TRAVEZ DEL TIEMPO SE HAN DESARROLLADO.
María Camila B. 04/09/2012
Realidad Aumentada (RA)…………………………… 3
Robótica………………………………………………………. 6
Calidad de Software…………………………………….. 8
Herramientas de la Web 2.0………………………… 10
Sistemas Expertos……………………………………….. 13
Seguridad Informática………………………………… 16
Telemedicina……………………………………………….
Programación de Video Juegos……………………
Programación Orienta a Objetos…………………
Red de Computadores…………………………………
Animación en 3D…………………………………………
Sistemas Operativos…………………………………..
Inteligencia Artificial………………………………….
Audio Digital……………………………………………...
Por: Brayan Javier CarvajalFecha: 14 de Agosto
Tiempo de Inicio: 3:00 p.m. Tiempo final: 3:19 p.m.
Es una tecnología que mezcla la
realidad y ha esta le añade lo virtual,
esto suena a realidad virtual, pero en
realidad no lo es, la diferencia está
en que la realidad virtual aísla lo real
y es netamente virtual.
Contiene un dispositivo para leer
imágenes, por medio de un software
instalado se transforman los datos en
realidad aumentada, luego el código
de barras bidimensional presenta la
información asociada.
Esta consta de dos definiciones:
Ronald Azuma en 1997, la definió
como la combinación de elementos
virtuales y reales; es interactiva en
tiempo real y está restringida en 3D.
Paul Milgiam y Famio Kishino en
1994, definen la realidad como un
continuo que abarca desde el entorno
real a un entorno virtual puro.
Morton Heiling: Llamado el
padre de la Realidad Virtual; en 1962
crea un simulador de motor llamado
Sensurama, con imágenes, sonido de
vibración y olfato.
Ivan Sutherland: Creador de
las gráficas de computadora, en 1973
invento la display de cabeza (HMD),
donde se entró al mundo virtual.
Myron Krueger: Desarrollo uno
de los primeros trabajos interactivos;
en 1985 crea videoplace que permite a
los usuarios interactuar con objetos
virtuales.
Jaran Lanier: Popularizo la
“Realidad Virtual”; en 1990, fundo la
VPL Research y crea la primera
actividad comercial en torno a los
mundos virtuales.
Tom Caudell: En 1992, crea el
termino de Realidad Aumentada (RA).
En 1994 Steven Ferner, Blair
Maclntyre y Doree Seligman,
fueron las primeras personas en
utilizar el Sistema de Realidad
Aumentada en un prototipo
KARMA.
Hirokazu Kato es una de los
grandes promotores de
KA,desarrollando el software
ARtoolkit en el HitLab en 1999.
Bruce Thomas, en el 2000
desarrollo ARQuare, el primer
juego al aire libre con
dispositivos moviles de RA.
Reinhol Behringer, organizo el
primer simpasio internacional
sobre KA en 1998.
En el 2008 AR Wikitude Guía,
sale a la venta con el teléfono
Android G.
En el 2009, AR Toolkit es
portado a Adobe Flash por
Sagoosha, con lo que la realidad
aumentada llega al navegador
web.
En el 2012, Geogle se lanza al
diseño de unas gafas que
crearon la primera realidad
aumentada comercializada;
bautiza a su proyecto como
Proyect Glass.
Augmented reality ignores the virtual environment and instead uses the reality
around us like scene or interface in which to display information related and
useful.
Contains a device for reading images, by means of a software installed in the
data transformed augmented reality, then the two-dimensional bar code has
associated information. Augmented reality also be used since the telephone is
not dependent on the physical location, but the reading of specific marks
simple way of two-dimensional codes that are read by the phone's camera.
What in reality is a coded label on the phone screen is displayed as a three
dimensional object with which you can interact with different purposes, from
watching a 3D model of a museum guide us through the halls and galleries to
participate in games like Kweekies.
Por: Sandra Milena Espitia
Fecha: 14 de Agosto Tiempo de Inicio: 3:25 p.m.
Tiempo final: 3:39 p.m.
Se define como la ciencia o la rama
de la tecnología, que estudia el
diseño y construcción de máquinas.
Ningún robot puede hacer daño a un
ser humano o permitir que le hagan
daño por no actuar.
Un robot debe obedecer las
órdenes dadas por un ser humano,
excepto si estas órdenes entran en
conflicto con la primera ley.
Un robot debe proteger su propia
existencia, en la medida en que esta
protección no sea incompatible con
las leyes anteriores.
las
manipulables.
De
aprendizaje, tiene la función de
repetir movimientos.
Con control
sensorizado; por medio de un
computador o sistema que manda
órdenes.
Inteligentes;
por medio de sensores que envía la
computadora y esta toma
decisiones.
Por el tipo de configuración del
robot.
Sedentarios.
Desplazamiento.
Reproducen las
actuaciones del ser humano.
Reproducen a los
animales.
Estos son extraños,
porque contienen partes de todos
los robots.
Resolución o precisión.
Repetitividad.
Exactitud.
Se utilizan para realizar
trabajos repetidos, pesados o
peligrosos.
Ayudan a los hombres a realizar
diferentes tipos de labores.
Submarinos o especiales
Robot abastecedor de
gasolina.
Robot para desactivar
minas.
Robot levantador de
muros.
Robot para limpiar
aviones o fumigar.
Abstrac:
Robotics is a branch of science or
technology, which studies the
design and construction of machines
capable of performing tasks
performed by humans or require
the use of intelligence.
A robotic system can be described
as one who is able to receive
information, to understand their
environment through the use of
models, to formulate and execute
plans, and to control or monitor its
operation.
Asimov wrote his fourth short
story about robots, called the
Three basic rules of robotics
are:
No robot may harm a
human being, or let it hurt
for not acting.
A robot must obey orders
given it by human beings
except where such orders
would conflict with the
First Law.
A robot must protect its
own existence as long as
such protection does not
conflict with previous
laws.
Por: Alexander Bonilla Fecha: 16 de Agosto
Tiempo de Inicio: 9:00 a.m. Tiempo final: 9:14 a.m.
Calidad: Producto o servicio que
nosotros adquirimos, satisfice
nuestras expectativas, es decir,
aquel servicio o producto funcional
tal y como lo queramos.
Software: Soporte lógico de
un sistema informático, que hacen
posible la realización de tareas
específicas.
Es una preocupación a la que se
dedican muchas fuerzas. El
Software casi nunca es perfecto,
aunque todo proyecto tiene como
finalidad producir software de la
mejor calidad posible.
Conjunto de actividades
planificadas, necesarias para
soportar la confianza que el
producto, “el software”
satisface.
Se diseña para cada
aplicación antes de comenzar
a desarrollarla y no después.
Pedir garantía de calidad en
vez de aseguramiento.
Se debe adecuar a los objetivos
de calidad de la empresa.
Gestión de calidad.
La dirección de la empresa, es
la responsable de fijar la
política de calidad.
Técnicas y actividades de carácter
operativo, centrados en:
Mantener bajo control un
proceso
Eliminar las causas de los
defectos en las diferentes
fases de ciclos de vida.
Permite una valoración
independiente que debe demostrar
que la organización es capaz de
desarrollarla. Para esto, se deben
tener en cuenta los siguientes
pilares:
Metodología Adecuada
Medio de Valoración
Existen varios factores, que
son:
Corrección
Fiabilidad
Integridad
Facilidad de Uso
Facilidad de Mantenimiento
Flexibilidad
Software quality is a concern to many
efforts devoted. However, the software is
almost never perfect. All project aims to
produce software of the highest quality,
meeting, and if it can exceed user
expectations.
The characteristics of the software, are
those that you want to monitor and ensure the software is an intangible
product that is not manufactured, either physically degrade, but develops,
software quality is almost on par with the traditional quality .
Por: Jennifer Aponte
Fecha: 16 de Agosto Tiempo de Inicio: 9:15 a.m.
Tiempo final: 9:30 a.m.
La Web 2.0, es una plataforma
funcional, simple, ligera, social, de
flujo, flexible, combinable y
participativa. Contienen elementos
que hacen posible una mejor
interacción, como la comunicación,
contenido y sociedad.
Se refiere al fenómeno social,
surgido a partir del desarrollo de
diversos surgimientos en el
internet.
Fue creada alrededor de 1990 por
Tim Berners y Robert Cailliau.
Dale Dougherty, establece una
distinción para la primera época de
la Web.
Para la publicación de contenidos, se
hace por medio de:
Blogger
Redes Sociales
Servicios conocidos como
Wikis
Portales de fotos y videos
Algunas de las principales
herramientas son:
Mindmeister: Colaboración en
línea para mapas mentales.
Media Wiki: Herramientas
especializadas en escritura;
corrección de documentos.
People Aggregator: Sirve para
crear redes sociales.
Google Docs: Permite trabajar en
documentos.
TWiki: Facilita las contribuciones.
Confluence: Facilita a equipos a
trabajar y administrar el
conocimiento.
Egg: Plataforma para redes
sociales.
Google AdSense: Servicios de
publicidad.
Flickr: Comunidades fotográficas
BitTorrent: Distribución de
contenidos.
Wikipedia: Enciclopedias
Blogs: Páginas personales.
Optimización en motores de
búsqueda SEO
Wikis: Administradores de
contenidos.
Tags
El Web 2.0 no significa
precisamente que existe una receta
para que todas nuestras aplicaciones
web, entren en este esquema. Sin
embargo, existen varias tecnologías
que están utilizándose actualmente
y que deberíamos de examinar en
busca de una evolución junto a la
web:
Transformar software de
escritorio hacia la plataforma
del web.
Respeto a los estándares
como el XHTML.
Separación de contenido del
diseño con uso de hojas de
estilo.
Sindicación de contenidos.
Ajax (javascript ascincrónico
y xml).
Uso de Flash, Flex o Lazlo.
Uso de Ruby on Rails para
programar páginas dinámicas.
Utilización de redes sociales
al manejar usuarios y
comunidades.
Dar control total a los
usuarios en el manejo de su
información.
Proveer APis o XML para que
las aplicaciones puedan ser
manipuladas por otros.
Facilitar el posicionamiento
con URL sencillos.
The Web 2.0 is not just a
technology, but is the attitude with
which we must work to develop
Internet.
Web 2.0 is the transition that has
occurred from traditional
applications to applications running
through the end user focused web.
This is generating applications and
collaboration services that replace
desktop applications.
It is a stage that has defined new
projects on the Internet and is
worrying about providing better
solutions for the end user.
To understand where the term Web
2.0 is necessary to go back to when
Dale Dougherty of O'Reilly Media
used this term, at a conference in
which he shared brainstorm with
Craig Cline of MediaLive. In the
event there was talk of rebirth and
evolution of the web.
Principles of Web 2.0 applications:
The web is the platform
Information is what drives the
Internet
Effects moved by a network
architecture of participation.
Innovation comes from independent
developers distributed
characteristics.
The end of the circle of adoption of
software services as we have in
perpetual beta
Por: Kelly Avendaño Fecha: 16 de Agosto
Tiempo de Inicio: 9:31 a.m. Tiempo final: 9:49 a.m.
Hay varias definiciones propuestas
por distintos autores, como:
Stevens 1984: Son máquinas
que piensan y razonan como
un experto lo haría en cierta
especialidad o campo.
Castillo y Álvarez 1991 y
Durkin 1994: Puede definirse
como un sistema informático,
que simula a los expertos
humanos en un ares de
especialización dada.
1. Con la ayuda de un sistema
experto de poca
experiencia puede
resolver problemas que
requieren un conocimiento
de experto.
2. El conocimiento de varios
expertos humanos puede
combinarse, lo que da
lugar a sistemas expertos
más fiables.
3. Pueden responder
preguntas y resolver
problemas, mucho más
rápido que un experto
humano.
4. Se puede obtener
enormes ahorros mediante
el uso de sistemas
expertos.
Problemas esencialmente
deterministas; también
llamados Sistemas basados en
Reglas, que se refiere al
Razonamiento Lógico.
Problemas esencialmente
estocásticos ( al azar), que se
refiere a las situaciones de
incertidumbre.
1. Componente Humana:
Especialistas en conocimiento.
2. Base de Conocimiento:
Estructurada y aplicada.
3. Subsistema de Adquisición de
Conocimiento: Control del flujo
del nuevo conocimiento.
4. Control de la Coherencia:
Controla la base de datos y evita
que unidades de conocimiento
entren en ellos.
5. Motor de Inferencia: Extrae
conclusiones.
6. Subsistema de Adquisición de
Conocimiento: Se utiliza cuando
el motor de inferencia es
limitado para sacar conclusiones.
7. Interface del Usuario: Es el
enlace entre el sistema experto
y el usuario.
8. Subsistema de Ejecución de
Órdenes: La componente que
permite al sistema experto
iniciar acciones.
9. Subsistema de Aplicación: El
usuario puede pedir
explicaciones sobre las
conclusiones.
10. Subsistema de Aprendizaje:
Tiene capacidad para aprender.
Diferencia entre aprendizaje
estructural y paramétrico.
Expert systems are so named
because they emulate the reasoning
of an expert in a particular domain
and are sometimes used by them.
Expert systems with better quality
is sought speed of responses and
thus leading to an improvement in
the productivity of the expert.
For an expert system is an
effective tool, users must interact
in an easy, gathering two
capabilities to fulfill:
Explain their reasoning or
knowledge base: expert systems
should be performed following
certain rules or understandable
steps so that you can generate an
explanation for each of these rules,
which in turn are based on facts.
Acquisition of new knowledge or
system integrator: reasoning
mechanisms are used to modify
previous knowledge. Based on the
above it can be said that expert
systems are the product of
research in the field of artificial
intelligence as it is not intended to
replace human experts, but you
want to help them make faster and
more efficiently with all tasks
performed.
Por: Alejandro Castro
Fecha: 16 de Agosto Tiempo de Inicio: 9:49 a.m.
Tiempo final: 10:02 a.m.
Es el área de la informática
que se enfoca en la
protección de la
infraestructura
computacional y todo lo
relacionado con esta. Para
ello existen una serie de
estándares, protocolos,
métodos, reglas,
herramientas y leyes
concebidas para minimizar los
posibles riesgos a la
infraestructura o a la
información. La seguridad
informática comprende
software, bases de datos,
metadatos, archivos y todo lo
que la organización valore
(activo) y signifique un riesgo
si ésta llega a manos de otras
personas. Este tipo de
información se conoce como
información privilegiada o
confidencial.
La seguridad informática está
concebida para proteger los activos
informáticos, entre los que se
encuentran:
Debe ser administrada según
los criterios establecidos por
los administradores y
supervisores, evitando que
usuarios externos y no
autorizados puedan acceder a
ella sin autorización.
La función de la seguridad
informática en esta área, es
velar que los equipos
funcionen adecuadamente y
prever en caso de falla planes
de robos, incendios, boicot,
desastres naturales, fallas en
el suministro eléctrico y
cualquier otro factor que
atente contra la
infraestructura informática.
Debe establecer normas que
minimicen los riesgos a la
información o infraestructura
informática.
Estos fenómenos pueden ser
causados por:
El usuario: causa del mayor
problema ligado a la
seguridad de un sistema
informático
Programas maliciosos:
programas destinados a
perjudicar o a hacer un uso
ilícito de los recursos del
sistema.
Un intruso: persona que
consigue acceder a los datos
o programas de los cuales no
tiene acceso permitido
Un siniestro: una mala
manipulación o una mal
intención derivan a la pérdida
del material o de los archivos.
El personal interno de
Sistemas.
Virus residentes: Se ocultan
en la memoria RAM de forma
permanente o residente.
Virus de acción directa: Se
reproducen y actúan en el
mismo momento de ser
ejecutados.
Virus de sobreescritura:
Estos virus se caracterizan
por destruir la información
contenida en los ficheros que
infectan.
Virus de boot(bot_kill) o de
arranque: Actúan infectando
en primer lugar el sector de
arranque de los dispositivos
de almacenamiento.
Virus de enlace o
directorio: Los ficheros se
ubican en determinadas
direcciones, que el sistema
operativo conoce para poder
localizarlos y trabajar con
ellos.
Virus cifrados: Estos virus
se cifran a sí mismos para no
ser detectados por los
programas antivirus.
Virus polimórficos: Son virus
que en cada infección que
realizan se cifran de una
forma distinta (utilizando
diferentes algoritmos y
claves de cifrado).
Virus multipartites: Virus
muy avanzados, que pueden
realizar múltiples infecciones,
combinando diferentes
técnicas para ello.
Virus del Fichero: Infectan
programas o ficheros
ejecutables (ficheros con
extensiones EXE y COM).
Virus de FAT: Es la sección
de un disco utilizada para
enlazar la información
contenida en éste. Los virus
que atacan a este elemento
son especialmente peligrosos,
ya que impedirán el acceso a
ciertas partes del disco,
donde se almacenan los
ficheros críticos para el
normal funcionamiento del
ordenador.
Computer security is the area of
computer science that focuses on
the protection of computer
infrastructure and everything
related to it (including the
information). For this there are a
number of standards, protocols,
methods, rules, tools and laws
designed to minimize potential risks
to infrastructure or information.
The software includes computer
security, databases, metadata, files
and all that the organization values
(assets) and constitutes a risk if it
comes at the hands of others. This
type of information is known as
privileged or confidential
information.
The concept of information security
should not be confused with
computer security, since the latter
only in charge of security in the
computer medium, may find
information in different ways or
means.