CAPITULO II
MARCO TEORICO
El marco teórico amplía la descripción del problema, integra la teoría
con la investigación donde implica un
proceso, un recorrido científico en torno a un fenómeno, situación, objeto de
estudio que tiene su historia como tema o problema dentro de un campo
intelectual / científico. Por tal razón los antecedentes de una investigación
indican paulatinamente los rasgos históricos de recorridos realizados por
anteriores investigadores sobre el tema.
Se ha orientado la selección de antecedentes con relación a temas que
tengan un valor directo o tangencial con alguno de los aspectos definidos en el diseño y
desarrollo de la investigación, siguiendo como criterio de ordenación, el grado
de significación de las investigaciones
con el presente estudio y son reseñadas a continuación:
Según Tamayo y Tamayo (2000) “El marco teórico nos amplía la descripción
del problema. Integra la teoría con la investigación y sus relaciones mutuas.”
(p. 96).
Balestrini (1998). El Marco Teórico “Es el
resultado de la selección de aquellos aspectos más relacionados con el cuerpo
teórico – epistemológico que se asume, referidos al tema específico elegido
para su estudio. De allí pues, que su racionalidad, estructura lógica y
consistencia interna, va a permitir el análisis de los hechos conocidos, así como, orientar la búsqueda de
otros datos relevantes.” (p. 32).
Es decir, donde se conceptualiza
los elementos que posteriormente se utilizaran para la investigación. Es una
forma de aclarar todo los elementos desconocidos (conceptos, palabras, técnicas,
entre otros) para aquellas personas que evalúen o utilicen más adelante la
investigación. En ella también se describen los antecedentes es decir,
investigaciones anteriores y que de una u otra forma guarden relación con la
investigación que se está llevando a cabo.
ANTECEDENTES
DE LA INVESTIGACIÓN
El tema de la presente investigación ha sido objeto de estudio y
análisis en varias ocasiones, desde diferentes puntos de vista de
investigadores, quienes han conseguido distintas respuestas a sus
interrogantes; y han dado grandes aportes a personas que se han interesado por
conseguir solución a la problemática existente.
Goncalves, María José (2004) en su trabajo de grado titulado, Sistema de
Información Automatizado de Planificación, Asesoría y Evaluación del Desempeño
del Capital Humano. El objetivo de la presente investigación fue Diseñar un
sistema automatizado de Planificación, Asesoría y Evaluación del Desempeño en
la función de Capital Humano de una Empresa de Servicios. El resumen del
presente proyecto se encuentra estructurado en ocho capítulos: El primero
comprende el problema; en el cual se encuentra el planteamiento donde se
describe la problemática o la forma actual del proceso de archivo y manejo de
documentos, además de la poca utilización que se le da a la tecnología
disponible; en el segundo capítulo se presentan la justificación de la
propuesta; en el tercer capítulo se describen los objetivos del estudio. El cuarto
capítulo está conformado por el marco teórico, en el cual se hace referencia de
los antecedentes de la investigación y también se hace referencia de algunos
conceptos teóricos básicos de tema en estudio con su respectivo desarrollo. El
quinto capítulo, se refiere a la metodología, el cual comprende una descripción
del tipo de investigación y la metodología utilizada para lograr los objetivos
de la investigación. El análisis e interpretación de los resultados se
presentan en el capítulo sexto y en el capítulo séptimo se especifican las
conclusiones y recomendaciones. En el capítulo octavo se desarrolla la
propuesta basada en la metodología de análisis y diseño de sistema estructurado
donde se define el alcance, objetivos y diseño del sistema de Planificación,
Asesoría y Evaluación del Desempeño. El objetivo alcanzar en este trabajo de
investigación es la utilización de la metodología de análisis y diseño de
sistemas de información aplicada a un proceso de la gerencia de Capital Humano.
En la actualidad los sistemas de información en las empresas constituyen
uno de los activos más valiosos, para diseñar un sistema se requieren diversas
habilidades, tales como el conocimiento para recopilar e interpretar los datos
que ayudan a diagnosticar algún problema de la empresa y su relación con los
sistemas de información.
Este trabajo especial de grado se vincula con el trabajo anteriormente
descrito, con la recopilación de datos en el cual se utilizará el cuestionario y tabulaciones.
Terán (2004), Trabajo de Grado titulado: Interfaz de Información y
Comunicación Basada en Tecnología Web del Colegio Católico “San José”.
Realizado en la Universidad Nacional Abierta. Esta investigación, enmarcada en
la modalidad de proyectos especiales fue desarrollada considerando aspectos
relacionados con la Metodología Estructurada para el Desarrollo de Sistemas de
Información (MEDSI) como complemento en la recopilación de información
requerida en la Metodología Rational Unified Process (RUP) con notación Unified
Modeling Language (UML) para el diseño e implementación de una interfaz de
información y comunicación basado en tecnología Web del Colegio Católico “San
José”, el cual es un sistema orientado a facilitar la integración de todas las
personas que componen la comunidad educativa como factores protagonistas y
participantes en el proceso de enseñanza – aprendizaje. Esta herramienta Web
permite a los usuarios externos obtener información de la institución, al mismo
tiempo que permite a los docentes actualizar los resultados de las evaluaciones
aplicadas así como las actividades planificadas de sus alumnos desde un punto
remoto por medio de internet, a los padres, representantes conocer sobre el
desarrollo y avance de los logros alcanzados por sus hijos o representados,
formalizar inscripciones, actualizar datos (pagos) y conocer las actividades
curriculares y extracurriculares programadas, a los alumnos le permite esta
herramienta obtener información relacionada con sus logros alcanzados, así como
las actividades programadas, en las distintas asignaturas. Igualmente, esta
herramienta permite una comunicación en línea con la institución utilizando la
tecnología web disponible en cualquier computador que tenga acceso a internet.
Del presente trabajo se describe la manera como se maneja la
estadística, buscando de mejorar y expresar de manera práctica y sencilla una
interfaz de información y comunicación. Se vincula con el trabajo especial de
grado, por que se busca una eficiencia al método a aplicar y de mejorar una serie de deficiencia que se
presentan a la hora de información de los y las estudiantes.
Reyes, (2009) La presente tesis titulada: Aplicación Web para Integrar
Datos Académicos de los Estudiantes de Pregrado y Postgrado de la Universidad
De Oriente. En el presente trabajo se desarrolló un sistema bajo ambiente web
para la integración de los datos académicos de los estudiantes de pregrado y
postgrado de la Universidad de Oriente, esto con la finalidad de minimizar la
redundancia de datos que es generada por las distintas aplicaciones usadas en
los núcleos que conforman la Universidad. La aplicación se elaboró utilizando
tecnologías de software libre, rigiéndose por el decreto presidencial N° 3.390.
Este desarrollo estuvo dirigido por el Proceso Unificado de Desarrollo de
Software planteado por Jacobson, Booch y Rambaugh (1999), y UML como lenguaje
de modelado para la notación de los diagramas que permiten el entendimiento más
detallado del sistema. En la fase de inicio se realizó el levantamiento y
análisis de toda la información de interés, a través de varias técnicas para la
recolección de datos, tales como: entrevistas estructuradas y no estructuradas,
observación directa y consultas de materiales bibliográficos, esto con el fin
de modelar el funcionamiento del software, luego se realizó un análisis de las
necesidades de los usuarios, una lista de requisitos funcionales
indispensables, un modelo del negocio, un modelo de dominio y una lista de
riesgos, permitiendo así crear los modelos de casos de uso a desarrollar. En la
fase de elaboración se obtuvo como resultado principal una arquitectura estable
para guiar el sistema a lo largo de su vida, para ello se culminó el modelo de
casos de uso, el modelo de análisis y el modelo de diseño, el modelo físico de
la base de datos y el plan de pruebas. En la fase de construcción se realizó la
codificación efectiva de las páginas web y los distintos componentes que
conforman el software, además de las pruebas diseñadas en la fase anterior,
aquí se emplearon las herramientas que se describen a continuación: como
sistema operativo GNU/Linux distribución Ubuntu 8.10, PHP 5 como lenguaje de
programación de scripts de servidor, JavaScript para la programación y
validaciones del lado del cliente, servidor web Apache 2.2, Quanta + 3.2 como
editor de HTML, navegador Mozilla Firefox 3.0 y como manejador de bases de
datos PostgreSQL 8.3.
Esta propuesta permitirá la integración de los datos académicos de todos
los estudiantes de la UDO en una base de datos, lo cual es necesario para
producir indicadores que apoyen la toma de decisiones de manera precisa y
confiable por parte de las autoridades universitarias, por consiguiente el
envío puntual y preciso de datos al gobierno central (CNU, OPSU, etc.)
Las bases teóricas constituyen el corazón del trabajo de investigación,
pues es sobre este que se construye todo el trabajo. Una buena base teórica
formará la plataforma sobre la cual se construye el análisis de los resultados
obtenidos en el trabajo, sin ella no se puede analizar los resultados. La base
teórica presenta una estructura sobre la cual se diseña el estudio, sin esta no
se sabe cuales elementos se pueden tomar en cuenta, y cuáles no. Sin una buena
base teórica todo instrumento diseñado, seleccionado o técnica empleada en el
estudio, carecerá de validez.
Según Arias (1999), las Bases Teóricas “Esta sección puede dividirse en
función de los tópicos que integran la temática tratada o de las variables que
serán analizadas” (p. 39).
Según Brito (1992), las bases teóricas “Incluyen las bases filosóficas,
legales, sociológicas, entre otras, que sirven de fundamento para realizar la
investigación” (p. 63).
Comprende un conjunto de conceptos y proposiciones que constituyen
un punto de vista o enfoque determinado, dirigido a explicar el fenómeno o
problema planteado.
Origen de los Sistemas
Según Génova y Guzmán (1990) los
principios unificadores de las ciencias sociales y naturales fueron la base de
la Teoría General de Sistemas creada por el biólogo Bertalanffy en el año 1920:
Esta teoría
se basa en la formulación de los principios válidos aplicables a los sistemas en
general, sin importar la naturaleza de sus elementos, componentes y
realizaciones o fuerzas reinantes, de tal forma que sea posible el análisis de
las interacciones entre los diferentes entes, con el objetivo de descubrir las
causas que generan un problema, para llegar a las metas propuestas alternas.
(p.46)
De acuerdo a los autores la palabra
sistema, se define como un conjunto de componentes que interactúan entre sí, de
tal forma que sea posible lograr un objetivo común, paradójicamente se compara,
con un negocio donde todos los que
componen la organización trabajan juntos para crear una utilidad que beneficie
a los empleados, accionistas y empresario al mismo tiempo.
Este enfoque de sistema dentro de las
organizaciones empresariales, es una manera de pensar sobre la Administración,
la cual proporciona la estructura para integrar los factores tanto internos
como externos del medio ambiente y las diferentes operaciones que afectan el
éxito de ésta.
Por otra parte, permite reconocer los
subsistemas, así como la cadena de macro sistemas con sus funciones específicas
las cuales ayudan a los gerentes al logro de sus objetivos.
La Teoría General de Sistema no busca
resolver los problemas o hallar las soluciones a estos, sino más bien trata,
dentro de lo que cabe, de producir teorías y formular aplicaciones a la
realidad empírica. A través de este concepto, se puede comprender el verdadero
y cabal funcionamiento como una totalidad, donde si se separa una de las partes
se perdería la esencia de la información obtenida, y que es la garantía de un
funcionamiento óptimo del sistema.
Teoría
General de Sistemas
Según Johansen (2004), la Teoría General
de Sistema
La teoría general de
sistemas es un planteamiento metodológico que procura la explicación de los fenómenos
que suceden en la realidad y el pronóstico de la conducta futura de dicha
realidad (Andrade, 1997). Esta teoría estudia la organización interna de los
sistemas, sus interrelaciones recíprocas, sus niveles jerárquicos, su capacidad
de variación y adaptación, la conservación de su identidad, su autonomía, las
relaciones entre sus elementos, las reglas de su organización y crecimiento,
las condiciones de su conservación, sus posibles o probables estados futuros,
su desorganización y destrucción, etc. (p. 25).
Generalmente se recomienda el uso del enfoque de sistemas
en circunstancias relacionadas con los siguientes aspectos: problemas
complejos, diversos componentes, cantidad considerable de indicadores o
variables, múltiples interrelaciones entre los componentes, relaciones
importantes con el entorno y definición y desarrollo de un modelo.
Sistema
Según O’Brien (2001) “Un sistema puede
definirse simplemente como un grupo de elementos interrelacionados o que
interactúan conformando un todo unificado. Muchos ejemplos de sistemas, pueden
encontrarse en las ciencias físicas y biológicas, en la tecnología moderna y en
la sociedad humana” (p.40).
Los sistemas están presentes en todos los
ámbitos y existe un tipo especializado de sistema que son los Sistemas de
Información, los cuales recogen, manipulan y esparcen datos e información y
tienen un mecanismo de retroalimentación para el cumplimiento y buen
desenvolvimiento de los objetivos.
Componentes de un Sistema de Información
Según O’Brien (2001), existen cuatro
conceptos principales que pueden aplicarse a todos los tipos de sistemas de información:
1.- Las personas, el hardware, el software,
los datos y las redes son los cinco recursos básicos de los sistemas de
información.
2.- Los recursos de personas incluyen
usuarios finales y especialistas en sistemas de información, los recursos de
hardware se componen de máquinas y medios, los recursos de software incluyen
tanto programas como procedimientos, los recursos de datos pueden incluir bases
de datos y de conocimiento, y los recursos de redes incluyen medios de
comunicación y redes.
3.- Los recursos de datos se transforman
mediante actividades de procesamiento de información en una variedad de salidas
de información para los usuarios finales.
4.- El procesamiento de información se
compone de actividades de entrada, procesamiento, salida, almacenamiento y
control. (p.40).
Tipos de Sistemas de Información
Kendall (1997) divide los
sistemas de información en:
Sistemas de procesamiento de
transacciones (TPS):
Son sistemas de información computarizados
desarrollados para procesar gran cantidad de datos para transacciones
rutinarias de los negocios, tales como nomina e inventario. Los TPS eliminan el
tedio de las transacciones operacionales necesarias y reducen el tiempo que
alguna vez se requirió para ejecutarlas manualmente, aunque las personas deben
alimentar datos a los sistemas computarizados. (p.21)
Sistemas de automatización
de oficina y sistemas de manejo de conocimiento:
Al nivel de conocimiento de
la organización hay dos clases de sistemas. Los sistemas automatizados de
oficina (OAS) que dan soporte a los trabajadores de datos, usan la información
para analizarla y transformar datos. Los aspectos familiares incluyen
procesamiento de palabras, hojas de cálculo editor de publicaciones,
comunicación mediante correo de voz, correo electrónico. Los sistemas de manejo
de conocimiento (KWS) dan soporte a los trabajadores profesionales, tales como
científicos, ingenieros y doctores, les ayudan a crear un nuevo conocimiento
que contribuya a la organización o a toda la sociedad.
Sistemas de Información Gerencial (MIS)
Estos sistemas no reemplazan a los sistemas de
procesamiento de transacciones. Los MIS son sistemas de información
computarizada que trabajan debido a la interacción resuelta entre gentes y
computadoras. Requieren que la gente, el software y el hardware trabajen al
unísono.
Los sistemas de información
gerencial producen información que es usada en la toma de decisiones. Sistemas
de apoyo a decisiones (DSS): Una clase de más alto nivel en los sistemas de
información computarizada son los sistemas de apoyo a decisiones (DSS). Es
similar al sistema de información gerencial tradicional en que ambos dependen
de una base de datos como fuente. Un sistema de apoyo a decisiones se aparta
del sistema de información gerencial tradicional en que enfatiza el apoyo a la
toma de decisiones en todas sus fases, estos sistemas están más hechos a la
medida de la persona o grupo que los usa.
Sistemas Expertos e Inteligencia Artificial (AI)
Los sistemas expertos usan los enfoques del
razonamiento de la inteligencia artificial para resolver los problemas que les
plantean los usuarios de negocios. Los sistemas expertos son un caso muy
especial de un sistema de información, cuyo uso ha sido factible para los
negocios a partir de la reciente y amplia disponibilidad de hardware y software
tal como las microcomputadoras y sistemas expertos. Un sistema experto, también
llamado sistema basado en conocimiento captura en forma afectiva y usa el
conocimiento de un experto para resolver un problema particular experimentado
en una organización. (p.3).
Actividades Básicas de un Sistema de Información
Entrada de Información
Es el proceso mediante el cual el sistema de
información torna los datos que requiere para procesar la información. Las
entradas pueden ser manuales o automáticas. Las manuales son aquellas que le
usuario proporciona en forma directa, mientras que las automáticas son datos o
información que provienen o son tomadas de otros sistemas o módulos. Las
unidades típicas de entrada de datos a las computadoras son las terminales, las
cintas magnéticas, las unidades de diskette, los códigos de barra, los
escáneres, la voz, los monitores sensibles al tacto, el teclado y el mouse,
entre otras.
Almacenamiento de Información
El almacenamiento es una de
las actividades o capacidades más importantes que tiene una computadora, ya que
a través de esta propiedad el sistema puede recordar la información guardada en
la sección o proceso anterior. Está información suele ser almacenada en
estructuras de información denominadas archivo o base de datos. La unidad
típica de almacenamiento son los discos magnéticos o discos duros, los discos
flexibles o diskettes y los discos compactos (CD-ROM).
Procesamiento de Información
Es la
capacidad del sistema de información para efectuar cálculos de acuerdo con una
secuencia de operaciones preestablecidas. Estos cálculos pueden efectuarse con
datos introducidos recientemente en el sistema o bien con datos que están
almacenados. Esta característica de los sistemas permite la transformación de
datos fuente en información que puede ser utilizada para la toma de decisiones.
Salida de Información
La salida es la capacidad de
un sistema para sacar la información procesada o bien datos de entrada al
exterior.
Las unidades típicas de
salida son las impresoras, terminales, diskettes, cintas magnéticas, la voz,
los graficadores y los plotters, entre otros. Es importante aclarar que la
salida de un sistema de información puede constituir la entrada a otro sistema
o módulo.
Ventajas de los Sistemas de Información
Evidentemente el uso de los Sistemas de Información, pueden ofrecer
muchas ventajas a sus usuarios, para Martínez (2002) los beneficios que se
pueden obtener usando sistemas de información son los siguientes:
·
Acceso rápido a la
información y por ende mejora en la atención a los usuarios.
·
Generación de informes e
indicadores, que permiten corregir fallas difíciles de detectar y controlar con
un sistema manual.
·
Posibilidad de planear y
generar proyectos institucionales soportados en sistemas de información que
presentan elementos claros y sustentados.
·
Evitar pérdida de tiempo
recopilando información que ya está almacenada en base de datos que se pueden
compartir.
·
Organización en el manejo de
archivos e información clasificada por temas de interés general y particular.
·
Aumento de la productividad
gracias a la liberación de tiempos en búsqueda y generación de información
repetida.
Control
Como consecuencia de los cambios que se han
ido produciendo en el entorno, las empresas se han visto obligadas a adoptar
una gradual descentralización y profesionalización que ha debido ir acompañada
de una mayor formalización del proceso de control.
Según Amat, J. (1996): “El control ya sea poco
o muy formalizado es fundamental para asegurarse que todas y cada una de las
actividades de una empresa se realicen de la forma deseada y contribuyan a la
consecución de los objetivos globales” (p.126).
Es necesario que se adopte una perspectiva de
control amplia en la cual se asuma que el control no sólo por la Dirección de
informática sino por todos los componentes de la organización en la que el
control no se limite a la comparación de información financiera y cuantitativa
de diferentes períodos sino que brinde importancia a los aspectos cualitativos;
de acuerdo a esto hay varios puntos de vistas contradictorios respecto a la
manera más óptima de dirigir una organización, sin embargo los teóricos y los
profesionales coinciden en que una buena administración requiere de un control
eficaz.
La planeación, organización y dirección aun si se
aplicarán correctamente no ayudarían a los directivos de una empresa a alcanzar
sus metas si la información referente al control no se aplica correctamente.
Con respecto a ello señaló el citado autor:
Dentro del concepto de control se pueden distinguir dos perspectivas
claramente diferenciadas. En primer lugar una perspectiva limitada de lo que
significa el control en la organización, centrada en muchos casos en el cálculo
contable de los resultados y en segundo lugar en una perspectiva más amplia del
control que no sólo considera los aspectos financieros sino también y
especialmente el contexto en el que se realizan las actividades y en particular
los aspectos ligados al comportamiento individual, a la cultura organizativa y
al entorno, (p. l20).
Desde la perspectiva de los autores,
se puede considerar que el control se ejerce a través de diferentes mecanismos
que miden el resultado final obtenido, también tratan de orientar e influir en
que el comportamiento individual y organizativo sea él más conveniente para
alcanzar los objetivos de la organización.
La realización del proceso de
control ya sea mediante mecanismos formales o no formales, está ligado a la
existencia de:
(a) Un conjunto de indicadores de control que
permitan orientar el comportamiento de cada departamento a las variables claves
de la organización.
(b) A un modelo predictivo que
permite estimar a prioridad el resultado de la actividad que se espera, que se
realiza, cada responsable y /o unidad.
(c) A objetivos ligados a los
diferentes indicadores y a la estrategia de la organización.
(d) A la Información sobre el comportamiento y
el resultado de la actuación de los diferentes departamentos.
(e) A partir de las condiciones anteriores, la
evaluación del comportamiento y del resultado de cada persona y/o departamento
que permita la toma de decisiones correctivas.
De lo expuesto
anteriormente se puede denotar que la existencia de indicadores de control de
gestión sistémico permite orientar el comportamiento y facilita la eficacia de
la gestión.
En cuanto a los modelos predictivos se puede decir que
toda realización de control requiere la existencia de un modelo que permite
estimar el resultado del proceso y la actividad a realizar para alcanzar los
fines perseguidos utilizando los medios y recursos disponibles, es por ello que
se hace imprescindible para realizar un mejor control sobre la gestión,
implementar un sistema que permita orientar la formulación de los objetivos,
determinar los medios para lograrlos, analizar las causas por las que no se han
alcanzado objetivos previstos y guiar la toma de decisiones correctivas.
Sin objetivos, el control no tiene sentido, un
objetivo presenta una definición de hacia dónde quiere o debe orientarse la
organización o una determinada unidad.
El proceso de control de gestión requiere información
que le permita la medición de los resultados en los términos más objetivos es
por ello que a partir de establecer un Modelo de control de gestión sistémico
para mejorar la productividad de la Gerencia de Informática en Venezuela el
cual selecciona y recoge la información más relevante, se pueden tomar
decisiones como evaluar el comportamiento de cada unidad responsable de la
organización.
Para
que pueda existir un control más efectivo es necesario que se evalúe la
actuación de cada unidad en función tanto del logro de los objetivos como de
los factores que han podido influir en su actuación, evitando así que una organización caiga en crisis porque sus
directivos han efectuado un mal control.
La realización
del control exige disponer de la información que permita facilitar la
adaptación estratégica al entorno y la coordinación interna entre los
diferentes componentes de la organización. Esta necesidad de información será
mayor o menor dependiendo en función de la incidencia del entorno en la
rentabilidad de la organización y
el grado de centralización del proceso de decisión.
En la medida
en que la organización se
vea poco afectada por los cambios del entorno , y el proceso de decisión este
altamente centralizado, las necesidades de información son menores y se pueden
resolver en forma intuitiva es por ello que se hace importante establecer
normas de control, conocidas con el
nombre de estándares, las normas de control son las medidas con las cuales se
puede ponderar el progreso alcanzado, también se ha formulado en los siguientes
términos: Son los puntos de referencia con los cuales se mide el desempeño real
o esperado.
Una actividad
está fuera de control cuando ninguna disposición permite asegurar que su
desarrollo y determinación quedará dentro de un marco preestablecido.
Interfaz
Según López, A.
(1997). Cuando uno usa una herramienta, o accede e interactúa con un sistema,
suele haber "algo" entre uno mismo y el objeto de interacción .Ese
algo, que es a la vez un límite y un espacio común entre ambas partes, es la
interfaz.
En el caso de
la Red, la interfaz no es sólo el programa que se ve en la pantalla. Desde el
momento que el usuario teclea una URL, comienza a interactuar con el producto y
por lo tanto, comienza su experiencia.
Importancia de la interfaz
Los principios
para la interacción son autónomos de la tecnología y depende mucho más de un
conocimiento profundo de los elementos humanos de dicha interacción. La
interfaz es la puerta del usuario a la funcionalidad del sistema y por lo
tanto, el hecho de que estas interfaces estén mal diseñadas es un factor que
frena el uso de las funcionalidades, así pues, es muy importante diseñar
interfaces usables.
Muchas de ellas
son tan conocidas y aceptadas, como el picaporte de las puertas, que ni
siquiera vemos. La mejor interfaz es la que no se ve. Sin embargo muchas de
ellas, por nuevas, desconocidas o mal diseñadas, son visibles.
El mejor
sistema o la herramienta perfecta, son inútiles si no podemos interactuar con
ellos. ¿Cuántas veces no encuentran lo que buscan o no saben cómo hacer lo que
quieren? Esta situación resulta de una mala interfaz, que a su vez genera un
problema de usabilidad.
La red y la
comunicación hipermedial están generando un nuevo medio de comunicación. Los
interfaces de estos nuevos medios, juegan un papel más importante que han
tenido hasta ahora.
Figura:
6 Proceso Unificado de
Modelado (RUP)
Fuente:
Desarrollo Software utilizando en la
Metodología RUP (2003).
Proceso
Unificado de Modelado (RUP)
El Proceso
Unificado Racional, Rational Unified Process en inglés, y sus siglas
RUP, es un proceso de desarrollo de software y junto con el Lenguaje Unificado
de Modelado UML, constituye la metodología estándar más utilizada para el
análisis, implementación y documentación de sistemas orientados a objetos.
El RUP no es un
sistema con pasos firmemente establecidos, sino que trata de un conjunto de
metodologías adaptables al contexto y necesidades de cada organización, donde
el software es organizado como una colección de unidades atómicas llamados
objetos, constituidos por datos y funciones, que interactúan entre sí.
También se conoce por
este nombre al software desarrollado por Rational, hoy propiedad de IBM,
el cual incluye información entrelazada de diversos artefactos y
descripciones de las diversas actividades. Está incluido en el Rational
Method Composer (RMC), que permite la personalización de acuerdo a
necesidades.
Originalmente se
diseñó un proceso genérico y de dominio público, el Proceso Unificado, y
una especificación más detallada, el Rational Unified Process, que se
vendiera como producto independiente. RUP se divide en 4 fases, dentro de las
cuales se realizan varias iteraciones según el proyecto y en las que se hace
mayor o menos esfuerzo en las distintas actividades. A continuación de muestra
en la figura No. 7 como es la historia de la Metodología Rup.
Figura:
7 Historia de RUP
Fuente: Desarrollo Software utilizando
en la Metodología RUP (2003).
En las iteraciones de
cada fase se hacen diferentes esfuerzos en diferentes actividades:
·
Fase de Inicio (Inspección y Concepción): Se hace un plan de fases, donde se identifican los
principales casos de uso y se identifican los riesgos. Se concreta la
idea, la visión del producto, como se enmarca en el negocio, el
alcance del proyecto.
·
Fase de Elaboración: se realiza el
plan de proyecto, donde se completan los casos de uso y se mitigan los
riesgos. Planificar las actividades necesarias y los recursos
requeridos, especificando las características y el diseño de la
arquitectura.
·
Fase de Construcción: se basa en la elaboración de un producto
totalmente operativo y en la elaboración del manual de usuario. Construir
el producto, la arquitectura y los planes, hasta que el producto está
listo para ser enviado a la comunidad de usuarios.
·
Fase de Transición: se realiza la instalación del producto en el
cliente y se procede al entrenamiento de los usuarios. Realizar la
transición del producto a los usuarios, lo cual incluye: manufactura,
envío, entrenamiento, soporte y mantenimiento del producto, hasta que el
cliente quede satisfecho, por tanto en esta fase suelen ocurrir cambios.
Con estas fases se
logra ejecutar un conjunto de mejores prácticas, como lo son:
·
Desarrollar
Software Iterativamente
·
Modelar
el software visualmente
·
Gerenciar
los Requerimientos
·
Usar
arquitecturas basadas en componentes
·
Verificación
continua de la calidad
·
Gerenciar
los cambios.
Figura:
8 FASES (iteraciones)
.Fuente: Desarrollo Software utilizando
en la Metodología RUP (2003).
Descripción de las Fases
Dependiendo de la
iteración del proceso el equipo de desarrollo puede realizar diferentes tipos
de actividades. Veamos de qué trata cada fase.
Fase de Inicio: Durante la fase de
inicio las iteraciones hacen poner mayor énfasis en actividades modelado del
negocio y de requisitos.
En esta fase se
realizan los siguientes pasos.
·
Un
documento con la visión del proyecto.
·
El
modelo de Casos de Uso con una lista de todos los Casos de Uso y los actores
que puedan ser identificados.
·
Un
glosario inicial del proyecto.
·
Un
Caso de Uso inicial de Negocio el cual incluye: contexto del negocio, criterios
de éxito y planificación financiera.
·
Un
estudio inicial de riesgos.
·
Un
plan del proyecto que muestre las fases y las iteraciones.
El objetivo de esta
fase, y el establecer el modelo de negocio es entender las funciones de la
organización del cliente, tanto en estructura como en sus procesos. Su objetivo
es modelar funciones y roles que realiza la organización para realizar más
fácilmente la reingeniería de procesos o la implantación del nuevo sistema.
También se describe lo que el sistema tendría que realizar y permitir que los
desarrolladores y el cliente estén de acuerdo con esta descripción.
Para ello se
realizarán las siguientes sub-fases:
·
Describir
los requerimientos funcionales y no funcionales (rendimiento esperado,
plataformas soportadas, integración con sistemas externos, etc.).
·
Capturar
un glosario o vocabulario del sistema o proyecto (mediante documento y clases
conceptuales).
·
Encontrar
actores y casos de uso.
·
Describir
los casos de uso mediante su flujo principal, variaciones y excepciones.
·
Asignar
prioridades a los casos de uso encontrados para poder planificar la iteración
en forma de análisis, diseño e implementación.
·
Modelar
la interfaz de usuario (diseño lógico).
·
Prototipo
de la interfaz de usuario (diseño físico).
Fase de Elaboración: En esta
fase las iteraciones se orientan al desarrollo de la arquitectura, que
incluye los flujos de trabajo de requerimientos, modelo de negocios
(refinamiento), análisis, diseño y una parte de implementación orientado a la
arquitectura.
En esta fase se
realizan las siguientes sub-fases:
·
Un
modelo de Casos de Uso con todos los actores identificados y la mayor parte de
las descripciones de Casos de Uso.
·
Requerimientos
adicionales: no funcionales o
pseudorequerimientos.
·
Descripción
de la arquitectura del software.
·
Prototipo
ejecutable de arquitectura.
·
Una
lista revisada de riesgos.
·
Plan
del proyecto, incluyendo iteraciones y criterios de evaluación para cada
iteración.
·
Manual
preliminar de usuario.
En esta fase se
especifican los requerimientos y se describen sobre cómo se van a implementar
en el sistema: transformar los requisitos al diseño del sistema, desarrollar
una arquitectura para el sistema, y adaptar el diseño para que sea consistente
con el entorno de implementación.
Fase de Construcción: Se
implementan las clases y objetos en ficheros fuente, binarios, ejecutables y
demás. El resultado final es un sistema ejecutable.
Para ello se
realizarán las siguientes sub-fases:
·
El
producto de software integrado sobre la plataforma adecuada.
·
Los
manuales de usuario.
·
Una
descripción de la versión actual.
·
Planificar
qué subsistemas deben ser implementados y en qué orden deben ser integrados,
formando el Plan de Integración.
·
Cada
implementador decide en qué orden implementa los elementos del subsistema.
·
Si
encuentra errores de diseño, los notifica.
·
Se
integra el sistema siguiendo el plan.
En la parte de
Pruebas se evalúa la calidad del producto, pero no para aceptar o rechazar el
producto al final del proceso de desarrollo, sino que debe ir integrado en todo
el ciclo de vida. Se deben encontrar y documentar defectos en la calidad del
software. Generalmente asesora sobre la calidad del software percibida, provee
la validación de los supuestos realizados en el diseño y especificación de
requisitos por medio de demostraciones concretas, verificar las funciones del
producto de software según lo diseñado y que los requisitos tengan su apropiada
implementación.
En la parte de
despliegue se produce con éxito distribuciones del producto y distribuirlo a
los usuarios. Las actividades implicadas incluyen:
·
Probar
el producto en su entorno de ejecución final.
·
Empaquetar
el software para su distribución.
·
Distribuir
el software.
·
Instalar
el software.
·
Proveer
asistencia y ayuda a los usuarios.
·
Formar
a los usuarios y al cuerpo de ventas.
·
Migrar
el software existente o convertir bases de datos.
Durante todo el
proyecto se ejecutan las fases de gestión del proyecto, donde se vigila el
cumplimiento de los objetivos, gestión de riesgos y restricciones para
desarrollar un producto que sea acorde a los requisitos de los clientes y los
usuarios. En la cual se realizan las tareas:
·
Proveer
un marco de trabajo para la gestión de proyectos de software intensivos.
·
Proveer
guías prácticas realizar planeación, contratar personal, ejecutar y monitorear
el proyecto.
·
Proveer
un marco de trabajo para gestionar riesgos.
En la fase de
configuración y control de cambios, permite mantener la integridad de todos que
se crean en el proceso, así como de mantener información del proceso evolutivo
que han seguido.
En la fase del
Entorno, la finalidad es dar soporte al proyecto con las adecuadas
herramientas, procesos y métodos. Brinda una especificación de las herramientas
que se van a necesitar en cada momento, así como definir la instancia concreta
del proceso que se va a seguir.
En concreto las
responsabilidades de este flujo de trabajo incluyen:
·
Selección
y adquisición de herramientas
·
Establecer
y configurar las herramientas para que se ajusten a la organización.
·
Configuración
del proceso.
·
Mejora
del proceso.
·
Servicios
técnicos.
Los Roles que se
cumplen en el RUP.
Analistas:
·
Analista
de procesos de negocio.
·
Diseñador
del negocio.
·
Analista
de sistema.
·
Especificador
de requisitos.
Desarrolladores:
·
Arquitecto
de software.
·
Diseñador
·
Diseñador
de interfaz de usuario
·
Diseñador
de cápsulas.
·
Diseñador
de base de datos.
·
Implementador.
·
Integrador.
Gestores:
·
Jefe
de proyecto
·
Jefe
de control de cambios.
·
Jefe
de configuración.
·
Jefe
de pruebas
·
Jefe
de despliegue
·
Ingeniero
de procesos
·
Revisor
de gestión del proyecto
·
Gestor
de pruebas.
Apoyo:
·
Documentador
técnico
·
Administrador
de sistema
·
Especialista
en herramientas
·
Desarrollador
de cursos
·
Artista
gráfico
Especialista en
pruebas:
·
Especialista
en Pruebas (tester)
·
Analista
de pruebas
·
Diseñador
de pruebas
Otros roles:
·
Stakeholders.
·
Revisor
·
Coordinación
de revisiones
·
Revisor
técnico
·
Cualquier
rol
·
Para
grandes organizaciones con un números equipos de ingenieros y la comunicación
entre cada equipo es crítica por lo tanto es necesario que los artefactos sean
completos y bastante comprensivos
·
En
tanto que para pequeños proyectos no es recomendable presentarse tanto rigor en
las preparaciones de los artefactos, la eficiencia del proceso depende más de
las habilidades de cada trabajador.
Beneficios de la
Metodología Orientada a Objetos.
·
Promueve
la reusabilidad.
·
Reduce
la complejidad del mantenimiento (extensibilidad y facilidad de cambios).
·
Riqueza
semántica.
·
Disminuye
la brecha semántica entre la visión interna y la visión externa del sistema.
·
Facilita
la construcción de prototipos.
Ventajas de la
Metodología Orientada a Objetos.
·
Reutilización
·
El
diseñador piensa en términos del comportamiento de objetos y no en detalles de
bajo nivel
·
Confiabilidad,
Integridad y Estabilidad.
·
Mantenimiento
más sencillo. Modificaciones locales.
·
Modelado
más realista.
·
Modelos
empresariales inteligentes.
·
Independencia
del diseño.
·
Mejores
herramientas CASE.
·
Bibliotecas
de clases para las empresas.
·
Se
construyen clases cada vez más complejas.
·
Nuevos
mercados para el software.
·
Diseño
de mayor calidad.
·
Programación
más sencilla.
·
Mejor
comunicación entre los profesionales de los Sistemas de Información y los
empresarios.
·
Mayor
nivel de automatización de las bases de datos.
·
La
comprensión del sistema es más fácil porque la semántica entre el sistema y la
realidad son similares.
El Software
MYSQL Proporciona Un Servidor De Base De Datos SQL
(Structured Query Language)
Según Thibaud (2006). MySQL,
“es un sistema de gestión de bases de datos relacional, licenciado bajo la GPL
de la GNU. Su diseño multihilo le permite soportar una gran carga de forma muy
eficiente” (p.55).
MySQL fue creada por la empresa sueca MySQL AB, que
mantiene el copyright del código fuente del servidor SQL, así como también de
la marca.
Aunque MySQL es software libre, MySQL AB distribuye una
versión comercial de MySQL, que no se diferencia de la versión libre más que en
el soporte técnico que se ofrece, y la posibilidad de integrar este gestor en
un software propietario, ya que de no ser así, se vulneraría la licencia GPL.
Este gestor de bases de datos es, probablemente, el
gestor más usado en el mundo del software libre, debido a su gran rapidez y
facilidad de uso. Esta gran aceptación es debida, en parte, a que existen
infinidad de librerías y otras herramientas que permiten su uso a través de
gran cantidad de lenguajes de programación, además de su fácil instalación y
configuración.
MySQL es un sistema de administración de bases de datos
Una base de datos es una colección estructurada de datos. La información que puede almacenar una base de datos puede ser tan simple como la de una agenda, un contador, o un libro de visitas, ó tan vasta como la de una tienda en línea, un sistema de noticias, un portal, o la información generada en una red corporativa.
Una base de datos es una colección estructurada de datos. La información que puede almacenar una base de datos puede ser tan simple como la de una agenda, un contador, o un libro de visitas, ó tan vasta como la de una tienda en línea, un sistema de noticias, un portal, o la información generada en una red corporativa.
Software Libre (en inglés
free software)
En 1984, Richard Stallman comenzó a trabajar en el proyecto GNU, y un
año más tarde fundó la Free Software Foundation (FSF). Stallman introdujo una
definición para free software y el concepto de "copyleft", el cual
desarrolló para dar a los usuarios libertad y para restringir las posibilidades
de apropiación del software, es de esta forma cómo surge el software libre, que
es la denominación del software que brinda libertad a los usuarios sobre su
producto adquirido y por tanto, una vez obtenido, puede ser usado, copiado,
estudiado, modificado y redistribuido libremente.
Según la Free Software Foundation, el software libre se refiere a la
libertad de los usuarios para ejecutar, copiar, distribuir, estudiar, cambiar y
mejorar el software; de modo más preciso, se refiere a cuatro libertades de los
usuarios del software: la libertad de usar el programa, con cualquier
propósito; de estudiar el funcionamiento del programa, y adaptarlo a las
necesidades; de distribuir copias, con lo que puede ayudar a otros; de mejorar
el programa y hacer públicas las mejoras, de modo que toda la comunidad se
beneficie (para la segunda y última libertad mencionadas, el acceso al código
fuente es un requisito previo).
Servidor HTTP Apache
Es un software (libre) servidor HTTP de código abierto para plataformas
Unix (BSD, GNU/Linux, etc.), Windows, Macintosh y otras, que implementa el
protocolo HTTP/1.1 y la noción de sitio virtual. Cuando comenzó su desarrollo
en 1995 se basó inicialmente en código del popular NCSA HTTPd 1.3, pero más
tarde fue reescrito por completo. Su nombre se debe a que Behelendorf eligió
ese nombre porque quería que tuviese la connotación de algo que es firme y
enérgico pero no agresivo, y la tributo Apache fue la última en rendirse al que
pronto se convertiría en gobierno de EEUU, y en esos momentos la preocupación
de su grupo era que llegasen las empresas y "civilizasen" el paisaje
que habían creado los primeros ingenieros de internet.
Además Apache consistía solamente en un conjunto de parches a aplicar al
servidor de NCSA. Era, en inglés, a patchy server (un servidor
"parcheado"). Apache presenta entre otras características mensajes de
error altamente configurables, bases de datos de autenticación y negociado de
contenido, pero fue criticado por la falta de una interfaz gráfica que ayude en
su configuración.
PHP
Es un acrónimo recursivo que significa PHP Hypertext Pre-processor. Fue
creado originalmente por Rasmus Lerdorf en 1994; sin embargo la implementación
principal de PHP es producida ahora por The PHP Group y sirve como el estándar
de facto para PHP al no haber una especificación formal. Publicado bajo la PHP
License, la Free Software Foundation considera esta licencia como software
libre.
PHP es un lenguaje interpretado de propósito general ampliamente usado y
que está diseñado especialmente para desarrollo web y puede ser incrustado
dentro de código HTML. Generalmente se ejecuta en un servidor web, tomando el
código en PHP como su entrada y creando páginas web como salida. Puede ser
desplegado en la mayoría de los servidores web y en casi todos los sistemas
operativos y plataformas sin costo alguno. Aunque todo en su diseño está
orientado a facilitar la creación de página web, es posible crear aplicaciones
con una interfaz gráfica para el usuario.
Cuando el cliente hace una petición al servidor para que le envíe una
página web, el servidor ejecuta el intérprete de PHP. Éste procesa el script
solicitado que generará el contenido de manera dinámica (por ejemplo obteniendo
información de una base de datos). El resultado es enviado por el intérprete al
servidor, quien a su vez se lo envía al cliente. Permite la conexión a
diferentes tipos de servidores de bases de datos tales como MySQL, Postgres,
Oracle, ODBC, DB2, Microsoft SQL Server, Firebird y SQLite.
PHP también tiene la capacidad de ser ejecutado en la mayoría de los
sistemas operativos, tales como UNIX (y de ese tipo, como Linux o Mac OS X) y
Windows, y puede interactuar con los servidores de web más populares ya que
existe en versión CGI, módulo para Apache, e ISAPI.
HTML.
Es un lenguaje de descripción de hipertexto compuesto por una serie de
comandos, marcas, o etiquetas, también denominada “tags” que permite definir la
estructura lógica de un documento Web y establecer los atributos del mismo (color
del texto, contenido multimedia, hipervínculo, etc.). Es un lenguaje que
permite crear páginas Web y para ello utiliza unos comandos o etiquetas que
indican o marcan, qué se debe mostrar y de qué forma. Los comandos siempre van incluidos entre los
signos <> e insertados en el propio texto que compone el contenido de la
página. Especifican su estructura (las distintas partes de la página) y
formato. Además, permiten la inserción de contenidos especiales como imágenes,
videos, sonidos, etc.
Figura
9. Elementos del HTML.
Fuente: wikipedia. (1999).
HTTP.
El protocolo de transferencia de hipertexto (HTTP, HyperText Transfer
Protocol) es el protocolo usado en cada transacción de la Web (WWW). HTTP fue
desarrollado por el consorcio W3C y la IETF, HTTP define la sintaxis y la
semántica que utilizan los elementos software de la arquitectura web (clientes,
servidores, proxies) para comunicarse. Es un protocolo orientado a
transacciones y sigue el esquema petición-respuesta entre un cliente y un
servidor. Al cliente que efectúa la petición (un navegador o un spider) se lo
conoce como "user agent" (agente del usuario). A la información transmitida
se la llama recurso y se la identifica mediante un URL. Los recursos pueden ser
archivos, el resultado de la ejecución de un programa, una consulta a una base
de datos, la traducción automática de un documento, etc.
JavaScript.
Es un lenguaje de programación interpretado, es decir, que no requiere
compilación, inventado por Brendan Erich en la empresa Netscape Communications,
utilizado principalmente en páginas web, con una sintaxis semejante a la del
lenguaje Java y el lenguaje C. Al igual que Java, JavaScript es un lenguaje
orientado a objetos propiamente dicho, ya que dispone de Herencia, si bien esta
se realiza siguiendo el paradigma de programación basada en prototipos, ya que
las nuevas clases se generan clonando las clases base (prototipos) y
extendiendo su funcionalidad.
Adobe Dreamweaver 8.
Según shelly, Wells y Campbell (2009), Dreamweaver
Es
una aplicación en forma de estudio (basada en la forma de estudio
de Adobe Flash) que está destinada a la construcción, diseño y edición de sitios,
videos y aplicaciones Web basados en estándares.
Creado inicialmente
por Macromedia (actualmente
producido por Adobe Systems).Es el programa más utilizado en el sector del
diseño y la programación web, por sus funcionalidades, su integración con otras
herramientas como Adobe Flash y, recientemente, por su soporte de los
estándares del World Wide Web Consortium (p.23).
Es un software fácil de usar que permite crear páginas web
profesionales. Las funciones de edición visual de Dreamweaver 8 permiten
agregar rápidamente diseño y funcionalidad a las páginas, sin la necesidad de
programar manualmente el código HTML. Se puede crear tablas, editar marcos,
trabajar con capas, insertar comportamientos JavaScript, etc., de una forma muy
sencilla y visual. Además incluye un software de cliente FTP completo,
permitiendo entre otras cosas trabajar con mapas visuales de los sitios web,
actualizando el sitio web en el servidor sin salir del programa.
BASES LEGALES
CONSTITUCIÓN
DE LA REPUBLICA BOLIVARIANA DE VENEZUELA (1.999)
Artículo 102 de la Constitución, la educación queda definida como un
derecho humano, un deber social y un servicio público. No es pues una opción o
un privilegio, sino un derecho primario, en condiciones de igualdad con
relación al derecho a la vida o la salud.
Artículo 102. La educación es un derecho humano y un deber social
fundamental, es democrática, gratuita y obligatoria. El Estado la asumirá como
función indeclinable y de máximo interés en todos sus niveles y modalidades, y
como instrumento del conocimiento científico, humanístico y tecnológico al
servicio de la sociedad. La educación es un servicio público y está
fundamentada en el respeto a todas las corrientes del pensamiento, con la
finalidad de desarrollar el potencial creativo de cada ser humano y el pleno
ejercicio de su personalidad en una sociedad democrática basada en la
valoración ética del trabajo y en la participación activa, consciente y
solidaria en los procesos de transformación social, consustanciados con los valores
de la identidad nacional y con una visión latinoamericana y universal. El
Estado, con la participación de las familias y la sociedad, promoverá el
proceso de educación ciudadana, de acuerdo con los principios contenidos en
esta Constitución y en la ley.
Comisión Presidencial Misión Sucre, Nº 37.779, Mediante el Decreto 2.601
del 8 de septiembre de 2003.
El Presidente de la República
Bolivariana de Venezuela, Hugo Chávez Frías, crea la Comisión Presidencial
encargada de adelantar la “Misión Sucre”. Entre las consideraciones de este
decreto se apunta, por una parte, que la política social diseñada por el actual
Gobierno Revolucionario, se encuentra basada en un escenario de crecimiento con
equidad y, por otra, que la educación es el principio articulador del
desarrollo con equidad social y que los esfuerzos realizados en materia de
acceso a la educación superior han resultado insuficientes.
Artículo 1. Se crea la Comisión Presidencial de Participación
Comunitaria para la incorporación y apropiado desempeño en el nivel de
Educación Superior, de los bachilleres excluidos del Sistema, la cual tendrá
por finalidad el estudio, formulación, coordinación, seguimiento y evaluación
del Plan Extraordinario Mariscal Antonio José de Sucre, denominado “Misión Sucre”,
con el objeto de potenciar la sinergia institucional y la participación
comunitaria en la resolución de la problemática del cupo universitario, para
generar nuevos espacios y modalidades de estudios, convencionales y no
convencionales.
Gacetas Oficiales
Gaceta Oficial Nº 1126 de fecha 2 de Junio de 2011 del Ministerio del
Poder Popular para la Educación Universitaria (MPPEU), publicado en Gaceta Oficial Nº 3858154
de la misma fecha; la cual establece
Todos los triunfadores y triunfadoras inscritos en el Programa Nacional de
Formación en Administración de la Misión Sucre serán transferidos como
estudiantes al Programa Nacional de Formación en Administración de la Misión
Alma Mater, previo reconocimiento y prosecución de acuerdo a la Gaceta Oficial
N°3858154, Resolución N° 1126, de fecha 02 de Junio de 2011.
Los nuevos ingresos de estudiantes municipalizados por la Misión Sucre
en el PNFA, a partir del 01 de Julio de 2011 se regirán por los lineamientos
del Programa Nacional de Formación en Administración de la Misión Alma Mater
aprobado en Gaceta Oficial N° 39.058 del 13 de Noviembre de 2008.
Los títulos a otorgar en el lapso
de implementación del PERPE (Del 01 de Julio hasta el 31 de Diciembre de
2011) serán otorgados por las Instituciones de Educación Universitaria
establecidas en la Gaceta Oficial N° N°3858154, Resolución N° 1126, de fecha 02
de Junio del 2011 y señaladas en estos lineamientos (Cuadro de
Territorialidad de Instituciones de
Educación Universitaria).
Gaceta Oficial Nº 37.313 de fecha 30 de Octubre de 2001 en lo referente
a la Ley Especial Contra Delitos Informáticos. La cual tiene por objeto la
protección integral de los sistemas que utilicen tecnologías de información,
así como la prevención y sanción de los delitos cometidos contra tales sistemas
o cualquiera de sus componentes o los cometidos mediante el uso de dichas
tecnologías, en los términos previstos en esta ley El desarrollo de esta
investigación se basa legalmente en esta
ley, resultando algunos artículos, que a continuación se citan:
Título
II
De los
Delitos
Capítulo
I
De los Delitos Contra los Sistemas que Utilizan Tecnologías de
Información
Artículo 6. Acceso indebido. El que sin la debida autorización o
excediendo la que hubiere obtenido, acceda, intercepte, interfiera o use un
sistema que utilice tecnologías de información, será penado con prisión de uno
a cinco años y multa de diez a cincuenta unidades tributarias.
Artículo 7. Sabotaje o daño a sistemas. El que destruya, dañe, modifique
o realice cualquier acto que altere el funcionamiento o inutilice un sistema
que utilice tecnologías de información o cualquiera de los componentes que lo
conforman, será penado con prisión de cuatro a ocho años y multa de
cuatrocientas a ochocientas unidades tributarias. Incurrirá en la misma pena
quien destruya, dañe, modifique o inutilice la data o la información contenida
en cualquier sistema que utilice tecnologías de información o en cualquiera de
sus componentes. La pena será de cinco a diez años de prisión y multa de
quinientas a mil unidades tributarias, si los efectos indicados en el presente
artículo se realizaren mediante la creación, introducción o transmisión, por
cualquier medio, de un virus o programa análogo.
Artículo 8. Sabotaje o daño culposos. Si el delito previsto en el
artículo anterior se cometiere por imprudencia, negligencia, impericia o
inobservancia de las normas establecidas, se aplicará la pena correspondiente
según el caso, con una reducción entre la mitad y dos tercios.
Artículo 9. Acceso indebido o sabotaje a sistemas protegidos. Las penas
previstas en los artículos anteriores se aumentarán entre una tercera parte y
la mitad cuando los hechos allí previstos o sus efectos recaigan sobre
cualquiera de los componentes de un sistema que utilice tecnologías de
información protegido por medidas de seguridad, que esté destinado a funciones
públicas o que contenga información personal o patrimonial de personas
naturales o jurídicas.
Capítulo
II
De los
Delitos Contra la Propiedad
Artículo 13. Hurto. El que a través del uso de tecnologías de
información, acceda, intercepte, interfiera, manipule o use de cualquier forma
un sistema o medio de comunicación para apoderarse de bienes o valores
tangibles o intangibles de carácter patrimonial sustrayéndolos a su tenedor,
con el fin de procurarse un provecho económico para sí o para otro, será
sancionado con prisión de dos a seis años y multa de doscientas a seiscientas
unidades tributarias.
Artículo 14. Fraude. El que, a través del uso indebido de tecnologías de
información, valiéndose de cualquier manipulación en sistemas o cualquiera de
sus componentes o en la data o información en ellos contenida, consiga insertar
instrucciones falsas o fraudulentas que produzcan un resultado que permita
obtener un provecho injusto en perjuicio ajeno, será penado con prisión de tres
a siete años y multa de trescientas a setecientas unidades tributarias.
Capítulo
III
De los delitos contra la privacidad de las personas y de las
comunicaciones.
Artículo 20. Violación de la privacidad de la data o información de
carácter personal. El que por cualquier medio se apodere, utilice, modifique o
elimine, sin el consentimiento de su dueño, la data o información personales de
otro o sobre las cuales tenga interés legítimo, que estén incorporadas en un
computador o sistema que utilice tecnologías de información, será penado con
prisión de dos a seis años y multa de doscientas a seiscientas unidades
tributarias. La pena se incrementará de
un tercio a la mitad si como consecuencia de los hechos anteriores resultare un
perjuicio para el titular de la data o información o para un tercero.
Artículo 21. Violación de la privacidad de las comunicaciones. El que
mediante el uso de tecnologías de información, acceda, capture, intercepte,
interfiera, reproduzca, modifique, desvíe o elimine cualquier mensaje de datos
o señal de transmisión o comunicación ajena, será sancionado con prisión de dos
a seis años y multa de doscientas a seiscientas unidades tributarias.
Artículo 22. Revelación indebida de data o información de carácter
personal. El que revele, difunda o ceda, en todo o en parte, los hechos
descubiertos, las imágenes, el audio o, en general, la data o información
obtenidos por alguno de los medios indicados en los artículos precedentes, aún
cuando el autor no hubiese tomado parte en la comisión de dichos delitos, será
sancionado con prisión de dos a seis años y multa de doscientas a seiscientas
unidades tributarias. Si la revelación, difusión o cesión se hubieren realizado
con un fin de lucro o si resultare algún perjuicio para otro, la pena se
aumentará de un tercio a la mitad.
Decreto 3390: Publicado en la Gaceta oficial Nº 38.095 el 28 de
Diciembre de 2004.
Artículo 1. La Administración Pública Nacional empleará prioritariamente
Software Libre desarrollado con Estándares Abiertos, en sus sistemas, proyectos
y servicios informáticos. A tales fines, todos los órganos y entes de la
Administración Pública Nacional iniciarán los procesos de migración gradual y
progresiva de éstos hacia el Software Libre desarrollado con Estándares
Abiertos.
Artículo 2. A los efectos del presente Decreto se entenderá por:
Software Libre: Programa de computación cuya licencia garantiza al usuario
acceso al código fuente del programa y lo autoriza a ejecutarlo con cualquier
propósito, modificarlo y redistribuir tanto el programa original como sus
modificaciones en las mismas condiciones de licenciamiento acordadas al
programa original, sin tener que pagar regalías a los desarrolladores
previos.
Estándares Abiertos: Especificaciones técnicas, publicadas y controladas
por alguna organización que se encarga de su desarrollo, las cuales han sido
aceptadas por la industria, estando a disposición de cualquier usuario para ser
implementadas en un software libre u otro, promoviendo la competitividad,
inter-operatividad o flexibilidad.
Software Propietario: Programa de computación cuya licencia establece
restricciones de uso, redistribución o modificación por parte de los usuarios,
o requiere de autorización expresa del Licenciador.
Distribución Software Libre desarrollado con Estándares Abiertos para el
Estado Venezolano: Un paquete de programas y aplicaciones de Informática
elaborado utilizando Software Libre con Estándares Abiertos para ser utilizados
y distribuidos entre distintos usuarios.
La
Declaración Mundial sobre la Educación Superior para el Siglo XXI:
Visión
y Acción (UNESCO, 1998)
Artículo 8, la Declaración Mundial sobre la Educación Superior para el
Siglo XXI, aborda la diversificación de las modalidades de estudio como medio
de reforzar la igualdad de oportunidades:
La diversificación de los modelos de educación superior y de las
modalidades y los criterios de contratación es indispensable para responder a
la tendencia internacional de masificación de la demanda y a la vez para dar
acceso a distintos modos de enseñanza y ampliar el acceso a grupos públicos
cada vez más diversos, con miras a la educación a lo largo de toda la vida, lo
cual supone que se pueda ingresar en el sistema de educación superior y salir
de él fácilmente.
Artículo 9, se apunta la necesidad de “Métodos educativos innovadores:
Pensamiento crítico y creatividad” como elementos indispensables para alcanzar
los objetivos de la Declaración, así como la necesidad de apuntalar con
servicios y políticas especiales de apoyo al tránsito de los estudiantes a la
educación superior.
Sea cual fuere su edad, y para tener en cuenta las necesidades de
categorías cada vez más diversificadas de educandos. Hay que tener en cuenta
las necesidades, no sólo de los que pasan a la educación superior procedentes
de escuelas o establecimientos postescolares, sino también de las necesidades
de los que abandonan la enseñanza o vuelven a ella en un proceso de educación
permanente.
No hay comentarios:
Publicar un comentario