martes, 6 de agosto de 2013

1.Diversas herramientas de software libre para diseño
- Ingenio tu sitio



Diferentes factores hacen que un Sitio Web sea relevante, entre los cuales podemos destacar el diseño, el cual deberá ser pensado en función del público objetivo. Otro factor es la tecnología que utiliza (Usabilidad, acceso de dispositivos móviles, etc), Pero sin dudas que lo más importante es el famoso contenido del sitio web, desde un texto bien desarrollado, imágenes descriptivas y hasta videos de productos, los cuales generan tangibilidad en el visitante y muchas veces son vitales a la hora de decidir una compra.
Es común visitar sitios que contienen información desactualizada o repetida y muchas veces nos queremos poner en contacto y nos encontramos con que el e-mail rebota o el típico “el número no está disponible” al marcar el numero de teléfono  Otro error clásico y muy grave es “ese producto no está en venta”, donde claramente el dueño del sitio pierde una venta.
Hoy en día el usuario no quiere perder tiempo y tiene mucha información a su disposición y lo resuelve rápidamente cerrando el sitio que no tenga lo que está buscando y posiblemente no vuelva nunca. También es un clásico la demora en recibir una respuesta por una consulta realizada vía e-mail, por lo cual es clave mantener el contenido actualizado y tener una actitud pro-activa ( ocuparse día a día a responder los correos y chequear el contenido), ya que el sitio web de un Negocio o Empresa es cada vez más influyente en los resultados económicos.




-Compromisos de trabajos

   El avance en materia de conocimiento científico está generando mayor desequilibrio y desigualdad entre países. En México y otros países latinoamericanos las inversiones en este rubro son raquíticas. Por ende, habrán de tomarse decisiones para competir en condiciones de mayor desventaja. Por otro lado, en nuestros países se cuenta con abundante mano de obra (aunque no siempre calificada). Por tanto, si las personas son generadoras de los resultados organizacionales, entonces los empleados comprometidos constituyen una ventaja competitiva. Así, resulta trascendente para las organizaciones conocer cuáles son algunos de los factores sobre los cuales pueden influir para favorecer este compromiso. Es claro, no basta el conocimiento a fin de resolver problemas mejorar la condición humana, sino también es necesario cultivar la capacidad emocional para lograr más fácil y rápidamente las metas organizarles, en beneficio de todos.
- El software y su licencia 



Una licencia de software es un contrato entre el licenciarte (autor/titular de los derechos de explotación/distribuidor) y el licenciatario del programa informático (usuario consumidor /usuario profesional o empresa), para utilizar el software cumpliendo una serie de términos y condiciones establecidas dentro de sus cláusulas.
Las licencias de software pueden establecer entre otras cosas: la cesión de determinados derechos del propietario al usuario final sobre una o varias copias del programa informático, los límites en la responsabilidad por fallos, el plazo de cesión de los derechos, el ámbito geográfico de validez del contrato e incluso pueden establecer determinados compromisos del usuario final hacia el propietario, tales como la no cesión del programa a terceros o la no re instalación del programa en equipos distintos al que se instaló originalmente.

Aspectos analizados



El diagnóstico de la firma Disamfil informó que la correspondencia, los sistemas y tipos de archivos existentes, tanto activos como inactivos, se manejaban indistintamente en forma centralizada en 20 entidades y en forma descentralizada en 9, es decir, que no había un criterio unificado. Para correspondencia se analizaron 28 entidades. Sobre el  “sistemas de archivos” se anotó que en el 55% de la entidades los archivos inactivos son depósitos de documentos a los que se trasladan los de gestión o intermedios, sin ninguna técnica que garantice su ubicación, incorporación, conservación, recuperación y consulta, como eran los casos de Favidi, de las Secretarías de Tránsito y de Educación, y del Departamento Administrativo de Acción Comunal. Se anota además el incumplimiento de las normas del AGN (art. 60 a 65 del Reglamento General de Archivos – Acuerdo 07 de junio de 1994. El diagnóstico indicó que sobre el sistema de correspondencia, un 52% de las entidades no llevaba control a la respuesta, no tenía control sobre la oficina responsable de la correspondencia y cada dependencia le daba un manejo particular, generando varias numeraciones y duplicidad de archivos que obstaculizaban la recuperación y la consulta de los documentos. Como rasgo positivo anotó la naciente cultura de la centralización del recibo y despacho de la correspondencia y el 48% de las entidades ya contaba entonces con un sistema computarizado que debía ajustarse para cumplir eficazmente con el manejo de las comunicaciones. En materia de infraestructura física el diagnóstico anotó que los espacios ocupados y las condiciones de seguridad física de los archivos, eran para los archivos activos, comúnmente dentro de las áreas administrativas de las entidades y los inactivos por fuera de ellas en zonas de difícil acceso (45%) e inadecuados para la conservación de documentos, carentes de servidores públicos que los organizaran, lo cual generaba pérdidas de tiempo en la recuperación y pésimas condiciones de aseo y mantenimiento. 


Diversas herramientas de software libre para diseño
gestion de informacion y gestion de contenidos

actividades y procesos de gestion de contenidos
Un sistema de gestión de contenidos (o CMS, del inglés Content Management System) es un programa que permite crear una estructura de soporte (framework) para la creación y administración de contenidos, principalmente en páginas web, por parte de los administradores, editores, participantes y demás roles.
Consiste en una interfaz que controla una o varias bases de datos donde se aloja el contenido del sitio web. El sistema permite manejar de manera independiente el contenido y el diseño. Así, es posible manejar el contenido y darle en cualquier momento un diseño distinto al sitio web sin tener que darle formato al contenido de nuevo, además de permitir la fácil y controlada publicación en el sitio a varios editores. Un ejemplo clásico es el de editores que cargan el contenido al sistema y otro de nivel superior (moderador o administrador) que permite que estos contenidos sean visibles a todo el público (los aprueba).





Dentro del conjunto de actividades encaminadas a la
mejora del rendimiento de los contenidos en las organizaciones educativas, trasluce la necesidad de configurar
o diseñar la cadena de valor de los objetos de información, desde su generación, pasando por los distintos
procesos de transformación, hasta su distribución.
Este artículo establece una perspectiva del conjunto de
cambios acontecidos en las organizaciones a causa de la
introducción de tecnología en los procesos de educación o formación y que entraña una nueva configuración de las estructuras organizativas, producto de las diferentes etapas evolutivas del e-learning, a las que se
tienen que afrontar en la búsqueda de la innovación
educativa. Uno de los principales cambios viene enfatizado por las actividades y las funciones de los objetos de
información en los procesos de producción para la mejor eficiencia y eficacia de la actividad educativa.





Soluciones de software libre de gestion



A la hora de implementar un sistema de gestión documental en un entorno profesional existen en la actualidad una gran variedad de soluciones, tanto de software libre como propietarias. Seguro que a la mayoría os suena Sharepoint (Microsoft), Documentum o SAP. Aún persiste cierta tendencia a otorgar mayor validez al software propietario frente a soluciones open source y eso a pesar de que varias propuestas de estas últimas pueden ser merecedoras de la misma dignidad y confianza por méritos propios. El debate está en pleno auge ya que recientemente se publicó un artículo sobre la cuestión en el sitio CMSWire en el cual Gary Tyreman, CEO de una compañía dedicada a Big Data, defendía las bondades del software propietario apoyando su opinión en un estudio que afirma que las empresas que trabajan con software libre suelen sufrir problemas de escalabilidad, usabilidad, bugs y caídas de la aplicación. Es decir, que los inconvenientes principales de su uso están relacionados con su “inestabilidad” traducible de su fase beta perpetua y la inexistencia de una figura concreta a la que recurrir para solucionar problemas derivados del uso e implantación.

- Una propuesta de tipología y perspectiva de desarrollo



Los servicios de información y documentación accesibles a través de internet, más concretamente mediante servidores web, están aumentando de una forma exponencial. La lógica evolución del web desde hace más de 10 años ha ido produciendo la sustitución de páginas y documentos estáticos por documentos generados dinámicamente, merced a la interacción del usuario con la lógica de procesos y flujos de trabajo definida por los creadores del servicio y a la disponibilidad de cada vez mayores repositorios de información. Evidentemente, se ha ido pasado progresivamente de un concepto de publicación de páginas web, bastante simple en su origen, a esquemas más complejos y diferenciados, fundamentados en procedimientos y técnicas basados en la gestión de información. La cada vez mayor complejidad de los servicios y de los sistemas que los soportan, ha hecho necesaria la formulación de un corpus teórico y práctico en el que se combinen las técnicas clásicas de gestión de información en las organizaciones con las características propias del medioambiente digital.
Esta evolución, que se ha acelerado durante la primera mitad de la década de 2000, ha tenido un impacto no sólo en los métodos y técnicas de gestión de información, sino también en la propia tecnología para gestión de información y, en consecuencia, en el mercado de productos y servicios (GILBANE, 2000). Si bien en la segunda mitad de la década de los 90 se podía diferenciar entre productos para gestión documental, para recuperación de información, etc., desde el año 2000 se ha producido una convergencia entre todas las plataformas, de forma que en la actualidad se pueden encontrar soluciones que pretenden ser globales y ofrecer soporte a todo el proceso de gestión de información en una organización. Las herramientas para este trabajo han recibido la denominación de sistemas de gestión de contenidos (o Content Management Systems, CMS), y se han integrado con los sistemas de gestión documental y con los de recuperación de información. A ello hay que unir que, en la concepción actual de la gestión de información, el control de los procesos es un elemento nuclear, por lo que se acompañan de sistemas de workflow , o de flujos de trabajo. Con todo ello se puede delinear un paisaje en el cual las herramientas de gestión documental han ido incorporando a sus prestaciones las capacidades necesarias para gestionar los procesos que crean, almacenan, tratan y presentan información, en entorno digital.
Sin embargo, no por ello cabe afirmar que existe una igualdad directa entre los sistemas de gestión de contenidos y los sistemas de gestión documental. Se pueden encontrar en el mercado sistemas de gestión de contenidos que no ofrecen las prestaciones documentales que serían deseables, y viceversa. De la misma forma, no es posible igualar mediante una ecuación gestión de contenidos y gestión documental o records management. Íntimamente relacionadas sí, pero iguales no. Sólo el estudio y la evaluación de las características y prestaciones presentes en las herramientas disponibles pueden determinar la adecuación de una solución en un contexto o problema dado. A ello cabe añadir las diferencias existentes entre la gestión de contenidos para web y la gestión de contenidos para empresas, y que pueden encontrarse en los informes o documentos especializados que publican las propias compañías del sector. Si a esto se suma la complejidad creciente de muchos portales, tanto internos como externos, de las organizaciones, que son soportados por sistemas de gestión de contenidos, y a los procesos de publicación digital necesarios para su producción, los sistemas de gestión de contenidos se configuran como aplicaciones de varias escalas, que pueden llegar a alcanzar una alta complejidad.

3. Uso de música e imágenes con derechos de reproducción libre.

Creative Commons 
Creative Commons (CC) (en español equivaldría a: “[Bienes] Comunes Creativos”) es una organización sin ánimo de lucro, cuya oficina central está ubicada en la ciudad de Mountain View en el estado de California en los Estados Unidos de América, que permite usar y compartir tanto la creatividad como el conocimiento a través de una serie de instrumentos jurídicos de carácter gratuito.1
Dichos instrumentos jurídicos consisten en un conjunto de “modelos de contratos de licenciamiento” o licencias de derechos de autor (licencias Creative Commons o licencias “CC”) que ofrecen al autor de una obra una forma simple y estandarizada de otorgar permiso al público en general de compartir y usar su trabajo creativo bajo los términos y condiciones de su elección. En este sentido, las licencias Creative Commons permiten al autor cambiar fácilmente los términos y condiciones de derechos de autor de su obra de “todos los derechos reservados” a “algunos derechos reservados”.
Las licencias Creative Commons no reemplazan a los derechos de autor, sino que se apoyan en éstos para permitir modificar los términos y condiciones de la licencia de su obra de la forma que mejor satisfaga sus necesidades.
La organización fue fundada en 2001 por Lawrence Lessig, ex-profesor de derecho de la Universidad de Stanford y especialista en ciberderecho, Hal Abelson, y Eric Eldred2 con el soporte del Center for the Public Domain. El primer artículo bajo la licencia Creative Commons en una publicación de interés general fue escrito por Hal Plotkin, y fue divulgada en febrero de 2002.3 El primer conjunto de licencias de copyright fue lanzado en diciembre de 2002.4 En 2008, había estimados unos 130 millones de trabajos bajo licencias Creative Commons.5 En octubre de 2011, sólo Flickr alberga más de 200 millones de fotos con licencias Creative Commons.6 Creative Commons está dirigida por una junta directiva y otra de asesoramiento técnico. Estas licencias han sido adoptadas por muchos como una forma que tienen los autores de tomar el control de cómo quieren compartir su propiedad intelectual.

los derechos de introduccion en la produccion televisiva.


El SENA es la única institución educativa que ofrece este programa con todos los elementos de formación profesional, sociales, tecnológicos y culturales, metodologías de aprendizaje innovadoras, acceso a tecnologías de última generación, estructurado sobre métodos más que contenidos, lo que potencia la formación de ciudadanos librepensadores, con capacidad crítica, solidarios y emprendedores en el área audiovisual, que lo acreditan y lo hacen pertinente y coherente con su misión, innovando permanentemente de  acuerdo con las tendencias, cambios tecnológicos y las necesidades del sector empresarial y de los trabajadores, impactando positivamente la productividad, la competitividad, la equidad y el desarrollo del país.





Beneficios, Definición y propiedades de las redes semánticas 
‹ Una red semántica se representa como un grafo dirigido etiquetado (en algunos 

casos se exige que dicho grafo sea aciclico), constituido por:

z nodos: representan conceptos (un objeto individual o una clase de 

objetos)

z arcos: representan relaciones binarias entre los conceptos.

‹ Ejemplo:

"El corazón es parte del sistema 

cardiovascular"
"Las arterias son parte del sistema 
cardiovascular"
"Las arterias grandes son arterias"



"La aorta es una arteria"


Elementos, Categorías y características de la representación de las redes ventajas y desventajas 



Una red de área de almacenamiento, en inglés SAN (Storage Area Network), es una red de almacenamiento integral. Se trata de una arquitectura completa que agrupa los siguientes elementos:
Una red de alta velocidad de canal de fibra o SCSI Un equipo de interconexión dedicado (conmutadores, puentes, etc.) Elementos de almacenamiento de red (discos duros)
Presentación de una SAN
Una SAN es una red dedicada al almacenamiento que está conectada a las redes de comunicación de una compañía. Además de contar con interfaces de red tradicionales, los equipos con acceso a la SAN tienen una interfaz de red específica que se conecta a la SAN.
Ventajas y desventajas
El rendimiento de la SAN está directamente relacionado con el tipo de red que se utiliza. En el caso de una red de canal de fibra, el ancho de banda es de aproximadamente 100 megabytes/segundo (1.000 megabits/segundo) y se puede extender aumentando la cantidad de conexiones de acceso.
La capacidad de una SAN se puede extender de manera casi ilimitada y puede alcanzar cientos y hasta miles de terabytes.
Una SAN permite compartir datos entre varios equipos de la red sin afectar el rendimiento porque el tráfico de SAN está totalmente separado del tráfico de usuario. Son los servidores de aplicaciones que funcionan como una interfaz entre la red de datos (generalmente un canal de fibra) y la red de usuario (por lo generalEthernet).
Por otra parte, una SAN es mucho más costosa que una NAS ya que la primera es una arquitectura completa que utiliza una tecnología que todavía es muy cara. Normalmente, cuando una compañía estima el TCO (Coste total de propiedad) con respecto al coste por byte, el coste se puede justificar con más facilidad.
Ademas es una red concebida para conectar servidores, matrices (arrays) de discos y librerías de soporte. Principalmente, está basada en tecnología fibre channel y más recientemente en iSCSI. Su función es la de conectar de manera rápida, segura y fiable los distintos elementos que la conforman.

¿ QUE ES WIKI?




COMO PUBLICAR


1. Comprobación. Entramos en el sitio español de www.wikipedia.com y en su buscador tecleamos el término que queremos crear para comprobar que, efectivamente, no ha sido publicado anteriormente por otro usuario. Si ya ha sido publicado pero quieres añadir algo, sólo tendrás que hacer clic sobre la pestaña Editar, que aparecerá en la parte superior de la ficha del artículo. Si no se puede, es que se trata de un artículo que no es posible modificar. 2. Edición. Si no ha sido publicado, pulsa sobre el enlace que aparece con la palabra que has buscado y pasarás a la ventana de edición. Aquí es donde tendrás que escribir el texto del artículo para que pueda leerse posteriormente. Esta ventana nos ofrece todas las herramientas necesarias para escribirlo. Realmente se trata de un procesador de textos on line que permite introducir letras en negrita, cursiva y subrayado, incluso crear hipervínculos. 3. Publicación. Edita el artículo con calma y atención. Procura que esté claro y ordenado. Añade puntos y aparte para una lectura más cómoda. Antes de publicarlo, pulsa sobre el botón Mostrar previsualización para corregir posibles errores. Una vez comprobado que todo está correcto, puedes añadir un resumen. Seguidamente, pulsa sobre el botón Grabar la página. Unos minutos más tarde aparecerá en Wikipedia. No olvides leer la advertencia sobre derechos de autor que figura en la página.






HERRAMIENTAS PARA LA ORGANIZACIÓN DEL CONOCIMIENTO



9. Herramienta para la organización del conocimiento

En el ámbito educativo se han desarrollado herramientas para servir en la construcción del conocimiento, para que  los estudiantes aprendan con ellas no de ellas de esta manera los estudiantes cambian su rol pasivo a activo.Herramientas de la mente: organización semántica, interpretación de información, modelo dinámico, construcción de conocimiento, comunicación y colaboración

9.1 Redes semánticas

Las herramientas de organización semántica ayudan a los estudiantes a ordenar y analizar sus conocimientos o lo que estan aprendiendo
9.1.1 Mapas conceptuales
técnicas usadas para la representacion gráfica del conocimiento a través de una red de conceptos
9.1.2 Mapas de ideas
ayudan a los estudiantes a generar ideas y a desarrollar pensamientos en forma visual. utiliza palabras claves , símbolos, colores y gráficos
9.1.3 Telaraña
Mapas visuales que muestran como ciertas categorías se relacionan con otras, ayudan organizar y priorizar la información  
9.1.4 diagrama causa efecto
es llamado usualmente diagrama de "ishikawa" porque fue creado por kaoru ishikawa

CONCEPTUALISMO DE LA WEB 

Se denomina Conceptualismo a un movimiento artístico surgido a finales de los años sesenta directamente derivado de los planteamientos de Marcel Duchamp, y en particular de las aplicaciones de sus "ready-mades"- cuyos adherentes rechazan el arte como artículo de lujo, permanente, portátil y vendible, proponiendo en cambio un tipo de arte en el que cuenta primordialmente la idea o el concepto que respalda sus realizaciones. Para los artistas conceptuales prima el sentido de las obras sobre su forma plástica y el pensamiento implícito en ellas sobre la experiencia sensual.El Conceptualismo es un movimiento amplio y abierto a las más variadas manifestaciones creativas, entre las que se incluyen: propuestas escritas, fotografías, videos, documentos, mapas, planos, trabajos de tierra, ensamblajes, ambientaciones y actuaciones con el propio cuerpo del artista. Aparte de Duchamp fueron sus más sobresalientes precursores Robert Rauschenberg, Ives Klein, Piero Manzoni y Allan Kaprow, y entre los más reconocidos exponentes de este arte mental figuran: Joseph Kosuth, Dougias Huebler, Vito Acconci, Walter de María, Gilbert and George, Mel Bochner, Jan Dibbets, Richard Long y Naum Yung Paik.En Colombia el Conceptualísmo se manifiesta desde finales de la década del sesenta siendo sus primeros cultores Juan Camilo Uribe, Bernardo Salcedo y Antonio Caro. 



IMPLICACIONES EDUCATIVAS DE LA WEB


  • Infraestructura. El aprovechamiento óptimo de la Web 2.0 basada en las interacciones personales, exige el trabajo individual o en pequeños grupos ante un ordenador y en el ciberespacio. Por ello se requiere:
  • 1. Una intranet educativa, las aulas de clase deberían tener conexión a Internet y ordenadores suficientes para los estudiantes .
  • 2. EN CASA. los estudiantes puedan seguir trabajando, necesitarán disponer de ordenador con conexión a Internet.
  • 3. Para poder preparar materiales y actividades y hacer el seguimiento de los trabajos virtuales de los estudiantes, el profesorado necesitará tener un buen equipo siempre a su disposición en el centro y también en su casa
  • 4. LA CIUDAD. Conviene que los municipios dispongan de una red de mediatecas (bibliotecas, centros cívicos, zonas wifi...) donde todos los ciudadanos puedan acceder a Internet cuando lo necesiten. De esta manera, se compensa un poco la brecha digital que sufren quienes no disponen de conexión a Internet en su casa.


REQUISITOS PARA EL USO DIDACTICO DE LAS APLICACIONES DE LA WEB 2.0






HERRAMIENTAS Y RECURSOS DIGITALES COMPRENSION Y USO DE HERRAMIENTAS DE FOTOGRAFIA DIGITAL


  • Conceptos basicos en sistemas de imagen y fotografia digital:
El tránsito hacia la nueva fotografía digital implica un desplazamiento revolucionario de los fundamentos conceptuales y tecnológicos que han sido hegemónicos a lo largo de los más de ciento cincuenta años de la fotografía tradicional. Más allá del uso de un nuevo vocabulario básico, el tratamiento con imágenes digitales comporta el acceso a un nuevo territorio discursivo. El texto que se expone a continuación lleva a cabo un intento de urbanización, análisis y aclaración de los nuevos conceptos y las herramientas necesarias para extraer el mejor rendimiento de este nuevo territorio (todavía inestable) de sistemas y dispositivos para la captura, la conversión, el tratamiento y la optimización digital de imágenes fotográficas que ya nos rodea, y que define el presente y al mismo tiempo el futuro de la imagen. 







  • Herramientas de tratamiento y optimizacion grafica digital:
De acuerdo con los dos tipos de imágenes digitales que hemos tratado (mapa de bits y vectoriales), también el amplio software existente para tratarlas y optimizarlas puede ser dividido en software gráfico de mapa de bits y software gráfico vectorial. Por la afinidad que tiene con la posibilidad de una edición de imágenes con calidad fotográfica, trataremos sólo el software más destacado de tipo de mapa de bits, dejando a un lado el de tipo vectorial.

El mundo específico del software dedicado a cuestiones gráficas no deja de crecer día tras día. Los listados de demos, asistentes, freewaressharewareso alias para la optimización y el retoque de imágenes y fotografías digitales se han ampliado cada vez más rápidamente a lo largo de la última década, junto con un aumento también simultáneo de las cámaras y aplicaciones de fotografía digital de todo tipo. Aun así, conviene destacar, por su capacidad de producción de imágenes de mapas de bits de calidad profesional, herramientas como Corel PhotoPaint, Fractal Painter, Paintshop Pro, Microsoft PhotoDraw y, muy especialmente, Adobe Photoshop, Adobe ImageReady, Macromedia Fireworks y GIMP Open Source.


CAPACIDAD DE ORGANIZAR LA INFORMACION DE ACUERDO A OBJETIVOS ESPECIFICOS



  • Modelo para integrar las TIC
Los cambios acelerados que producen en la sociedad las Tecnologías de la Información y la Comunicación (TIC), a la vez que entrañan grandes retos, ofrecen un enorme potencial para transformar la educación. Ellas posibilitan realizar los cambios necesarios para ofrecer una educación actualizada y de calidad, generando con su utilización adecuada Ambientes de Aprendizaje enriquecidos (AAe).

A los gobiernos de América Latina se les presenta ahora la gran oportunidad de aprovechar ese potencial para: modernizar y renovar sus sistemas educativos; mejorar la calidad de sus escuelas; reducir la inequidad de oportunidades disponibles en sus países para jóvenes de estratos socioeconómicos bajos; y preparar a su población para enfrentar con éxito los retos que entraña la economía globalizada en la que están viviendo y que es especialmente competitiva por ser producto de la sociedad del conocimiento que caracteriza este Siglo XXI.
Si nos preguntamos El porqué de las TIC en educación”, la repuesta nos lleva a considerar tres razones de peso. La primera, tiene que ver con la avalancha de información o de contenidos de conocimiento disponibles ahora en Internet; la segunda hace referencia al potencial de las TIC para actualizar, transformar y enriquecer, a bajo costo, los ambientes de aprendizaje en los que se educan niños y jóvenes latinoamericanos; la tercera, a la que la Fundación Gabriel Piedrahita Uribe (FGPU) propone llamar experTICia, atiende la necesidad de desarrollar la competencia en TIC para poder responder a las nuevas demandas originadas en la revolución, que en los distintos campos del quehacer humano, han generado estas. Debe quedar muy claro que las demandas anteriores las debe atender cualquier sistema escolar contemporáneo que se precie de tener altos estándares de calidad.
  • competentes para utilizar tecnologías de la información (TIC);
  • buscadores, analizadores y evaluadores de información;
  • solucionadores de problemas y tomadores de decisiones;
  • usuarios creativos y eficaces de herramientas de productividad;
  • comunicadores, colaboradores, publicadores y productores; y
  • ciudadanos informados, responsables y capaces de contribuir a la sociedad.



OBJETIVOS ESPECIFICOS EN EL CAMPO DE LOS CONOCIMIENTOS HABILIDADES Y ACTITUDES


En el campo de los conocimientos el alumno deberá:
  • Conocer las características, funciones y líneas básicas del Arte en sus diferentes manifestaciones a lo largo del discurrir histórico y en el marco de las distintas culturas. Asimismo, deberá conocer las causas primordiales de esas características, funciones y evolución, incardinando siempre la obra de arte con el contexto social, religioso, económico, político, ideológico e individual en el que se gestó y conectándola con otras formas de expresión cultural.
  • Estudiar los diferentes lenguajes formales y visuales, así como, las distintas técnicas artísticas utilizadas por la humanidad a lo largo de la historia con el fin de que pueda comprender mejor como éstas condicionan y actúan en el resultado final de la obra de arte.
  • Conocer la teoría del Arte y el pensamiento estético en su discurrir histórico y dentro de los diferentes contextos culturales, sociales, religiosos, económicos, políticos e ideológicos, que han condicionado los discursos, la estética, la función, las técnicas y los lenguajes formales del Arte.
  • Analizar y conocer las fuentes, las tendencias, los artistas y las obras más relevantes y representativas de cada uno de los períodos de la Historia del Arte y en el marco de las diferentes culturas.
  • Estudiar y manejar de forma rigurosa y ajustada el lenguaje específico y la terminología adecuada que son propios de las diferentes manifestaciones del Arte
  • Analizar los distintos enfoques y las distintas metodologías que permiten la compresión de la obra de Arte.
  • Estudiar y conocer los diversos procedimientos de creación artística y las técnicas de conservación, tutela y divulgación del Patrimonio Histórico-Artístico y Cultural.
  • Utilizar las técnicas y mecanismos de búsqueda y conocimiento de las publicaciones más importantes (u otras vías de información) realizadas sobre la materia, así como todas aquellas que le puedan permitir una mayor profundización en aspectos específicos de la misma. Al tiempo, proporcionar al alumno las vías adecuadas para ampliar sus conocimientos en aquellos temas que sean de su interés o imprescindibles para el desarrollo de su profesión.
  • Analizar la realidad nacional e internacional en materia de industria y política cultural; del mercado del Arte y de las instituciones y organismos culturales.
  • Proporcionar al alumno los conocimientos específicos que le capaciten para el ejercicio de trabajos propios de los perfiles profesionales del Título de Grado.




HERRAMIENTAS Y RECURSOS DIGITALES 


En el marco de los Trayectos Disciplinares de Historia de Conectar Igualdad, presentamos el siguiente material sobre herramientas y recursos digitales que se pueden utilizar para nuestra disciplina. 

TAREAS DEL MUNDO REAL




*Definición y Características de Inteligencia Artificial




La inteligencia Artificial  es considerada una rama de la computación y relaciona un fenómeno natural con una analogía artificial a través de programas de computador. La inteligencia artificial puede ser tomada como ciencia si se enfoca hacia la elaboración de programas basados en comparaciones con la eficiencia del hombre, contribuyendo a un mayor entendimiento del conocimiento humano.
Si por otro lado es tomada como ingeniería, basada en una relación deseable de entrada-salida para sintetizar un programa de computador. "El resultado es un programa de alta eficiencia que funciona como una poderosa herramienta para quien la utiliza."


A través de la inteligencia artificial se han desarrollado los sistemas expertos que pueden imitar la capacidad mental del hombre y relacionan reglas de sintaxis del lenguaje hablado y escrito sobre la base de la experiencia, para luego hacer juicios acerca de un problema, cuya solución se logra con mejores juicios y más rápidamente que el ser humano. En la medicina tiene gran utilidad al acertar el 85 % de los casos de diagnóstico.


CARACTERÍSTICAS:

1.      Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de bases de datos, también procesan símbolos y no se considera que usen técnicas de Inteligencia Artificial.

2.      El comportamiento de los programas no es descrito explícitamente por el algoritmo. La secuencia de pasos seguidos por el programa es influenciado por el problema particular presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para resolver un problema dado (programa declarativo). En contraste con los programas que no son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica, explícitamente, cómo encontrar las variables de salida para cualquier variable dada de entrada (programa de procedimiento).
Las conclusiones de un programa declarativo no son fijas y son determinadas parcialmente por las conclusiones intermedias alcanzadas durante las consideraciones al problema específico. Los lenguajes orientados al objeto comparten esta propiedad y se han caracterizado por su afinidad con la Inteligencia Artificial.



3.      El razonamiento basado en el conocimiento, implica que estos programas incorporan factores y relaciones del mundo real y del ámbito del conocimiento en que ellos operan. Al contrario de los programas para propósito específico, como los de contabilidad y cálculos científicos; los programas de Inteligencia Artificial pueden distinguir entre el programa de razonamiento o motor de inferencia y base de conocimientos dándole la capacidad de explicar discrepancias entre ellas.

4.      Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial los programas no pueden trabajar con este tipo de problemas. Un ejemplo es la resolución de conflictos en tareas orientadas a metas como en planificación, o el diagnóstico de tareas en un sistema del mundo real: con poca información, con una solución cercana y no necesariamente exacta.


* Ramas de la Inteligencia Artificial



Robótica

La Robótica es una ciencia que estudia el diseño y construcción de máquinas capaces de desempeñar tareas realizadas por el ser humano o que requieren del uso de inteligencia

*Aplicaciones futuras de la Inteligencia


Robots de Charla Según RUMEL (2004): Un robot de charla o chatterbot es un programa de inteligencia artificial que pretende simular una conversación escrita, con la intención de hacerle creer a un humano que está hablando con otra persona. Estos programas informáticos prometen ser el futuro de la inteligencia artificial aplicada al público general.A estos robots se les unirán las tecnologías del reconocimiento de voz y el de video, para mejorar la interacción con el usuario


Red neuronal artificial:Según RUMEL (2004): Línea de investigación que analiza la viabilidad de reconstruir un cerebro humano mediante una enorme red neuronal. Se presume la posibilidad de recrear la estructura de un cerebro humano empleando para ello Internet. Sin embargo este proyecto es tremendamente complejo, por que a día de hoy ni siquiera conocemos la distribución exacta de las neuronas y sus interconexiones en un cerebro humano.

Ventajas de un experto artificial Desventajas de un experto humano
Permanente y constante Poco durable
Fácil de producir y transferir. Es difícil de transferir y reproducir.
Facilidad de documentar. Difícil de documentar.
Consistente y completa. Puede ser errada o incorrecta.

*Auditoria




La auditoria en informática es la revisión y la evaluación de los controles, sistemas, procedimientos de informática; de los equipos de cómputo, su utilización, eficiencia y seguridad, de la organización que participan en el procesamiento de la información, a fin de que por medio del señalamiento de cursos alternativos se logre una utilización más eficiente y segura de la información que servirá para una adecuada toma de decisiones.
La auditoria en informática deberá comprender no sólo la evaluación de los equipos de cómputo, de un sistema o procedimiento específico, sino que además habrá de evaluar los sistemas de información en general desde sus entradas, procedimientos, controles, archivos, seguridad y obtención de información.


*Tipos de Auditoria

AUDITORIA FISCAL


Surge cuando un pueblo o núcleo social sojuzga o domina a otro bien sea en la política, la religión, la economía las ciencias, o por la fuerza


AUDITORIA INTERNA
      La auditoría interna nace durante la época de consolidación de la Revolución Industrial cuando los pequeños talleres y empresas comerciales de origen familiar comienzan a crecer y se fusionan con otros, hasta derivar en las grandes concentraciones de capital que adoptaron las formas de Pools, Trusts y Holdings