Fotografía e imagen digital


Fotografía e imagen digital[editar]
Artículos principales: Fotografía digital, Pintura digital, Computación gráfica, Imagen digital y Retoque fotográfico.
Desde finales del siglo XX las tecnologías de la imagen han conocido una transformación tan radical como los cambios que se dieron tras los debates fotográficos de finales de la década de 1920 y principios de la de 1930, o por el pop entre las décadas de 1950 y 1960. De ser entendida como un mensaje sin código, una plasmación directa de la realidad, a contemplarla como algo atravesado por complicados códigos de diversos tipos, matizando su presunta referencialidad y revisando sus posibles aplicaciones en arte. Con la manipulación digital, sea de imágenes tomadas con una cámara digital o por la digitalización de imágenes o negativos fotográficos escaneados, se ajustan las proporciones, se corrige la perspectiva y se cambia el color, sintetizando imágenes novedosas. El montaje, que antes se evidenciaba, se vuelve oculto, intrínseco a la imagen misma.6 7
Las técnicas del arte digital aplicadas en la edición electrónica han tenido un impacto enorme en el mundo editorial, a pesar de estar más relacionadas con el diseño gráfico. Es posible que la aceptación general del valor del arte digital se desarrolle de manera muy similar a la aceptación de la música electrónica producida desde las últimas tres décadas del siglo XX.8
Las imágenes en el arte digital pueden ser generadas directamente por ordenador (como las imágenes de arte fractal y elarte algorítmico) o bien tomadas de otras fuentes, como una fotografía escaneada o una imagen dibujada con un software degráficos vectoriales usando un ratón o tableta gráfica.9 Aunque técnicamente el término arte digital puede ser aplicado al arte hecho mediante el uso de otros medios o procesos y posteriormente escaneado, suele reservarse para el arte que no ha sido simplemente modificado por un proceso de computación (como un programa de ordenador, microcontrolador o cualquier sistema electrónico capaz de interpretar una imagen digitalizada); los datos de texto, las grabaciones originales de audio y video digitalizados no suelen considerarse arte digital en sí mismos, aunque pueden ser parte de un proyecto más grande de arte digital.10 Se habla de pintura digital cuando la obra se crea imitando las formas, técnicas y estilos de la pintura tradicional, pero utilizando el software de una plataforma informática.11 La imagen obtenida puede ser vista desde la pantalla de cualquier ordenador, o bien impresa en distintos soportes, como papeles o lienzo.
Existen distintos paradigmas en la creación de imágenes por ordenador. El más simple es el de los gráficos 2D por ordenador, que imitan cómo se puede dibujar con un lápiz y un trozo de papel; la imagen está en la pantalla del ordenador y el instrumento con el que se podría dibujar sería una tableta gráfica o un ratón. Lo que se genera en la pantalla puede parecer que ha sido dibujado con un lápiz, pluma o pincel. Un segundo tipo son los gráficos 3D por computadora; la pantalla se convierte en una ventana a un entorno virtual, donde se colocan los objetos que posteriormente serán fotografiados por la computadora. Normalmente, un equipo de gráficos 2D utiliza gráficos rasterizados como su principal medio de representación de los datos de origen, mientras que los gráficos 3D usan gráficos vectoriales en la creación de instalaciones de una realidad virtual inmersiva. Un tercer posible paradigma es generar arte en 2D o 3D completamente a través de la ejecución de algoritmos codificados en los programas de ordenador, lo que se podría considerar una forma de arte nativa de las computadoras, no puede producirse sin el equipo. El arte fractal, el datamoshing,12 el arte algorítmico y la pintura dinámicason algunos ejemplos.
La fotografía digital consiste en la obtención de imágenes mediante una cámaraoscura, de forma similar a la Fotografía química. Sin embargo, así como en esta última las imágenes quedan grabadas sobre una película fotosensible y se revelan posteriormente mediante un proceso químico, en la fotografía digital las imágenes son capturadas por un sensor electrónico que dispone de múltiples unidades fotosensibles, las cuales aprovechan el efecto fotoeléctrico para convertir la luz en una señal eléctrica, la cual es digitalizada y almacenada en una memoria.

Ref: http://es.wikipedia.org/wiki/Fotograf%C3%ADa_digital

El arte digital


Arte digital
Siendo el arte digital , producto de la tecnología informática, se da la tentación de distinguir el arte tradicional del digital señalando que éste es tecnológico, y el resto no. La tecnología consiste básicamente en un instrumento o procedimiento que posibilita una creación, y en ese sentido no existe diferencia entre un pincel y una paleta gráfica, pero es común encontrar clasificaciones de arte digital basadas en el soporte usado: net.art, CD-Rom-art, videoarte, instalaciones interactivas y sus híbridos, que suelen etiquetarse como «arte multimedia».1 El escritor y docente argentino Diego Levis opina a este respecto que «las herramientas por sí mismas no representan un estímulo para la creatividad personal, pues la capacidad artística depende de factores más profundos que la mera disposición de medios tecnológicos».2

Para Levis, el Arte Digital se inserta en un proceso progresivo de desmaterialización de la obra artística que se retrotrae a la incorporación de la fotografía al ámbito de las artes, a finales del siglo XIX. La fotografía separó el momento de la captación o construcción de la imagen del proceso de manipulación o transformación de los elementos materiales de la obra, proceso acentuado posteriormente con la aparición del cine, que incorporaba una nueva dimensión espacio-temporal intangible, que ya no se encuentra en el soporte material (la película impresionada) sino en el momento de la proyección. La televisión pudo posteriormente prescindir incluso de este soporte material y el proceso culminó, provisionalmente, en las técnicas de simulación y representación digital. No obstante, la creación de imágenes de síntesis sigue el proceso creativo de cualquier arte plástica, al crear imágenes a partir de modelos que surgen de la imaginación de sus creadores.3

Una imagen digital es el resultado visual de un proceso en el que la función de la luz en los soportes químicos de la fotografía o magnéticos del vídeo ha sido sustituido por el cálculo matemático efectuado por una computadora. Desde finales de la década de 1950 las computadoras pudieron tratar sonidos e imágenes. Pese a su inicial limitación de capacidad, el potencial de la nueva tecnología atrajo a numerosos artistas, y actualmente las computadoras están presentes en distintas fases del proceso de creación y reproducción de obras en muchas disciplinas artísticas.4

La primera exposición de gráficos generados por una máquina electrónica tuvo lugar en 1953 en el Sanford Museum de Cherokee, Iowa (EUA). Desde ese momento, cuando todavía el expresionismo abstracto y el informalismo eran las corrientes estilísticas hegemónicas en el panorama artístico occidental, la realización de gráficos con la ayuda de máquinas empezó a multiplicarse hasta llegar a ser vertiginoso y alcanzar su éxito. Fue a finales de los sesenta y principios de los setenta, cuando esta práctica se extendió a numerosos países. La revolución tecnológica del último siglo ha propiciado un arte digital hecho mediante la innovación de programas informáticos, y también el surgimiento de un gran abanico de cámaras digitales

Ref: http://es.wikipedia.org/wiki/Arte_digital

Los géneros fotográficos


El uso de los géneros
Con el término “género” se designa a los diferentes temas tratados en las fotografías. El principal uso del concepto de “género” sirve para disponer la ubicación de las imágenes y facilitar su posterior localización en los archivos fotográficos. Las fotografías del mismo tema se colocan, por tanto, juntas; esta proximidad, más que física, es el resultado de compartir unas referencias.

Otro ámbito en el que también se usa el término es en la convocatoria de los concursos fotográficos para referirse, con propiedad, al contenido sobre el que deben versar las fotografías presentadas. Estos concursos se establecen, en ocasiones, con un tema obligado, con tema libre o ambas cosas. Pero donde las categorías resultan más variadas es en las convocatorias que realizan algunas revistas especializadas, generalmente de periodicidad anual. Las establecidas por la inglesa Practical Photography [1] son: Animals, Faces,The great outdoors, Night, Special effects, Bad weather, Perspective, Heritage, Natural patterns, Days out, Great light, Togetherness.

La revista norteamericana Popular Photography [2], la de mayor tirada y difusión mundial, tiene establecidas las siguientes categorias: Animals, Actions/Sports, Scenic/Travel, Creative/Fine art, Portraiture/Family, Nature, Computer enhanced, Glamour, Photojournalism y Candid/Humour. Estas categorías han permanecido invariables en los últimos años, aunque en 1995 [3] existía la de Creative zoom, ya desaparecida, no existía la de Sports, sólo Actions, las de Family y Portraiture estaban separadas y, por último, las imágenes tratadas con ordenador se recogían en la sección denominada Computer. Comparando las clases establecidas por ambas publicaciones vemos que no son las mismas, aunque algunas coinciden; por otro lado, una clase dedicada a las imágenes trabajadas en el laboratorio digital no existía hace pocos años. Obsérvese que este grupo de imágenes estaría separado de las demás por el hecho tecnológico y no por su contenido, como habría que suponer de una estricta clasificación por géneros; las mismas características poseía la categoría denominada Creative Zoom. La clase Computer, a su vez, se convirtió en la de Computer Enhanced; es decir, se aclaraba la posible confusión a que podía dar lugar la primera denominación que inducía a pensar que las imágenes tratadas digitalmente perdían su condición de fotografías. Hay que observar, igualmente, que en esta revista no se ofrece una clase específica para recoger las fotografías
Toda esta diversificación nos lleva a concluir que cada uno establece sus propias categorías y que éstas son creadas según nuestra conveniencia. Esto es comprensible si tenemos en cuenta que, en la última convocatoria de su concurso, Popular Photography ha tenido que manejar 60.000 fotografías [4] . A pesar de las diferencias, sin embargo, existen clases que sí se repiten. De ahí a afirmar que existen categorías universales hay un gran paso porque, de continuar con la línea de razonamiento seguida hasta aquí, deberíamos localizar todas las posibles categorías que se han establecido para diferentes necesidades y por distintos autores y determinar cuál es el subconjunto intersección. Ese subconjunto estaría formado por los géneros más representativos en la fotografía (al menos, por los usados más frecuentemente) aunque no nos daría información que justificase la pertenencia a dicho subconjunto. Este método, aunque tiene sentido, debería considerar, también, valores estadísticos y, por tanto, tendría que aplicarse exhaustivamente, lo cual no estaría justificado para lo poco productivo que parece ser, ya que ofrece datos pero no explicaciones.

Ref: http://pendientedemigracion.ucm.es/info/univfoto/num2/fgeneros.htm

Techniques for generating ideas


neuro1

neuro

Techniques for generating ideas

morphological analysis
analogies
bionic
Brainstorming or
Brainswarming
Blue Slip
brainwriting
Morphological forced connections
Create dreams
CRE-IN
DO IT
The art of asking
the catalog
What’s It All About (compass)
stratal
Hall of Fame (Hall of Fame)
Ideart
Animated Ideas
Identification or empathy
Imanchin
Get inspired by colors
I inspiravideo
investment
List of attributes
mind Maps
method 635
Microdibujos
Mythodology
Morphing
Eye clean (fresh eyes)
provocation
Forced Relations (random word)
SCAMPER
Technical Dalí (hypnagogic images)
Da Vinci technique
TRIZ
4X4X4

Techniques for generating ideas distance
Idea generation remote
Delphi method (Delphi)
Brainwhatsapping
Braintwitting
Braingoogleplussing

Innovation


innova

innova1

Innovation literally means action and effect to innovate. The word comes from the Latin innovare. Also, in the colloquial and general usage, the term is used specifically in the sense of new proposals and economic implementation inventions. Strictly speaking, however, says that ideas can only be innovations after they are implemented as new products, services or procedures that are really successful application, prevailing in the market through the difusión.1

Economist Joseph Schumpeter who introduced this concept in his “theory of innovation”, 2 in which it defines as the establishment of a new production function. The economy and society change when the factors of production are combined in a novel way. Suggests that invention and innovation are the key to economic growth, and those implementing this change are practically entrepreneurs.

The concept of innovation is also used in the human sciences and culture. The search through the search for new knowledge, solutions or solution paths, suppose curiosity and pleasure for renewal. The concepts of art and creativity become relevant in this context.
Academy of English
Innovation, according to the Dictionary of Academy of English, is the “creation or modification of a product, and its introduction into a market.

CONTABILIDAD: CONCEPTOS BÁSICOS


cont1

Entendemos la Contabilidad como un Sistema de Información cuyo objetivo es la recopilación y análisis de las actividades económicas, financieras y administrativas de un Ente, observando de primera mano las causas y decisiones, que han determinado estos resultados.

contabilidad

Con el desarrollo de los Entes, la contabilidad ha ido también avanzando presentado sus servicios: al desarrollo industrial con contabilidad de costos, al crecimiento de las economías de servicios, contabilidad de servicios, a la planificación con la contabilidad presupuestal y en la era del conocimiento con contabilidad de intangibles.

Por tanto la contabilidad responde a las necesidades planteadas por el desarrollo humano. Por lo que la misión de la contabilidad es de proveer de la información que requieran diferentes componentes del Entorno Socio-Económico de la Entidad.

El entorno:

Diferentes autores ubican a la contabilidad en áreas del conocimiento humano como: parte de la matemática, otros como ciencia económica, elemento fundamental de las finanzas caso especial de estadística, aplicación de la legalidad comercial, uso de herramientas tecnológicas como la cibernética, etc.

Dentro de este abanico de conocimientos de los cuales se nutre y enriquece, consideramos una relación muy estrecha con diferentes ramas del saber humano, retribuyendo también la contabilidad estos aportes con soluciones y técnicas acorde con las exigencias de su entorno, por lo que, viene a ser un conocimiento en constante evolución, y respondiendo con información a los requerimientos de su Entorno.

Consideremos que la disposición de información para un Ente es pues estrictamente necesaria para la toma de decisiones en sus actividades cotidianas.

contabilidad

Principios:

La contabilidad basa su evolución en los siguientes principios los que determinan su filosofía y solidez de funciones a través del tiempo.

Veracidad de la Información. Las actividades se toman en cuenta según la evidencia y consistencia de sus datos.

Unidad de Valoración. Toda actividad contable es expresada en dinero.

Personalización. Se considera toda actividad o negocio como una persona, lo que nos permite separar el negocio del promotor.

Servicio de su Entorno. El desarrollo de sus actividades satisface necesidades de su entorno.

Cumplimiento de la Ley. Las actividades Contables se rigen a normas legales.

Continuidad en el Tiempo. Se supone que el negocio prevalecerá a través del tiempo (mientras sea rentable.)

Periodo Contable. Tiempo fijado para observar el avance, resumen y análisis de resultados.

cont2

Acto contable:

Observemos principalmente que hechos corresponden a las labores de extracción de datos, comunicación, cálculos, clasificación, registro, análisis y conclusiones dentro de las actividades del ente de aplicación.

Acciones de Modificación: viene de los cambios cuantitativos de la estructura económico financiero del ente. Ejem. Un préstamo bancario.

Acciones de Permutación: Dispuesto por los cambios cualitativos. Ejem. Adquisición de maquinarias.

Acciones Híbridas: Simultáneamente cuantitativas y cualitativas. Ejem. La comercialización de un articulo.

Acciones de Apoyo: Las que no modifican ni permutan. Ejem. Valores en cartera.

Acciones de Previsión: Para hechos de acontecimiento futuro o de sustitución. Ejem. Provisiones de Depreciación.

Acciones de Presupuesto: Hechos que señalan y norman los objetivos a alcanzar. Ejem. Elaboración de Presupuestos.

cont3

Soportes y Resistencias (seguimiento de precios)


Mira la ilustración y verás como el precio dibuja en su recorrido un zig-zag. Este ejemplo es en una tendencia alcista, sería igual en una tendencia bajista. Fijate que el zig-zagtambién dibuja retrocesos (pull backs). Los puntos más altos alcanzados antes de un pull back se convierte en resistencia. va ascendiendo y alcanzando puntos más altos y

Si el mercado vuelve a su tendencia original tras el pull back aparecerá un punto mínimo antes de que este vuelva a su camino previo, siendo este punto mínimo un soporte.

Soportes y resistencias en gráficos forex.

Identificar Soportes y Resistencias

Antes de nada memoriza esto: Soportes y resistencia no suelen ser números concretos, más bien, nunca son número concretos. En otras palabras, han de ser entendidos como zonas de soporte o zonas de resistencia.

La forma más usual de usar los soportes y resistencias es el breakout, la ruptura de los niveles de soporte o resistencia puede indicar que el precio continuará en la dirección de la ruptura. Es muy común que estos niveles sean rotos por las sombras de las velas: estas rupturas no se consideran como tales, para hablar de ruptura hay que tener en cuenta el precio de cierre de la vela, no las sombras ni el máximo ni el mínimo de la vela.

Ruptura de resistencias y soportes en Forex.

Para conocer si un soporte o resistencia ha sido roto lo más normal y lógico es esperar a que una vela cierre por encima del nivel de resistencia o cierre por debajo del nivel de soporte, pero aún así puede haber falsas rupturas así que no hay respuesta definitiva para reconocer la ruptura de soportes o resistencias de forma que no haya equivocación. Podrás encontrar que, como yo, considero un nivel roto si el mercado cierra por encima o por debajo del nivel en cuestión pero no siempre será así:

Forex: Falsa ruptura de reisestencia por cierre de vela.

Ahora se puede decir que esa resistencia no ha sido rota, incluso se puede decir que es una resistencia fuerte que costará romper.

Como ayuda para identificar falsas rupturas es mejor pensar en los soportes y resistencias como “zonas” y no como niveles exactos tal y como comentábamos al principio. Identificar estas zonas es mucho más fácil visualmente usando un gráfico de línea más que un gráfico de velas debido a que un gráfico de línea solo muestra la línea que une los cierres de los períodos.

Zonas de soporte y resistencia en Forex con grafico de linea.

Por último comentar dos puntos:

– Cuando una resistencia se rompe, esta quedará por debajo del precio pasando a ser un soporte. De igual modo, cuando un soporte se rompe, este quedará por encima del precio pasando a ser una resistencia.

– Cuantas más veces se acerque el precio a una resistencia o a un soporte sin romperlo, más fuerte se considera ese nivel.

Fuente: Soportes y Resistencias | Análisis Técnico http://www.efxto.com/soportes-resistencias#ixzz318PjWVOG

Entradas (posts)


programmer

Enero 7 – 2014
4
Excel: Línea de tendencia polinómica

3
Bases de datos de muestra incluidas en Access ( y SQL Server)

3
MS Access Contabilidad

3
Excel 2013: Proyectar pérdidas y ganancias

3
MS ACCESS para control de Inventarios

2
Uso De Excel Y Access Para El Desarrollo De Aplicaciones Administrativas Empresariales

2
MS ACCESS: incrustar o vincular un objeto en un formulario (OLE)

2
Almacenar imágenes en una base de datos

2
Facturación con MS ACCESS

1
Alojar tus bases de datos en la nube con Office 365

1
Plantillas de bases de datos para crear aplicaciones completas

1
Home page / Archives

1
Diferencia entre Microsoft Visual Basic y VBA

1
Excel: Análisis de balances y resultados

1
Cálculo del logaritmo (Visual Basic)

1
Ejercicio en Publisher

1
Componentes de Servicios de Excel

1
Índice de Precios al Consumidor en Argentina

1
MySQL Enterprise: Base de Datos. Monitoreo. Soporte.

1
La función Seno en Excel

1
MS EXCEL: tabla dinámica – aplicar filtros y obtener promedios

1
MS ACCESS 2003: Realizar cálculos en una consulta (MDB)

1
Excel 2013: balance de pérdidas y ganancias

1
Excel: Herramientas analíticas

1
Sobre un proyecto de Access (ADP)

1
Como sacar el IVA y calcularlo en Excel

1
MS EXCEL 2010

1
VBA Excel: Un ejemplo del mundo real

1
Excel 2013: Fórmula y uso (aplicaciones)de la función GAUSS

1
Introducción a la programación VBA en Office 2010

1

Total views of posts on your blog 46

Informática: Documento aprobado para la discusión


estu

Consejo Federal de Educación
Anexo
Resolución CFE Nº 163/11
Marco de referencia para Bachiller en Informática
Documento aprobado para la discusión
1
1. Caracterización general de la propuesta educativa de la orientación
Los jóvenes que asisten a la escuela secundaria, participan en una sociedad que se
estructura en función de la disponibilidad de tecnologías de la información y la
comunicación. En este sentido, el Bachillerato con Orientación en Informática, tiene como
propósito ofrecer a los jóvenes la posibilidad de introducirse en la utilización, el
conocimiento y el desarrollo de saberes y capacidades que les permitan abordar
problemas y encontrar soluciones relacionados con la informática en el marco de las
tecnologías de la información y la comunicación. Esto, a su vez, implica la construcción
de argumentaciones acerca de las implicancias socioculturales del desarrollo científico y
productivo de la industria informática.
La Informática como campo disciplinar abarca tanto las actividades de investigación,
diseño y desarrollo, como los productos resultantes de las mismas, a saber:
conocimientos, servicios, bienes. Es así como analiza determinados problemas que
plantea la sociedad, relacionados generalmente con la adquisición, almacenamiento,
procesamiento y/o transferencia de datos e información, y trata de buscar soluciones,
relacionando los conocimientos, procedimientos y soportes que provee, con la estructura
económica y socio-cultural del medio.
Por otra parte las Tecnologías de la Información se van fusionando rápidamente en un
solo tipo de tecnología digital que las resume. Este fenómeno, característico de las
Tecnologías de la Información y la Comunicación, es el que se conoce como
“convergencia de modos” y se va dando en pasos progresivos de tecnificación de los
sistemas de comunicaciones, tendientes a lograr formas compatibles de resolver los
problemas técnicos de transmisión, independientes del tipo de información con la que se
opera. En los últimos años esta convergencia entre los sistemas de telecomunicaciones y
los informáticos ha borrado las barreras entre sistemas que permiten transmitir texto, voz,
imagen, o incluso señales de control de cualquier tipo.
La propuesta de enseñanza para la Orientación se sustenta en la interrelación teoría,
experimentación y diseño y procura que los estudiantes:
incorporen saberes basados en los fundamentos de la Informática
aborden los procesos de resolución de problemas a partir del uso y/o desarrollo de
algoritmos
desarrollen capacidades para explorar y analizar en niveles cada vez más elevados
y en marcos cada vez más complejos, las distintas herramientas informáticas y
habilidades para manejarlas, aplicarlas y desarrollarlas más allá de su uso como
“producto comercial”; incrementando de esta forma sus posibilidades de
aprendizaje autónomo frente a la emergencia permanente de nuevos sistemas
informáticos.
desarrollen el análisis crítico reflexivo sobre los aspectos sociales y culturales de
las TIC y demás ciencias convergentes, desde una perspectiva interdisciplinaria
favoreciendo el desarrollo de saberes requeridos para el ejercicio pleno de la
ciudadanía, para el trabajo y para la continuación de estudios.

Fuente: http://www.me.gov.ar/consejo/resoluciones/res11/163-11_01.pdf

ACTIVIDADES CON TICS EN SECUNDARIA


act

Las actividades con herramientas de colaboración y comunicación, tienen un potencial enorme que se puede desplegar en la medida que se acceda a conocer a fondo su estructura y funcionamiento. Te brinda los recursos necesarios para que aprendas en forma práctica su uso educativo y con las mismas herramientas que utilizan los alumnos de educación primaria y secundaria. Te ofrecen la posibilidad de aprender a utilizar recursos tecnológicos para apoyar a tus educandos a establecer comunicación por diversos medios y aprender de forma visual y auditiva. Durante el 2010-2011 he visto como se pueden desarrollar competencias y habilidades promoviendo el intercambio entre alumnos, de ideas, conceptos, comentarios, imágenes, audio y video, además de interactuar directamente con solo administrar su página, discutiendo puntos de vista en foros y creando grupos para dosificar la información de los contenidos del curso, con muy buenos resultados.
Desarrollo
Docentes y alumnos uilizan los espacio de colaboración y comunicación que a continuación se detallan, la descripción que se hace, es una referencia de la manera que se pueden aplicar como una estrategia del aula o escuela. Ejemplos de uso en actividades con tic como herramientas de comunicación y colaboración en nivel secundaria Blog institucional de secundaria Humberto muñoz zazueta http://secundariahmz.blogspot.com Con este blog damos a conocer las actividades que se realizan a lo largo delciclo escolar, fotos de actividades, cursos, conferencias, concursos,asambleas, reuniones, información general para los estudiantes, horarios declase, ubicación de preparatorias para los terceros grado, enlaces a sitioseducativos. Hemos logrado mantener comunicación directa en fb y twitter con lasinvitaciones a las reuniones de entrega de calificaciones, reunionesextraordinarios, ademas de colocar imágenes con actividades que se realizan enel plantel.También mantenemos comunicación en espacios de redes sociales donde los alumnosnos comparten su sertir en cuanto a problemáticas que ocurren al interior de laescuela o temas específicos del contexto de la escuela: En Facebook http://www.facebook.com/people/Secundaria-Humberto-Munoz-Zazueta/786438376En twitterhttp://twitter.com/secundariahmz Te recomiendo la lectura de la historia de nuestra escuela y biografía delmaestro Humberto Muñoz Zazueta, para que conozcas un poco de la escuela dondelaboro. https://docs.google.com/View?id=dchvnq4j_3czkd7dfmAula de medios de Imaginantes* http://aulademediosimaginantes.blogspot.com Este blog ha sido creado para dar a conocer los trabajos del proyectoImaginantes*, donde los alumnos de la escuela secundaria Humberto Muñoz Zazuetaparticipan, con la maestra de Español en los segundo grados, los alumnos puedensubir videos, fotos, cuentos, relatos, historietas, y compartir la informacióncon otros alumnos de México.Trabajo social en secundaria http://trabajosocialensecundaria.blogspot.com Este blog es para dar a conocer las actividades que se realizan en el área detrabajo social por la compañera Sonia Guadalupe Mendoza Robles, es para tenercomunicación con los padres de familia y comentar sobre ciertas situaciones deapoyo o brindarle algún consejo, dirigido a temas de la problemática de losadolescentes en secundaria, sus conductas, espacios para padres, consejos yprincipalmente mostrar la comunicación entre los padres y la escuela.En la Paz Baja california Sur http://enbajacaliforniasur.blogspot.com Es para la asignatura de historia y contenidos regionales de BCS, espacio parala clase de los terceros grados con el profesor Joaquin Leon Aviles, en esteblog los alumnos encuentran información sobre diversos temas de BCS, flora,fauna, museos, espacios de recreación, comida típica, todo lo relacionado a laeconomía , agricultura, ganaderia, mineria y pesca.Tu mundo de la biología http://tumundodelabiologia.blogspot.com En el los alumnos del profesor Ruben bareño pueden encontrar lo temasdosificados de la asignatura, cabe destacar que no siempre el profe rubenutiliza el blog, es solo para ciertos temas como el de las conferencias degenética o de tarea la visualización de algún video, lo utiliza para enfocar a5 grupos (200 alumnos) de primer grado en temas de bilogía concretos, sin quelos alumnos se pierdan buscando otra información o distrayendose del tema.Red educativa La Historia de México Tres http://heroesbicentenario2010.ning.com Esta red educativa se utiliza con alumnos de tercer grado, en ella puedennavegar y obtener las biografias de los heroes de la independencia de México de1810. En este ciclo escolar 2010-2011 se utilizá para consulta, investigacióny navegación, solo tiene capacidad para 150 miembros, y logramos el patrociniode Pearson Education y Ning la cual paga el hospedaje en internet de la misma.En esta red expresamos lo siguiente: Este espacio, Historia de México Tres, es creado como proyecto colaborativo 2010, utiliza esteespacio para tus clases de historia, encontrarás la mejor información sobre elpróximo Bicentenario que celebrará los 200 años de Independencia en este lugarlleno de riquezas que es nuestro México. “Al grito de ¡Viva la Virgen deGuadalupe! ¡Viva Fernando VII! ¡Muera el mal gobierno! los convocó a levantarseen armas contra las autoridades españolas”.Red educativa Cienciaslucero http://ciencias2.ning.comRed creada por el profesor Armando Lucero para la asignatura de Física desegundo grado, en ella se intercambia información y contenidos de laasignatura, tiene una capacidad para 150 alumnos los cuales mantienencomunicacón con el profesor, esta red le sirve al profe para establecer uncontacto fuera de las aulas, donde los alumnos de tarea o de investigaciónprodrán visualizar un video, subir fotos de experimentos hechos en casa,insertar un video de experimentos o investigaciones caseras, o agregar reportesde lectura en sus propias páginas de la red o establecer foros de discusiónsobre temas de física.Redes educativas Tics en la informática http://informaticaseccion1.ning.com http://informaticaseccion2.ning.com Son dos redes educativa privadas para alumnos de los tres grados de lasecundaria HMZ, en la asignatura de computación de las secciones 1 y 2 de losprofesores Sergio Fernandez y Rosa Sandoval, en ella los alumnos pueden subirlos trabajos elaborados en los módulos de clase que se imparten a lo largo dela semana, además pueden agregar videos, fotos e interactuar en los gruposcreados en las dos secciones del taller, con ello se pretende que los alumnosse apropien de competencias digitales, tambien se evita el que los alumnosolviden su memoria USB, no habra pretextos de no realizar las actividades y subirlasdirectamente desde la computadora de aula, para ellos y sus maestros decomputación será algo novedoso y los acercará más a la tecnología desde supropia aula en su escuela.Aula de medios y tics http://aulademedios.ning.com Contamos con una red educativa para 150 docentes y responsables de aulas demedios, se integran a ella maestros de BCS, México y latinoamérica queintercambian puntos de vista con temas educativos, se comparten actividades deaula y de escuela, además de promover cursos en línea para actualización yproyectos colaborativos para primaria y secundaria.Compartimos información con otros docentes del mundo por medio de espacioscomo: En facebook http://www.facebook.com/people/Aula-de-Medios/100000847518437En twitterhttp://twitter.com/aulademediostic En bloggerhttp://aulademediosytics.blogspot.com En youtubehttp://www.youtube.com/user/AULADEMEDIOSYTICsEn Sities de Googlehttp://sites.google.com/site/actividadesaulademediosEn grou.pshttp://grou.ps/aulademediosEn grupos de Googlehttp://groups.google.com.mx/group/aulademediosyticsEn WordPresshttp://aulademediosensecundaria.wordpress.comEn Myspacehttp://www.myspace.com/aulademediosEn Picasa Albumhttp://picasaweb.google.com/luisalbertolealespinoza/AULADEMEDIOSEn Edublogshttp://aulademedios.edublogs.orgEn Grouplyhttp://aulademediosytics.grouply.comEn Wixhttp://www.wix.com/aulademediosytics/aulademediosyticsAdministro los sitios de nuestra escuela secundaria:http://secundariahmz.blogspot.comhttp://sechmzenlapaz.blogspot.comhttp://tssechmz.blogspot.comhttp://www.facebook.com/people/Secundaria-Humberto-Munoz-Zazueta/786438376http://twitter.com/secundariahmzhttp://www.youtube.com/user/secundariahmzhttp://www.youtube.com/user/ditangoRedes Sociales Educativas para alumnos y docentes de laescuela Secundaria Humberto Muñoz Zazueta de La Paz Baja California Sur,México:http://aulademedios.ning.comhttp://heroesbicentenario2010.ning.comhttp://informaticaseccion1.ning.comhttp://informaticaseccion2.ning.comhttp://ciencias2.ning.comhttp://miescuelatuescuela.ning.com
Cierre
Realmente mi experiencia en las redes sociales es muy satisfactoria cuando se hace con responsabilidad, pero si no se pone empeño y completa atención es un rotundo fracaso ya que el no contestar a una pregunta de un miembro se transforma en el abandono completo del intercambio de actividades. Es de suma importancia que los docentes sean los principales motores de estas herramientas como apoyo educativo. Estamos en los momentos donde el aprendizaje es libre, todos compartimos opiniones, intereses, problemas, soluciones, y creo que todos tenemos algo que contar de nuestras experiencias docentes, si todos los docentes supieran de buena tinta que con el uso de las redes sociales y su apropiada difusión habría más riqueza de aprendizajes, de enseñanza y de contenidos, pero son pocas las personas inmersas en la educación que proponen contenidos educativos por medio de las redes sociales educativas. Estamos viviendo avances con estas tecnologías en la educacióny por ende sobre todo en México y Latinoamérica.

Fuente: luisleal http://www.docentesinnovadores.net/Contenidos/Ver/4633

logo
DOCENTES INNOVADORES.NET

Argentina: Subió el desempleo en el primer trimestre 2013


La tasa de desempleo subió a 7,9 por ciento en el primer trimestre del año, mientras que la de subocupación alcanzó a 8 por ciento, lo que significa que más 2.800.000 personas tiene problemas de inserción laboral, según datos del Instituto Nacional de Estadística y Censos (INDEC). Córdoba fue la provincia con más desocupados.
La desocupación aumentó 0,8 punto porcentual respecto del primer trimestre de 2012 (7,1 por ciento) y la subocupación creció 0,6 punto (7,4 por ciento) respecto de ese mismo período.
Siempre de acuerdo con la información oficial, con relación al cuarto trimestre de 2013 la tasa de desempleo subió 1 punto (6,9 por ciento) y la de subempleo cayó 1 punto (9 por ciento).
Por tanto, sobre una Población Económicamente Activa (PEA) de 18 millones de personas, 1.422.000 personas no tienen empleo fijo y 1.440.000 trabajan menos de 36 horas por semana.

http://tn.com.ar/politica/subio-el-desempleo-en-el-primer-trimestre_389177

infodesempleo

Si bien, en el primer semestre de 2013 se crearon 216.000 puestos de trabajo, 53% correspondieron a trabajos full time (ocupación plena) y 47% a part-time (subocupación). El año pasado esa relación fue totalmente diferente, 72% y 28% respectivamente.
Este deterioro se puede ver claramente en el gráfico a continuación:

grafico2a

Otro punto importante de la calidad de este empleo generado responde al sector que está aportando los nuevos puestos de trabajo. En el primer trimestre del año se generaron 157 mil puestos de trabajo en el sector público, mientras que el privado cayó en 46 mil. Actualmente, la Argentina cuenta con más de 3 millones y medio de empleados públicos. Es una cifra superior a la población de Uruguay.
Para lo que resta del año, las perspectivas son modestas. La encuesta de Expectativas de Empleo que realiza Manpower se mantuvo en +9% para el último trimestre. Esta es la diferencia entre los empleadores que esperan aumentar sus contrataciones y aquellos que planean reducirla.

http://www.igdigital.com/2013/10/desempleo-cifras-indec-y-cepo-cambiario-en-argentina/

Argentina: IPC General


inflación

El IPC es un índice en el que se valoran los precios de un conjunto de productos (conocido como “canasta familiar” o “cesta”) determinado sobre la base de la encuesta continua de presupuestos familiares (también llamada Encuesta de gastos de los hogares), que una cantidad de consumidores adquiere de manera regular, y la variación con respecto del precio de cada uno, respecto de una muestra anterior. Mide los cambios en el nivel de precios de una canasta de bienes y servicios de consumo adquiridos por los hogares. Se trata de un porcentaje que puede ser positivo, en cuyo caso índica un incremento de los precios o negativo, que refleja una caída de los mismos.
Todo IPC debe ser:
• representativo y confiable, tomando la muestra de manera aleatoria y que cubra la mayor población posible.
• comparable, tanto temporalmente como espacialmente, o sea con otros IPC de otros países o períodos en un mismo país.

PRICESTATS IS THE LEADING SOURCE OF DAILY INFLATION STATISTICS AROUND THE WORLD
http://WWW.PRICESTATS.COM/

En Agosto del 2012 reemplazamos los índices originales de este sitio por un índice de precios al consumidor producido por PriceStats, comparable al IPC general del INDEC. El indice es también publicado semanalmente en la revista The Economist en reemplazo de las estadísticas oficiales del INDEC. Es un indice mas amplio que abarca más categorías de productos y utiliza decenas de miles de precios diarios obtenidos en forma online de un gran número de comercios y fuentes de datos de todo el país.
________________________________________
En todos los gráficos la linea azul es el dato oficial (INDEC), y la linea naranja es el índice de PriceStats. La serie de inflación mensual en formato csv (compatible con Excel) se puede bajar en este sitio, haciendo click sobre el texto “Argentina Daily Values (.csv download)” en el menú de la derecha.

Fuente: http://www.inflacionverdadera.com/

Argentina: los subsidios, en sólo nueve meses ya superaron lo gastado en todo 2012


El 63% de las transferencias se destina a la energía y sólo este rubro explica casi todo el incremento. Hubo una fuerte aceleración en el periodo pre electoral

subsi

Los subsidios económicos acumularon un alza del 55% en los nueve primeros meses del año, ya superaron lo gastado por ese concepto en todo 2012 y según cálculos privados llegarían a los $ 140.000 millones a fines de 2013, repartidos casi íntegramente a los sectores de energía y transporte.
Según las proyecciones que maneja Empiria Consultores, las transferencias para cubrir el agujero energético ascenderá a $ 93.000 millones este año mientras que los fondos destinados al transporte se acercarán a los $ 30.000 millones.
Los subsidios se vienen incrementando año a año de manera nominal pero más importante aún como porcentaje del PBI. De acuerdo a las estimaciones del Estudio Broda y Asociados, en 2005 representaban el 0,63% del PBI, en el 2008 saltaron al 3% del PBI y este año equivaldrán al 4,8% del PBI. En Empiria son más pesimistas y creen que este año se destinará 5,3% del PBI para este fin, “lo que representa la quinta parte del gasto primario, 8,5 veces el presupuesto asignado a la Asignación Universal por Hijo y 2,4 veces la recaudación por retenciones a las exportaciones”.
Para la consultora que dirige el ex funcionario del Banco Central Hernán Lacunza, los subsidios ya alcanzaron una dimensión “difícil de manejar” y comprometen la estabilidad macroeconómica porque explican todo el déficit fiscal y superan largamente las necesidades del Tesoro cubiertas con emisión monetaria.
El rojo energético
El grueso de los subsidios es destinado al consumo de energía (64%) y en menor medida al transporte (23%). La cuenta energética explica casi íntegramente el alza de los subsidios en los últimos años, al pasar desde $ 16.000 millones a más de $ 90.000 millones entre 2009 y 2013. En particular, en el primer semestre del año las transferencias por subsidios energéticos aumentaron 62,5%, acelerándose a un ritmo de 91% anual en los tres meses previos a las elecciones legislativas, reveló el informe de Empiria.
Actualmente más del 30% de los subsidios totales están destinados a mantener las tarifas energéticas, principalmente en la Ciudad de Buenos Aires y el Gran Buenos Aires, y otro 25% a la importación de combustible para abastecimiento del mercado interno, destacaron desde la consultora.
El resto se destina a transporte automotor de pasajeros ($ 12.000 millones anuales), al sistema ferroviario metropolitano ($ 4.000 millones), a Aerolíneas Argentinas ($ 3.500 millones), a AySA ($ 6.500 millones) y a ARSAT ($ 5.000 millones).
Para casi todos los economistas, es imprescindible que los subsidios se reduzcan para bajar el déficit fiscal. En este sentido entre los cambios de política económica que se barajan para el periodo post electoral, trascendió la posibilidad de que el Gobierno los revise. Sin embargo, los analistas no son optimistas respecto a su implementación.
““Reducir los subsidios económicos es de importancia estratégica ya que implican una enorme masa de recursos públicos derrochados. En algunos casos su eliminación depende de la decisión política de dejar de impulsar proyectos inviables, como es el caso de Aerolíneas Argentinas. En otros, la eliminación de los subsidios es más compleja de instrumentar porque requiere actualizar las tarifas de los servicios públicos. Esto precisa, como paso previo, montar un esquema transparente y bien controlado de tarifas sociales para no perjudicar a las familias más pobres””, plantearon desde IDESA.
En tanto, desde el Estudio Broda, recalcaron que quizá el Gobierno intente moderar algo la dinámica de los subsidios con una leve suba tarifaria pero el grueso del gasto difícilmente será moderado.
““A pesar de que generan ineficiencia porque desalientan la producción e inversión y exacerban el consumo, son regresivos y poco federales no será fácil la economía política de cualquier reforma””, aseguraron desde la consultora que dirige Lacunza.
““Una reducción en los subsidios, y el consecuente traslado a la tarifa final, generarán invariablemente un impacto en los precios y en los costos de algunas industrias””, advirtieron.
En este sentido, el informe da cuenta de que si se hicieran ajustes significativos de 200% para las tarifas energéticas y del 100% para el transporte, implicaría un ahorro fiscal de $ 24.000 millones sin tener en cuenta la inercia inflacionaria (un 17% del total de subsidios económicos), a costa de un 6,7% de incremento en el costo de la canasta de consumo.

Fuente:
http://www.cronista.com/economiapolitica/-Subsidios-en-solo-nueve-meses-ya-superaron-lo-gastado-en-todo-2012-20131114-0057.html

por MARIANA SHAALO Buenos Aires

Hoy las reservas del BCRA tendrán la mayor caída del año (Argentina)


bcra

El Gobierno se apresta a cancelar el vencimiento del Bonar VII por u$s2.070 millones. El mercado anticipa que cerca de la mitad de estos fondos podrían ser retirados en efectivo, con lo que reducirán los activos líquidos que están en las arcas del Banco Central

BCRA De aquí a fin de año, el BCRA seguirá perdiendo reservas por los intereses y pagos de deuda que debe afrontar el Tesoro Nacional. Para 2014, el Presupuesto adelanta que el Tesoro tomará prestados otros US$9.855 millones para afrontar los vencimientos del año próximo, fondos que en general no reingresan al sistema.
Reservas Internacionales
Buenos Aires, nov. 14 –(Nosis)– El siguiente cuadro indica la evolución de las Reservas Internacionales del Banco Central (BCRA), en millones de pesos y dólares.
Reservas Internacionales del Banco Central (1)
Fecha $ u$s
11-11-13 196.781 32.954
08-11-13 196.451 32.966
31-10-13 196.427 33.232
30-10-13 195.213 33.238
30-09-13 201.204 34.741
30-08-13 208.012 36.678
31-07-13 204.008 37.049
28-06-13 199.280 37.005
31-05-13 203.692 38.551
30-04-13 204.934 39.532
27-03-13 207.175 40.446
28-02-13 209.910 41.609
30-01-13 211.666 42.531
31-12-12 212.871 43.290
(1) La presentación y contenido de esta información se encuentra en revisión en atención a las nuevas disposiciones.
(2) Las cifras consignadas se encuentran valuadas al tipo de cambio vendedor Banco Nación (mercado libre) correspondiente al cierre del día anterior al que se refiere esta publicación.
Los usuarios del sistema NyM de Nosis pueden hallar más estadísticas relacionadas en el layout “BCRA”. (fin)

Fuente: http://www.ieco.clarin.com/economia/riesgos-afrontan-reservas-BCRA_0_1006099743.html

AUMENTÓ EL PRECIO DE LA YERBA EN UN 50% (Argentina)


yerba1

Las empresas cambiaron sus envases por otros mucho más caros. Ahora, tras las elecciones, dejaron de conseguirse las anteriores versiones económicas y llegaron las “plus”, “premium”, “livianas” y hasta “despaladas”
Es la “infusión nacional”. Es lo que más toman los argentinos después del agua. Es el mate, por lejos, la infusión más elegida para el desayuno. Y su principal ingrediente es uno de los productos más castigados por la inflación. En el último mes, la yerba se encareció al menos un 50% en las góndolas: pasó de $ 20 el kilo a más de $ 30, y hasta a casi $ 40. En general, de una forma “encubierta”.
Sucede que, ante fuertes aumentos en la materia prima y el freno oficial a los precios, las yerbateras lanzaron este año gran cantidad de envases nuevos, con leves innovaciones, mucho más caros. Al inicio esos paquetes convivieron con los normales.
Pero ahora, tras las elecciones, terminaron por desplazarlos.
Y así se produjo una suba de hecho, según detectaron asociaciones de consumidores y pudo comprobar Clarín.
“Nuevo envase sin capas plásticas”, se lee ahora en los paquetes de Nobleza Gaucha y Cruz de Malta. Un Carrefour de Colegiales los lanzó hace poco a $ 29,90, en reemplazo de las versiones clásicas, que valían $ 20,15: el aumento fue del 49%. Al mismo tiempo, el paquete de La Tranquera, hace un mes a $ 21 el kilo, se cambió en muchos negocios por uno con “tres láminas de protección”, 60% más caro, que vale $ 33,99 en Coto, $ 34,59 en Vea y $ 37,65 en Disco.
Rosamonte, a su vez, introdujo una versión “Plus” con “envase aluminizado” a $ 38 el kilo, y la normal de $ 19 ya no se encuentra: el precio se duplicó. Y en el caso de Amanda, un nuevo paquete con “cuádruple protección” implicó una suba del 65% frente a los $ 17 que se pagaban en junio por la versión habitual.
Finalmente, el paquete normal de Taragüí también se hace difícil de encontrar a $ 18 o $ 19, como estaba. Las que abundan son las de “bajo contenido de polvo”, la “liviana” o la despalada, de $ 26 a $ 31.
La Hoja, Playadito, CBSé, Verdeflor y Romance son otras que ya salen entre $ 30 y $ 35. Y los paquetes “premium” de cada marca ahora se cobran entre $ 40 y $ 60 el kilo.
“A fin de octubre notamos poca presencia de marcas líderes, faltantes en los paquetes más baratos y varios envases nuevos que van de $ 28 a $ 34 el kilo.
El aumento fue increíble ”, confirmó Claudia Collado, titular de Adelco. “Casi todas las marcas cambiaron paquetes para aumentar, y ahora muchas sólo están en el envase de 500 gramos, que sale más caro”, agregó Sandra González, de Adecua.
Así, las grandes cadenas terminaron acercando sus precios a los más altos que ya regían en muchos almacenes y autoservicios, donde los paquetes “viejos” sí están, pero al “precio nuevo”. Un súper chino de Colegiales, por caso, tiene la Taragüí a $ 28, la Cruz de Malta a $ 34, a $ 36 la Amanda y a $ 38 la Rosamonte. Según Yolanda Durán, representante de comercios asiáticos, eso depende mucho de la zona, ya que en barrios como Balvanera –dice– aún venden yerba a $ 20, $ 22 y $ 28 el kilo.
“Pasa cada vez más seguido. Moreno fija un precio y las empresas aceptan, pero enseguida lanzan paquetes con otro código, al precio que quieren. Y de los básicos pasan a entregar lo mínimo”, contó el dueño de un supermercado porteño, que pidió reserva.
La disparada llegó luego de que el Instituto Nacional de la Yerba Mate (INYM) fijara en septiembre ajustes del 42 y el 59% en los precios de la materia prima, por lo que la industria precisó llevar a $ 20 el kilo a la salida del molino, y a mucho más en la góndola. “Va a tener repercusión porque es un incremento importante”, había avisado entonces el titular del INYM, Luis Prietto, quien preveía que el precio subiría a $ 32.
“Hubo un fuerte aumento y no está justificado, porque la materia prima es sólo uno de los costos que incide en el precio final”, apuntó Fernando Blanco Muiño, titular de la Unión de Consumidores de Argentina. En la misma línea, desde Consumidores Libres, Héctor Polino consideró que no hay razón para un traslado tan inmediato a los precios porque las empresas “tienen stock para viarios meses”, producido a los costos anteriores.
Declarado por ley en julio –cuando la yerba estaba $ 17 el kilo– como “infusión nacional”, el mate venía sumando adeptos. Entre enero y agosto, según el INYM, la venta de yerba fue 9% mayor a la del año pasado, y la mejor de los últimos cinco años. Lo que temen en el sector es que, por los fuertes aumentos, a partir de ahora, la tendencia se revierta.
fuente // Clarín.com

El precio del pan: otro fracaso económico


25 de junio de 2013
El precio del producto en las zonas de mayor poder adquisitivo no baja de veinte pesos por kilo. En los barrios más populares, oscila entre dieciséis y dieciocho pesos. “La harina no para de aumentar y se nos hace cada vez más difícil conseguirla”, dicen los panaderos. También sufren por esto, las fábricas de pastas y las pizzerías.
Para tener una idea, actualmente la bolsa de 50 kilos de harina tripe cero, se consigue a un precio de $290, mientras que dos meses atrás se pagaba $175.
La cuestión preocupa al gobierno al punto tal que el Secretario de Comercio piensa reunir en los próximos días a los directivos de Federación Argentina de la Industria Molinera para firmar un acuerdo de precios, informa el sitio web lapoliticaonline. La idea sería establecer un precio fijo para la harina de manera tal que baje el valor del pan y evitar así tener que importar trigo antes de las elecciones de octubre. La posibilidad de abrir las importaciones del cereal pondría al descubierto otro fracaso en materia de precios internos.
Fracaso que viene de larga data, como que comenzó allá por 2006, cuando para frenar la suba del pan, al secretario de comercio no se le ocurrió mejor idea que intervenir el mercado de trigo y además “congelar” el precio del producto en $2,50. Siete años después, el kilo de pan cuesta siete veces más y la harina de trigo es más cara que en los países vecinos donde aumentó la producción del cultivo. En nuestro país, en cambio, en la campaña 2012/13 se cosecharon 9,8 millones de toneladas de trigo (la tercera peor producción de la historia).
Además, según lo refleja el informe del portal citado, entre 2007 y comienzos de 2011 la industria molinera recibió subsidios por $ 3.771 millones, mientras que en ese mismo período los productores de trigo cobraron compensaciones por $379 millones. Pero luego de la disolución de la Oncca, en febrero de 2011, se interrumpieron los pagos (que a la fecha acumulan deudas por liquidaciones pendientes superiores a $2000 millones, según estimaciones de industriales del sector molinero). Los efectos colaterales de la suspensión del pago de los subsidios oficiales a la molinería completaron el descalabro del sector que hoy sufre el consumidor a quien, teóricamente, se quiso “proteger”.
De todo esto la conclusión es evidente: Intervenir los mercados es relativamente fácil. Pero no es gratis. Y las consecuencias, generalmente las paga el consumidor.
“Mientras que no se intervinieron los mercados, y no hubo retenciones, se produjeron entre 16 y 18 millones de toneladas por año. El consumo es de 6 millones por año. Es decir, producíamos el triple de lo que necesitábamos. El gobierno intervino el mercado y le quitó rentabilidad al productor. El año pasado tuvimos la peor cosecha de 111 años con 9 millones de toneladas”, señaló a radio lared el presidente de la Sociedad Rural.”Hoy en la Argentina el trigo vale cerca de u$s500 la tonelada, el doble que en Uruguay. Ya se habla de que hay gente que va a comprar allí para venderlo acá”, explicó el dirigente.
Publicado por Contador LoCane

. http://blogs.perfil.com/contadorlocane/2013/06/25/el-precio-del-pan-otro-fracaso-economico/

Tendencias de los precios mundiales
Los precios de los alimentos básicos que se transan en los mercados internacionales disminuyeron entre febrero y junio de 2013 (gráfico 1). En ese periodo, el Índice de precios de los alimentos del Banco Mundial bajó en 2%1, con disminuciones mensuales sostenidas entre febrero y mayo. En mayo, los precios subieron en más de 2% y repuntaron en junio. El índice del Banco se mantuvo en junio un 12% por debajo de la máxima histórica registrada en agosto de 2012, pero solo un 2% más bajo que hace un año.

Gráfico 1. Índice mundial de precios de los alimentos del Banco Mundial
pan

Fuente: DECPG, Banco Mundial.
Nota: El Índice de precios de los alimentos pondera los precios de las
exportaciones de una serie de productos alimenticios básicos en el mundo
en precios nominales en US$ de 2005 = 100.

Índices de costo del tambo y precio de la leche (Argentina)


En el siguiente gráfico se puede observar la evolución de los índices de costo del tambo y precio de la leche, base enero de 2010 = 100. Para la elaboración del índice de costo tambo se ponderaron aproximadamente 20 insumos considerando los siguientes rubros: alimentación, personal, cría, recría y sanidad (Gastos Directos) y administración y estructura (Gastos Indirectos). La participación relativa y la incidencia sobre el costo total de cada uno de los rubros fue calculada en base a 74 modelos que procuran relevar los diferentes sistemas de producción a nivel nacional diferenciándolos por su dispersión geográfica y nivel de adopción tecnológica. Por su parte el índice de precio es calculado en base a las variaciones resultantes del precio del lt de leche publicado por MinAgri. Cabe aclarar que estos indicadores reflejan solamente la evolución de los precios de los insumos y productos en cuestión, por lo cual los efectos climáticos o estacionales sobre la producción no tienen impacto directo sobre los mismos.

1

Luego del segundo semestre de 2012 donde la situación económica de la actividad tambera fue crítica, registrándose una relación índice de precio: índice de costo igual a 0,85 con un mínimo que llegó a 0,79 en noviembre del año pasado, el primer semestre de 2013 mostró una mejora significativa en la relación de la variación del índice de precio e índice de costo promediando 0,99. La relación registrada para el mes de agosto fue de 1,055 observándose una desaceleración en el aumento del precio respecto a los meses anteriores (IP/IC julio 2013= 1,064), que acompañada por un ligero incremento mensual en los costos- 1,3%- promedia una relación levemente positiva, aunque en muchos casos arrastrando una situación financiera preocupante.
INDUSTRIA LÁCTEA
El sector industrial lechero está compuesto por una gran cantidad de empresas, desde las más grandes hasta otras que procesan sólo la leche del establecimiento propio (tambos-fábrica). A pesar de esta heterogeneidad, es posible dividir al conjunto del sector industrial en tres segmentos claramente diferenciados:
• Un grupo de unas 10-12 empresas con una recepción mayor a 250.000 litros diarios de leche, diversificadas en sus líneas de producción, en su mayoría con presencia exportadora, y que procesan el 50-55 % de la producción nacional (dos de ella superan los dos millones de litros diarios procesados por cada una).
• Un grupo de unas 90-100 empresas con una recepción de entre 20 y 250.000 litros diarios, con una alta participación del rubro quesos, con una actividad exportadora prácticamente inexistente, que procesan el 25 % de la producción nacional.
• Más de 1.000 empresas y tambos-fábrica, con menos de 20.000 litros diarios de recepción, que se dedican casi exclusivamente a quesos, y que procesan el 20 – 25% de la producción nacional.
A pesar de la diferencia de tamaños, la competencia de precios entre las empresas ubicadas en los segmentos contiguos es muy fuerte, especialmente en aquellos productos con menores posibilidades de diferenciación, como los quesos de consumo masivo, la leche en polvo, la crema, la manteca y el dulce de leche. Una proporción significativa – aunque difícil de cuantificar – de los establecimientos lácteos, principalmente queseros, incumplen total o parcialmente sus obligaciones higiénico-sanitarias, laborales, previsionales e impositivas. Esto genera una fuerte competencia desleal con el reducido grupo de medianas y grandes empresas, quienes están más expuestas a la acción fiscalizadora del Estado.
La industria láctea argentina tiene una fuerte concentración en el rubro quesos, que absorben casi el 50 % de la producción nacional de leche. Le siguen en orden de importancia la leche en polvo, con el 24 % y la leche fluida (pasteurizada y esterilizada) con el 17 %.
4. CONSUMO INTERNO Y CANALES DE COMERCIALIZACIÓN
La Argentina había alcanzado en los últimos 10 años un elevado consumo de productos lácteos (230 litros de equivalente leche por habitante y por año), lo que la ubica en el segmento de países de alto consumo a nivel mundial. Cabe mencionar, sin embargo que, como consecuencia de la aguda crisis de ingresos que se produjo en el año 2002, el consumo interno disminuyó notablemente para ubicarse un valores levemente por encima de los 160 litros por año. No obstante, se espera que en los próximos años se recupere hasta alcanzar los niveles de la década del ´90.
En términos de composición relativa, el “mix” de consumo nacional se caracteriza por la alta participación de los quesos, especialmente de variedades de pasta blanda (Cuartirolo, Cremoso, Por Salut) seguidos por los de pasta semidura (Pategrás, Gouda, Danbo y otras barras) y algunas variedades de quesos de pasta dura (Reggianito, Provolone, Sardo, etc.). La leche fluida ocupa el segundo lugar en el consumo nacional de lácteos, y en este caso se destaca el crecimiento que experimentó la participación de la leche esterilizada UAT o “larga vida”, que pasó del 8 % en el año 1992 al 42,5 % en el año 2001. La leche en polvo (entera y descremada), si bien su principal destino es la exportación, tiene aún un buen mercado doméstico, ya sea por los canales de venta tradicionales, las licitaciones públicas y por el uso industrial.
En relación con los canales de comercialización de los productos lácteos, la proporción destinada al mercado interno entre los años 1995 y 2002 ha oscilado entre el 88% y el 76 %, con un promedio del 84,2 %. A su vez, la proporción mayoritaria del consumo interno se destina a la “distribución minorista” en sus diferentes formatos (super/hipermercados, autoservicios, tradicionales). Asimismo, vale la pena destacar que van ganando cada vez más importancia los canales industriales, institucionales (licitaciones, etc.) y los servicios alimentarios (restaurantes y catering).
En la distribución minorista, el fenómeno mundial de la concentración también se ha manifestado con fuerza en Argentina, y en la actualidad la industria láctea comercializa a través de super e hipermercados más del 40 % de sus ventas de mercado interno. Así, la combinación de un sector supermercadista cada vez más concentrado con una estructura industrial fragmentada, con productos poco diferenciados y de oferta inelástica, ha provocado una notable pérdida del poder de negociación de las principales empresas lácteas, y por esta razón, en los últimos años se ha reforzado la transferencia de ingresos hacia el sector comercial e indirectamente hacia el consumo.
El litro de leche ya cuesta lo mismo que el de la nafta súper
El litro de leche en las góndolas de la Argentina cuesta- dependiendo la marca y calidad del producto- entre $ 8,50 y $ 10,50, valor más caro, si se toma como referencia el dólar oficial, que en Londres u otras capitales importantes del mundo.
Al comparar los precios de la leche en las góndolas locales con el de otros seis países (España, Inglaterra, Estados Unidos, Brasil, Finlandia Israel), la Argentina encabeza el ranking de los más caros. Al tomar como referencia el dólar informal a $ 8,48, el país ocupa, en cambio, el quinto puesto, pero con una diferencia que se achica.

Fuente: http://www.cfired.org.ar/Default.aspx?nId=966

Índice de Precios al Consumidor en Argentina


nariz1
El INDEC según la revista The Economist

El Índice de Precios al Consumidor en Argentina (IPC) es oficialmente elaborado por el Instituto Nacional de Estadística y Censos (INDEC). A partir del año 2007, en que fue intervenido por la Secretaría de Comercio Interior, el IPC se ha apartado notoriamente de los valores similares elaborados por los organismos estatales de varias provincias argentinas, por consultoras económicas privadas y por otros índices que reflejan (aunque de manera indirecta) los niveles de inflación en el país. Esto tiene por lo menos tres consecuencias importantes: se subestiman los índices de pobreza e indigencia; se sobreestima el crecimiento del Producto Bruto Interno; se pagan menos intereses a los bonos ajustables por inflación.

1000px-IPC_comparado

Los índices graficados son:
• IPC-INDEC correspondiente al Gran Buenos Aires, ;[8]
• IPC-BAC, actualmente discontinuados, se dan para comparación con los del CENDA;
• IPC-CENDA, originalmente dados en http://cenda.org.ar/files/CENDA_IPC_7PROVINCIAS_NOV_2010.xls;%5B9%5D
• IPC-Congreso, dado por bloques no oficialistas de la Cámara de Diputados de la Nación, que parece no tener sitio Internet y se conocen a través de comunicados de prensa;
• índice de costos de la construcción del INDEC.[10]
Los índices se han graficado —salvo el IPC-Congreso— de modo que el valor de referencia (0% de inflación) corresponde al mes de septiembre de 2006, ya que a partir del mes de octubre comenzó la manipulación de los valores por el INDEC. La excepción es el IPC-Congreso, basado en datos promediados, no se sabe de qué manera, de consultoras privadas, único índice alternativo que subsistía en diciembre de 2012. Como se ve del gráfico, los datos del CENDA, los más confiables hasta su ocultamiento, daban un crecimiento de inflación bastante mayor que los de los bloques opositores de la Cámara de Diputados de la Nación en el breve período en que coexistieron con estos últimos. El valor inicial del IPC-Congreso, a diferencia de los restantes y en razón de la iniciación tardía de su divulgación, se ajustó arbitrariamente como igual al valor del IPC-CENDA de diciembre de 2010. En cuanto al índice ICC-INDEC de la construcción —aunque muy diferente del valor IPC de los productos de la Canasta Básica de Alimentos— se da sólo como ilustración de que sigue la misma tendencia que los IPC privados, muy diferente de los del INDEC.

Los índices graficados ilustran el sorprendente hecho de que en los 5 años transcurridos desde que el INDEC comenzara a falsificar sus índices en octubre de 2007 hasta octubre de 2012 el valor de los precios al consumidor se multiplicó en realidad por un factor 3, mientras que el IPC-INDEC solo mostraba un factor 1,7. El resultado es tanto la disminución de pagos deintereses a los bonos nacionales ajustados por inflación, sino un ocultamiento de los índices de pobreza e indigencia, cuyos valores reales más que triplican los valores estimados por el INDEC (véase el artículo pobreza en Argentina).

La enciclopedia de ciencias y tecnologías en Argentina
http://cyt-ar.com.ar/cyt-ar/index.php/%C3%8Dndice_de_Precios_al_Consumidor_en_Argentina

Principales desafíos y retos para el crecimiento de las Pymes en Latinoamérica.


empre

La importancia de las empresas pequeñas y medianas (PyMEs) en las economías latinoamericanas ha sido objeto de numerosos estudios de investigación. Representan más del 90% de las empresas de la región y, en particular, se destaca la fuerte incidencia que tienen en la provisión de fuentes de trabajo, por lo que conforman la base fundamental de la estructura del tejido social.
Es por ello que –prácticamente- todos los países de la región procuran articular políticas, planes y programas que hagan foco en la competitividad y productividad de las Pymes. No obstante ello, el diferencial de productividad que existe entre las Pymes y las grandes empresas resulta ser mucho mayor en Latinoamérica que la existente en los países desarrollados.
Este fenómeno puede ser observado de dos maneras diferentes, que conforman dos caras de una misma moneda: Las Pymes latinoamericanas se ven obligadas a enfrentar un sinnúmero de dificultades y obstáculos extra, que sus congéneres de los países desarrollados no tienen que afrontar. La otra forma de verlo, es que nuestras Pymes todavía presentan un potencial de desarrollo que, si se sabe aprovechar, hará que se amplíen las oportunidades de crecimiento para toda la región.

SUPERANDO OBSTÁCULOS + DETECTANDO OPORTUNIDADES Y AMENAZAS.

Los principales obstáculos para el crecimiento de las Pymes en la región son: el acceso al financiamiento a mediano y largo plazo, las regulaciones a la actividad económica, el costo de la energía y el costo creciente del m2 en las grandes urbes. Pero, sin lugar a dudas, la mayor preocupación radica en la capacidad para conseguir y retener a empleados cualificados, a un costo competitivo.
Los empresarios latinoamericanos coinciden en que el factor a desarrollar de mayor competitividad en la región se encuentra en la profesionalización de los recursos humanos, y no se equivocan: los grandes capitales de inversión en América Latina se han radicado en los países en los que existe la mejor calidad de mano de obra.
La principal barrera que tienen las PyMEs a nivel Latinoamérica es la de poder contar con personal calificado, capacitado e idóneo. Las Pymes pierden estos recursos en manos de empresas más grandes, que cuentan con más posibilidades de otorgar mayores salarios y beneficios.
En segundo tema que más preocupa a los empresarios es la falta de oportunidades de financiamiento a un costo competitivo, por lo que monitorear diariamente y con precisión el cash-flow y el capital de trabajo se torna una cuestión de supervivencia. Cuando los clientes solicitan comprar a crédito y con plazos más largos, las empresas incursionan en problemas financieros debido a la falta de liquidez. Operar con un reducido volumen de negocios los obliga a comprar a precios relativamente altos y a vender -con escaso margen- a precios relativamente bajos. Como consecuencia de ello, se ven en la imposibilidad de acumular excedentes reinvertibles, por lo que en la mayoría de los casos, reproducen precariamente sus existencias, remunerando de la misma manera a sus trabajadores. Podemos observar entonces que todos estos factores es encuentran íntimamente interrelacionados y que todos ellos atentan contra su crecimiento.
Asimismo, la inestabilidad política, sumado a la falta de reglas de juego claras por parte de los principales actores económicos, dificultan la formulación de planes a mediano y largo plazo en las empresas y esto afecta severamente las decisiones de inversión.

py2
Por otra parte, el exceso de regulaciones a la actividad económica, las trabas burocráticas, la asfixiante presión tributaria, una legislación laboral todavía deficiente, la corrupción, el retraso en la adecuación de la infraestructura y las prácticas de las empresas del denominado “sector informal” (léase: competencia desleal) completan el panorama.
Las Pymes tienen un importante potencial para desarrollar su competitividad.
Sólo el 30% de las empresas familiares sobreviven el traspaso a la segunda generación y apenas el 15% logra pasar a la tercera generación. La mayor parte de los modelos de negocio tradicionales de las pymes están en franco retroceso, debido principalmente a los cambios de paradigmas que impulsan la globalización y el avance de las tecnologías de la comunicación/información.
Para incrementar entonces la competitividad de las pymes, resulta imprescindible contemplar dos aspectos claves del cambio: disponer de fuerza laboral calificada y adoptar tecnologías de la información.
A diferencia de las grandes empresas, que poseen mayoritariamente cuadros profesionalizados, la incorporación de herramientas y tecnologías de Business Intelligence en las Pymes resulta -a todas luces- un territorio prácticamente inexplorado para la gran mayoría de las empresas (y un excelente nicho de consultoría para incursionar). Pareciera que existe la creencia generalizada de que estas prácticas sólo corresponden a las grandes empresas o que están reservadas a entornos altamente profesionalizados. Cualquier empresario pyme -medianamente informado- conoce las bondades de estas herramientas y desearía -sin lugar a dudas- implementarlas en su empresa, pero por algún motivo, lo posterga por las que considera otras prioridades, tal vez, porque lo estima tan inalcanzable -en costo y complejidad- como lo sería instalar un sistema SAP. Lejos de este prejuicio, la realidad indica que en la era de la híper-conectividad y de la transferencia de información, prácticamente cualquier tipo de conocimiento se encuentra al alcance de quien posea la inquietud necesaria, por lo que cualquier Ceo de una Pyme, con habilidades para el bootstrapping, puede aplicarlas en su empresa.
La nube o la tecnología Cloud Computing ha hecho posible, entre muchos otros méritos, que la Inteligencia de negocios o Business Intelligence (BI), anteriormente arma únicamente disponible en el arsenal de las grandes empresas por ser muy cara y compleja, pueda ser una herramienta accesible para las pymes. Esto es debido, principalmente, a que gracias a internet y las nuevas tecnologías, los softwares de BI Cloud Computing no necesitan inversión en hardware, ni software, ni licencias, lo que encarecía enormemente los Business Intelligence tradicionales. Por eso, hay muchas pequeñas y medianas empresas que pueden implantar su sistema de inteligencia de negocios, ya que, toda empresa, independientemente de su tamaño, precisa ser gestionada y tomar decisiones con respecto a sus ventas, compras, finanzas, etc. Además, los gastos excesivos de tener un Data Warehouse o servidor de almacenamiento de datos propios, se ahorran gracias a tenerlo en la nube, con la máxima seguridad.
Por otra parte y respecto del nivel de adopción de nuevas tecnologías, podemos decir que las Pymes recién ahora están empezando utilizar las redes sociales. Este medio les permite estar más cerca de sus clientes y proveedores y realizar campañas de ofertas. Las Pymes están descubriendo un nuevo canal para hacer negocios, en el cual se pueden poner al mismo nivel que el de una gran empresa.
El mercado latinoamericano está experimentando una curva de aprendizaje muy aguda en relación a la educación de sus consumidores, impulsado –principalmente- por el e-commerce. El consumidor se encuentra cada vez más informado y elige apartarse de la compra emocional o impulsiva, procurando adueñarse de sus propias decisiones en la web. Busca más, compara más y efectúa mejores decisiones de compra. Resulta precisamente en este medio en donde las pymes se encuentran en igualdad de condiciones de oferta respecto de las grandes empresas. Antes de la web, las grandes empresas se encontraban muy cómodas y estaban acostumbradas a gastar cuantiosas fortunas en los medios tradicionales para ahuyentar la aparición de nuevos competidores. Hoy, la web está emparejando la balanza a favor de las pymes y esto está empezando a ser un motivo de gran preocupación para los Ceos de las grandes empresas.
Asimismo, también podemos destacar que el avance de las tecnologías de la información genera un clima de negocios favorable para su apertura al comercio global, lo que le permite acceder a mercados que resultaban inimaginables años atrás. La perspectiva positiva respecto al comercio exterior ha crecido para las Pymes: están diversificando su portfolio de clientes y proveedores y esto las hace más fuertes ante un posible vaivén económico, los cuales se han tornado cíclicos en la mayoría de los países de la región.
Dentro de este contexto, Brasil (el país más influyente de la región) merece un párrafo aparte. Posee la tasa de crecimiento sostenida más fuerte y ha aumentado considerablemente su productividad en los últimos años, superando a Rusia y acercándose a países como China e India. Es el país más industrializado del bloque, seguido por México. No obstante ello, Brasil resulta ser el país de la región en donde menos se utilizan las redes sociales para potenciar el negocio, por lo que todavía presenta importantes posibilidades de desarrollo en ese aspecto.

py3

Pymes 2.0: Los nuevos empresarios del futuro

Actualmente, coexisten 2 modelos de negocios: las pymes de los rubros “tradicionales” y las denominadas Pymes 2.0
Las primeras deben coexistir en una lucha constante por la diferenciación, buscando constantemente nuevas e innovadoras formas de añadir valor o presentar nuevos servicios a sus clientes como método de diferenciación de la competencia. La mayor parte de este segmento ha efectuado, está efectuando o está por efectuar, algún tipo up-grade, en áreas tan diversas como: herramientas, instrumental y tecnologías, procesos, sistemas, ingeniería, canales de venta e-commerce, o bien se encuentran profesionalizando diversas áreas de la empresa, mediante la incorporación de nuevos recursos que introduzcan el know-how necesario. El tema radica en saber si está efectuando el up-grade correcto, en la magnitud requerida y con la velocidad necesaria. Incorporar un Custemer Service? Certificar normas de calidad? Balanced Scorecard? Web Services? Migrar a “la nube”? Móbile Services? ¿Quién guía al Ceo en estas decisiones? En el caso de las empresas familiares, este tipo de decisiones suele provocar un enfrentamiento generacional entre quienes mantienen la postura tradicional, que tantos frutos le ha dado, y la generación emergente, que defiende el cambio. A veces, la diferencia existente entre ambas posturas puede asemejarse a la que existe entre una brújula y un GPS. Más allá que este tipo de decisiones se tomen con mayor o menor atino, lo cierto es que, en su gran mayoría se toman “cuasi-intuitivamente” y no bajo el encuadre de una técnica específica de management que garantice la mejor decisión al respecto. A diferencia de los emprendedores que nos antecedieron, hoy contamos con muchas más respuestas a muchos más interrogantes que en el pasado, sin embargo, no existe igual cantidad de Ceos que se formulen las preguntas correctas para su empresa. La tendencia indica que los Ceos están recurriendo cada vez más a los servicios de consultoría especializada en pymes, para que los ayuden a realizar un diagnóstico profundo y los orienten en la elaboración de las estrategias más adecuadas para cada caso. Luego, los pasos subsiguientes (incorporar las técnicas, tecnologías y herramientas necesarias) muchas veces dependerá de la capacidad para obtener la financiación adecuada para materializar el proyecto. Si a todo esto le sumamos las dificultades propias del entorno y del mercado, el hecho de encarar este tipo de proyectos de actualización y modernización de la empresa (con la resistencia cultural que ello implica) se torna un proceso de una complejidad tal, que resultan muy pocas las empresas que logran atravesarlo sin dificultades.

py4
Como contrapartida a esta situación, existe un embrión de jóvenes entrepreneurs, recién egresados de la facultad, que salen a aventurarse en el mercado munidos de nuevos conocimientos y con un know-how más avanzado: son los creadores de una nueva e incipiente generación de pymes 2.0 que viene a dar respuesta y soluciones a nuevos paradigmas, que todavía no se encuentran plenamente instaurados en la sociedad o en los mercados, pero que ya crean tendencia.
Un ejemplo de ello lo representan las empresas de software, que realizan su start-up incorporando la más moderna tecnología, cuentan -a los sumo- con 4 personas o menos (incluido el dueño) y que, por el número de personas empleadas, bien podrían clasificarse como una microempresa, en la definición tradicional. La inversión en equipos puede no ser más de US$3.000, pero sus ventas pueden ser superiores al millón de dólares anuales. Muchas se localizan en la casa del dueño, no tienen rótulo físico (sólo electrónico) no obstante, manejan y generan uno de los capitales con mayor tasa de crecimiento en el mundo y pertenecen a la llamada “nueva economía”. Son altamente competitivas en la industria de los servicios informáticos, los videojuegos, y en el sector de software de aplicaciones.
El surgimiento de esta nueva generación de empresarios plantea otros interrogantes: ¿Qué clase de Ceos aportará la generación Y? Los Ceos de la generación X se convirtieron en self made man. Fueron testigos de la aparición del fax, las computadoras, internet, la caída del muro de Berlín y el surgimiento de la aldea global. Supieron adaptarse a todos estos cambios y demostraron una capacidad de resiliencia admirable. Como contrapartida, la generación Y no ha tenido que atravesar todos estos cambios y nacieron con la plataforma de la generación X ya asimilada, lo cual pone en duda si poseerán cualidades de “piloto de tormenta” ante una crisis. No poseen la experiencia de haberlas atravesado (con el consiguiente desarrollo de competencias que eso conlleva), pero sí han heredado el conocimiento brindado por las soluciones aportadas por la generación precedente. Considero que resulta falso plantear una antinomia entre ambas concepciones, dado que no resultan excluyentes, si no que deben contemplarse como experiencias complementarias. Como siempre, los más sabios serán los que logren combinar los aspectos más positivos y ventajosos de ambas generaciones.

py5

CONCLUSIONES

La globalización se ha convertido en un elemento clave para el crecimiento de las Pymes en América Latina. Esto trae aparejado, como conclusión lógica, que las mismas causas que actualmente se tornan en factores de éxito para algunos, se pueden convertir muy pronto en factores de fracaso para otros. Quienes posean la capacidad de reflejos para entender y adaptarse a estos cambios, desarrollando nuevas competencias en la empresa, serán los que tendrán mayores probabilidades de éxito.
La competitividad en las empresas Pyme es función directa de sus principios estratégicos, del bagaje cognoscitivo de su factor humano y de su organización. De esta conceptualización se deriva que la competitividad tiene como factores determinantes la capacidad de adecuarse constantemente a las nuevas condiciones del entorno, el cual -cada vez más- se encuentra determinado por factores tecnológicos más que por la oferta y la demanda, determinando el nivel temporal de su capacidad competitiva intrínseca.
Una empresa puede ser competitiva en el proceso de transformación y no serlo en el de distribución o tener gastos generales o financieros desproporcionados, o estar gravada por un exceso de personal, de estructura, etc.
La competitividad de las empresas Pymes reside en su capacidad para crear valor en el corto plazo. Esta creación de valor debe ampliarse a mediano plazo, lo que permitiría la permanencia de la empresa en el largo plazo.
Las mayores áreas de oportunidad están en construcción y servicios profesionales, que se brindan bajo la modalidad de outsourcing, en rubros tales como tecnología, mercadotecnia y consultoría/asesoría profesional.

• Fuente: Adrián Chiogna Publicado por Lic. Pablo S. Calderón Publicado en Management

¿ Aprender a programar en el colegio ?


a1

 La tecnología avanza a diario y cada vez son más los jóvenes y niños que tienen acceso a un computador, ya sea, en el hogar o en su establecimiento educacional. Sin embargo las metodologías de las clases de computación, así como los contenidos y conceptos informáticos parecen estar estancados en los años 90. Usar programas básicos como Word o PowerPoint, si bien son necesarios, luego de unas pocas clases ya es escaso lo que puedes seguir progresando en el conocimiento del software.

Debido a este fenómeno en Inglaterra se comenzó a replantear el currículum escolar, para que los estudiantes aprendan los conceptos básicos de la programación. Esta nueva iniciativa -que aún no tiene nombre- apunta a dar solución a un tema que es muy común en la sociedad actual, que la educación hace que los jóvenes pierdan el entusiasmo en las nuevas tecnologías y no estudien carreras relacionadas con ellas.

La nueva clase tendrá en cuenta los principios de la computación, el pensamiento sistemático, desarrollo de software y lógica, entre otras cosas, señaló el gobierno. También se planea crear una certificación enfocada en estos mismos principios básicos.

Beneficios
Lo positivo es que el aprendizaje va más allá de lo técnico, sino que se a su vez se desarrollan una serie de habilidades, como pensamiento analítico o de solución de problemas, que son requeridos en los trabajos que tienen que ver con tecnología y ciencia, pero que también se pueden aplicar en una serie de otras áreas.

El programa será desarrollado por el gobierno junto con una asociación de empresas del sector, que quieren promover el estudio de ciencias de la computación: la BBC, Cisco, Deloitte, HP, IBM, Microsoft, Procter & Gamble y otros.

http://www.secundarios.cl/estudiantes/blogs/secundarios/1011-aprender-programar-en-el-colegio.html

Blog TIC Bachillerato


 a1

   Este blog se construyo para  mis alumnos del bachillerato. de St Catherine´s Moorlands School. Muy buenos resultados.

Agradeceré   a mis colegas docentes de TIC me hagan llegar las críticas y comentarios,  que seguramente les surgirán.

   Muchas gracias

 https://empiezoinformatica.wordpress.com/

Miscelánea…


a1

Microsoft Silverlight es una estructura para aplicaciones web que agrega nuevas

funciones multimedia como la reproducción de vídeos, gráficos vectoriales,

animaciones e interactividad, en forma similar a lo que hace Adobe Flash.

Silverlight compite con Adobe Flex, JavaFX, OpenLaszlo y algunas presentaciones

de componentes AJAX. La primera versión de Silverlight fue lanzada en

septiembre de 2007 y actualmente su versión 5.0 se distribuye de forma gratuita.

a3

Microsoft SharePoint, también conocido como Microsoft SharePoint Products

and Technologies, es una plataforma de colaboración empresarial, formada por

productos y elementos de software que incluye, entre una selección cada vez

mayor de componentes, funciones de colaboración, basado en el Explorador web,

módulos de administración de proceso, módulos de búsqueda y una plataforma de

administración de documento [1].

SharePoint puede utilizarse para sitios de web host que acceda a espacios de

trabajo compartidos, almacenes de información y documentos, así como para

alojar aplicaciones definidas como los wikis y blogs. Todos los usuarios pueden

manipular los controles propietarios llamados “web parts” o interactuar con piezas

de contenido, como listas y bibliotecas de documentos.

Microsoft Share Point Designer (SPD), formalmente conocido como Microsoft

Office Share Point Designer, es un editor HTML especializado y una herramienta

para diseño web libre, para crear y modificar sitios y páginas web Microsoft

SharePoint. Es parte de la familia de productos Microsoft SharePoint,[1] pero no fue

incluido en ninguna de las suites de Microsoft Office.

SharePoint Designer y su producto hermano Microsoft Expression Web son

sucesores de Microsoft FrontPage. Mientras que Expression Web sirve como el

sucesor con todas las funciones a FrontPage, SharePoint Designer se centra en el

diseño y la personalización de los sitios web de Microsoft SharePoint.

Microsoft SkyDrive (anteriormente Windows Live SkyDrive y Windows Live

Folders) SkyDrive permite a los usuarios subir archivos de una computadora y

almacenarlos en línea (nube), y acceder a ellos desde un navegador web o su

dispositivo local. El servicio utiliza Microsoft account para controlar el acceso a los

archivos del usuario. Los archivos que se comparten públicamente no requieren

una cuenta de Microsoft account para acceder.

a4

Al crear un sitio Web en Publisher puede generar una publicación Web en forma

de archivo de Publisher (.pub). Cuando publique este sitio Web en el Web,

Publisher convierte el archivo .pub en archivos HTML filtrados (HTML filtrado: Al guardar la página Web, el formato Filtrado quita las etiquetas específicas de Microsoft Office. Si guarda el archivo en HTML filtrado y, a continuación, lo vuelve a abrir en programas Office, el texto y la apariencia general se mantendrán, pero algunas características funcionarán de otra forma.) y después exporta

estos archivos al destino que seleccione.

Para obtener los mejores resultados, debe editar el sitio Web como un archivo

.pub en Publisher. Para realizar cambios en el sitio Web, debe conservar en el

equipo local una versión actual del sitio Web en forma de archivo .pub. Si utiliza un

programa FTP (FTP: protocolo de comunicaciones que permite al usuario transferir archivos entre ubicaciones remotas de una red. Este protocolo permite a los usuarios utilizar comandos FTP, como crear listas de archivos y carpetas, para trabajar con archivos de una ubicación remota.) externo para publicar el sitio Web y necesita guardar el sitio como

archivo .html o .mhtml antes de publicarlo en el Web, también debe guardar una

versión actual como archivo .pub. Si desea realizar cambios en el sitio Web

publicado, edite este archivo .pub original y después publíquelo de nuevo en el

Web para reemplazar el sitio Web publicado con la versión actualizada.

a1

Métodos de análisis orientado al flujo de datos


metodos 

 La información se transforma como un flujo a través de un sistema basado en computadora. El sistema acepta entrada de distintas formas; aplica un hardware, software y elementos humanos para transformar la entrada en salida; y produce una salida en distintas formas. La entrada puede ser una señal de control transmitida por un transductor, una serie de números escritos por un operador humano, un paquete de información transmitido por un enlace a red, o un voluminoso archivo de datos almacenado en memoria secundaria. La transformación puede comprender una sencilla comparación lógica, un complejo algoritmo numérico, o un método de inferencia basado en regla de un sistema experto. La salida puede encender un sencillo led o producir un informe de 200 paginas. En efecto, un modelo de flujo de datos puede aplicarse a cualquier sistema basado en computadora independientemente del tamaño o complejidad.

Una técnica para representar el flujo de información a través del sistema basado en computadora se ilustra en la figura 4. La función global del sistema se representa como una transformación sencilla de la información, representada en la figura como una burbuja. Una o más entradas. Representadas como flechas con etiqueta, conducen la transformación para producir la información de salida. Puede observarse que el modelo puede aplicarse a todo el sistema o solo a un elemento de software. La clave es representar la información dada y producida por la transformación.

Leer más: http://www.monografias.com/trabajos5/desof/desof.shtml#visi#ixzz2KXRygqhl

El dominio de la información


 dominio

El dominio de la Información

Todas las aplicaciones del software pueden colectivamente llamarse procesamiento de datos. Este término contiene la clave de lo que entendemos por requerimientos del software. El software se construye para procesar datos; para transformar datos de una forma a otra; esto es, para aceptar entrada, manipularla de alguna forma y producir una salida. Este establecimiento fundamental de los objetivos es verdad tanto si construimos software por lotes para un sistema de nominas, como software empotrado en tiempo real para controlar el flujo de la gasolina de un motor de automóvil; el dominio de la información contiene tres visiones diferentes de los datos que se procesan por los programas de computadoras: 1) el flujo de información; 2) el contenido de la información y 3)la estructura de la información. Para comprender completamente el dominio de la información, deben considerarse cada una de estas tres partes.

El flujo de la información representa la manera en la que los datos cambian conforme pasan a través de un sistema. Refiriéndonos a la Figura 3, la entrada se transforma en datos intermedios y más adelante se transforma en la salida.

Leer más: http://www.monografias.com/trabajos5/desof/desof.shtml#domi#ixzz2KWKPrY3K

Proceso de desarrollo de software


analisis

El análisis de requerimientos es la tarea que plantea la asignación de software a nivel de sistema y el diseño de programas (Figura 1). El análisis de requerimientos facilita al ingeniero de sistemas especificar la función y comportamiento de los programas, indicar la interfaz con otros elementos del sistema y establecer las ligaduras de diseño que debe cumplir el programa. El análisis de requerimientos permite al ingeniero refinar la asignación de software y representar el dominio de la información que será tratada por el programa. El análisis de requerimientos de al diseñador la representación de la información y las funciones que pueden ser traducidas en datos, arquitectura y diseño procedimental. Finalmente, la especificación de requerimientos suministra al técnico y al cliente, los medios para valorar la calidad de los programas, una vez que se haya construido.

El análisis de requerimientos puede dividirse en cuatro áreas:

1.- Reconocimiento del problema

2.- Evaluación y síntesis

3.- Especificación

4.- Revisión.

Leer más: http://www.monografias.com/trabajos5/desof/desof.shtml#ana#ixzz2KVInFG1y

Leer más: http://www.monografias.com/trabajos5/desof/desof.shtml#ana#ixzz2KVIZTwI0

¿Qué puede hacer Business Intelligence? (Inteligencia de negocios) (1)


Con BI se puede:

  • generar reportes globales o por secciones
  • crear una base de datos de clientes
  • crear escenarios con respecto a una decisión
  • hacer pronósticos de ventas y devoluciones
  • compartir información entre departamentos
  • análisis multidimensionales
  • generar y procesar datos
  • cambiar la estructura de toma de decisiones
  • mejorar el servicio al cliente

Leer más: http://www.monografias.com/trabajos14/bi/bi.shtml#PUEDE#ixzz2FX1GIvEb

Variables de tipos de referencia (Referencia de C#)


Visual Studio 2012

Otras versiones

Las variables de tipos de referencia contienen referencias a los datos reales.Esta sección presenta las palabras clave siguientes utilizadas para declarar tipos de referencia:

Esta sección también presenta los siguientes tipos de referencia integrados:

Vea también


Referencia

Palabras clave de C#

Tipos de valor (Referencia de C#)

Conceptos

Guía de programación de C#

Otros recursos

Referencia de C#

Tipos (Referencia de C#)

Principio del formulario

¿Le ha resultado útil? SíNo

No es correcto

No contiene suficientes detalles

Se necesitan ejemplos de código adicionales

La traducción necesita mejoras

(Caracteres restantes: 1500)

Final del formulario

Contenido de la comunidadAgregar

Preguntas más frecuentes

© 2012 Microsoft. Reservados todos los derechos.

Términos de uso | Marcas Registradas | Privacidad| Administre su perfil | MSDN Flash en Español | Contacto | Aviso legal| Comentario del sitio Comentario del sitio

Principio del formulario

Comentario del sitio

x

Cuéntenos su experiencia…

¿La página se cargó rápidamente?

Sí No

¿Le gusta el diseño de la página?

Sí No

Cuéntenos más

Final del formulario

alt=”DCSIMG” id=”Img1″ width=”1″ height=”1″ src=”http://m.webtrends.com/dcsmgru7m99k7mqmgrhudo0k8_8c6m/njs.gif?dcsuri=/nojavascript&WT.js=No” />

href=”http://www.omniture.com” title=”Web Analytics”>

// loading…

This section introduces the following keywords used to declare reference types:

 

Las-10-mujeres-cientificas-mas-importantes-de-la-historia


 http://www.ojocientifico.com/2009/07/05/las-10-mujeres-cientificas-mas-importantes-de-la-historia

En física Albert Einstein e Isaac Newton, en química Melvin Calvin, en biología Charles Darwin, en sociología Auguste Comte, en antropología Claude Lévi-Strauss o Bronislaw Malinowski, en matemáticas Blaise Pascal, en psicología Sigmund Freud y así… Uno puede citar el nombre de incontables científicos más que importantes dentro de cada disciplina y sean sus nombres populares o no, la realidad es que generalmente, la gran mayoría son hombres.

Pero ¿qué hay de las mujeres científicas? ¿De las mujeres que a lo largo de la historia han realizado espectaculares avances en las ciencias? Cada año, las universidades forman miles y miles de futuras científicas, pero a la hora de ocupar la primera plana, lo cierto es que nuestra sociedad las relega. Por eso es que hoy te presento esta lista con las 10 mujeres científicas más importantes de la historia.

Las 10 científicas más significativas

Antes que nada, me gustaría aclarar que en esta lista simplemente colocaremos unas pocas científicas dispuestas de acuerdo a la relevancia de sus logros y sus reconocimientos, pero bien podríamos señalar muchísimas más. Dicho esto, pasemos a conocer a estas grandes señoras de las ciencias.

10. Hipatia de Alejandría

                        Hipatia de Alejandría fue la primera mujer en realizar una contribución sustancial al desarrollo de las matemáticas. Es necesario colocarla en esta lista pues fue una verdadera precursora y hasta una mártir como mujer de ciencias. Nació en el año 370 en Alejandría (Egipto) y falleció en el 416, cuando sus trabajos en filosofía, física y astronomía fueron considerados como una herejía por un amplio grupo de cristianos, quienes la asesinaron brutalmente. Desde entonces, Hipatia fue considerada casi que como una santa patrona de las ciencias y su imagen se considera un símbolo de la defensa de las ciencias, contra la irracionalidad y la estupidez de las embestidas religiosas, siempre carentes del mínimo sentido. Sin dudas, la mejor manera de comenzar esta lista.

9. Jane Goodall

Valerie Jane Morris-Goodall nació en Londres, Inglaterra, en el año 1934. Como primatóloga, estudió el uso de herramientas en chimpancés, a quienes ha dedicado el estudio de toda su vida. Jane ha realizado profundas y fructíferas investigaciones científicas sobre el comportamiento, el uso de herramientas y los modos de vida de los chimpancés. En 2003, sus trabajos fueron reconocidos por la comunidad científica con el Premio Príncipe de Asturias de Investigación Científica y Técnica.

8. Sophie Germain

Marie-Sophie Germain fue una matemática francesa que se destacó por su aporte a la teoría de números. Nació en París, Francia, en el año 1776 y falleció en 1831, dejando una amplia serie de aportes sumamente importantes sobre la teoría de la elasticidad y los números, entre otros: el de los números primos de Sophie Germain.

Lord Jim (1)


Hola amigos

Me llamo Lord Jim y es muy difícil que no me conozcan. Pero así es la vida.

Llevé una vida con mucho dolor porque no salvé a mis tripulantes en un naufragio (el Patna).  Ellos te perdonan, vos no te lo perdonás  jamás.

El Capitán Escritor Joseph Conrad me inmortalizó. Y llevó mi dolor a límites insoportables. Que pena que no me dejó en el olvido.

Renuncié a mi cargo de Oficial Mercante, y me dediqué exclusivamente como agente de  comercio (al comercio marítimo el único que entiendo) para empresas navieras.

Fui agente comercial de varias navieras, y debo haber sido bueno porque me buscaban siempre para ser su agente.

Por todo oriente. Hasta que más tarde o temprano me identificaban como Lord Jim. Entonces renunciaba y desaparecía.  Nunca volví a soportar ser yo mismo…y no aceptarse ser quién es,  es vivir en el infierno.

Después sigue la nota. No terminé.

la economía en tecnología en gestión naviera y portuaria


 

http://www.buenastareas.com/ensayos/Importancia-De-La-Economia-En-Naviera/3557116.html

Sugey Esther Castro Álvarez Importancia de la economía en tecnología en gestión naviera y portuaria Grupo TA
Después de analizar la importancia de la economía en la carrera tecnología en gestión naviera y portuaria, puedo deducir, que es fundamental en la vida del ser humano dentro de la sociedad, donde ofrece servicios con el fin de abastecer las necesidades de los entes, que necesiten   ayuda, que   en este caso es todo lo relacionado con naviera y portuaria. Es de gran utilidad los servicios, que se prestan a la sociedad, en el ámbito nacional o internacional, que transportan en los contenedores, elementos voluminosos o pesados, para llevar a un lugar determinado. Sabemos que la economía busca controlar de una forma eficaz los bienes y servicios que son utilizados en la empresa que gestiona esta labor. Otro punto de vista que es necesario para la gestión naviera y portuaria es que la empresa genere una alta tasa de productividad, teniendo en cuenta, y llevando todo sistematizado y controlado con estrategias económicas   para así cumplir de manera excelente el objetivo planeado. Ya que el dinero es la sangre de la economía, que permite cambios para los entes económicos. La mediación de la productividad es necesaria para el desarrollo de cualquier actividad económica. La determinación de indicadores de productividad juega   un papel importante en el desarrollo de esta carrera porque Señalan que los indicadores de productividad desempeñen un papel esencial en evaluación
de la producción donde   siempre va acompañada la economía para controlar estos gastos, donde pueden definir, no solamente el estado actual de los procesos sino que además son útiles para proyectar el futuro de los mismos. Durante la década, la globalización de la economía ha conducido a un crecimiento significativo del comercio mundial. Tanto el transporte especialmente,   el marítimo, como la infraestructura que lo sirve ,desempeña un papel cada vez mas importante en el comercio… [continua]

Leer Ensayo Completo

Ciclo Operativo De Las Empresas Navieras –


|http://www.buenastareas.com/ensayos/Ciclo-Operativo-De-Las-Empresas-Navieras/5267736.html

Ciclo Operativo De Las Empresas Navieras

Enviado por alexmanito, Sep 2012 | 18 Páginas (4,413 Palabras) | 45 Visitas

|

Denunciar

|

        UNIDAD V. TRANSPORTE MARITIMO.UNIDAD DE COMPETENCIA:
Describe el proceso para realizar un servicio de Transporte Marítimo de mercancías como base para la realización de análisis de diagnóstico y de mejora del sistema que deberá desarrollar en el ejercicio de su profesión, a través del estudio de sus elementos.[pic]
5.1   Unidad temática que corresponde a: “El Ciclo Operativo de las Empresas Navieras.En este capítulo se habla de la estructura típica, así como el seguimiento de las actividades y proceso que se sigue en las empresas navieras para ofrecer el servicio de carga.Algunos elementos que a continuación se definen son importantes para que el lector pueda entrar en materia de este apartado.

Empresa Naviera. Es la persona física o moral que tiene por objeto operar y explotar una o más embarcaciones de su propiedad o bajo su posesión, aún cuando ello no constituye su actividad principal.
Armador. Es el naviero o empresa naviera que se encarga de equipar, avituallar, aprovisionar, dotar de tripulación y mantener en estado de navegabilidad la embarcación con objeto de asumir su explotación y operación.
Propietario. Es la persona física o moral titular del derecho real de la propiedad de una o varias embarcaciones o artefactos navales, bajo cualquier titulo legal. El propietario o los copropietarios de la embarcación son sus armadores.
Agente Naviero. Es la persona física o moral que actúa en nombre del naviero u operador para representar a su mandante en los contratos de transporte de mercancía y de fletamento, nombrar agente naviero consignatario de buques y realizar los demás actos de comercio de su mandante le enmiende.
Agente Naviero Consignatario de Buques. Es la persona física o moral que actúa en nombre del naviero u operador con carácter de mandatario o comisionista mercantil para todos los actos y gestiones que se le encomiendan en relación a la embarcación en el puerto consignatario.
Agente… [continua]Leer Ensayo Completo

Denunciar

|

        UNIDAD V. TRANSPORTE MARITIMO.UNIDAD DE COMPETENCIA:
Describe el proceso para realizar un servicio de Transporte Marítimo de mercancías como base para la realización de análisis de diagnóstico y de mejora del sistema que deberá desarrollar en el ejercicio de su profesión, a través del estudio de sus elementos.[pic]
5.1   Unidad temática que corresponde a: “El Ciclo Operativo de las Empresas Navieras.En este capítulo se habla de la estructura típica, así como el seguimiento de las actividades y proceso que se sigue en las empresas navieras para ofrecer el servicio de carga.Algunos elementos que a continuación se definen son importantes para que el lector pueda entrar en materia de este apartado.Empresa Naviera. Es la persona física o moral que tiene por objeto operar y explotar una o más embarcaciones de su propiedad o bajo su posesión, aún cuando ello no constituye su actividad principal.
Armador. Es el naviero o empresa naviera que se encarga de equipar, avituallar, aprovisionar, dotar de tripulación y mantener en estado de navegabilidad la embarcación con objeto de asumir su explotación y operación.
Propietario. Es la persona física o moral titular del derecho real de la propiedad de una o varias embarcaciones o artefactos navales, bajo cualquier titulo legal. El propietario o los copropietarios de la embarcación son sus armadores.
Agente Naviero. Es la persona física o moral que actúa en nombre del naviero u operador para representar a su mandante en los contratos de transporte de mercancía y de fletamento, nombrar agente naviero consignatario de buques y realizar los demás actos de comercio de su mandante le enmiende.
Agente Naviero Consignatario de Buques. Es la persona física o moral que actúa en nombre del naviero u operador con carácter de mandatario o comisionista mercantil para todos los actos y gestiones que se le encomiendan en relación a la embarcación en el puerto consignatario.
Agente… [continua]Leer Ensayo Completo

With the permission of who, I hope to meet before I´ll die.


                                Don’t miss out on updates from thought leaders
Deepak Chopra MD (official)
Founder at Deepak Chopra LLC
The Conscious Lifestyle: Rising Above Routine
Routine is the most common obstacle to being conscious. For most people, there is comfort and safety in following their daily routine,..

John Nash (Una mente brillante) y la Teoría de Juegos


John Nash y la teoría de juegos

Sergio Monsalve – le agradezco la oportunidad de difundir su trabajo, tema que me apasiona

Universidad Nacional de Colombia, Bogot´a

Al profesor y acad´emico Don Jairo Charris Casta˜neda

In memoriam

Lecturas Matem´aticas

Volumen 24 (2003), p´aginas 137–149

Abstract. In the last twenty years, game theory has become

the dominant model in economic theory and has made significant

contributions to political science, biology, and international security

studies. The central role of game theory in economic theory

was recognized by the awarding of the Nobel Price in Economic

Science in 1994 to John C. Harsanyi, John F. Nash, & Reinhard

Selten. The fundamental works in game theory of John

F. Nash together with a brief exposition of them are included in

this article.

Key words and phrases. John Nash, History of Mathematics, Game

Theory

1991 Mathematics Subject Classification. Primary 01A70. Secondary

91A12.

Resumen. En los ´ultimos veinte a˜nos, la teor´ıa de juegos se ha

convertido en el modelo dominante en la teor´ıa econ´omica y ha

contribuido significativamente a la ciencia pol´ıtica, a la biolog´ıa

y a estudios de seguridad nacional. El papel central de la teor´ıa

de juegos en teor´ıa econ´omica fue reconocido con el premio Nobel

en Econom´ıa otorgado a John C. Harsanyi, John F. Nash &

Reinhard Selten en 1994. Se presentan los aportes de John

Nash a la teor´ıa de juegos conjuntamente con una exposici´on

elemental de ellos.

138 SERGIO MONSALVE

1. Introduction

La Real Academia Sueca para las Ciencias le otorg´o el premio Nobel

en Ciencias Econ´omiacs del a˜no 1994 a los economistas John C. Harsanyi,

Reinhard Selten y al matem´atico John F. Nash, debido a su

“an´alisis pionero de equilibrios en la teor´ıa de juegos no cooperativos”.

La Academia justifica este premio en econom´ıa a tres de los “grandes”

en teor´ıa de juegos con el argumento de que esta ha probado ser muy ´util

en el an´alisis econ´omico. 60 a˜nos despu´es de la publicaci´on de la obra

pionera de John von Neumann y Oskar Morgenstern (Theory of

Games and Economic Behavior (1944)), la teor´ıa de juegos hab´ıa recibido

el merecido reconocimiento como herramienta fundamental del

an´alisis econ´omico moderno y el aporte de John Nash fue fundamental.

2. ¿Qu´e es la teor´ıa de juegos?

La teor´ıa de juegos (o teor´ıa de las decisiones interactivas es el estudio

del comportamiento estrat´egico cuando dos o m´as individuos interact´uan

y cada decisi´on individual resulta de lo que ´el (o ella) espera que los

otros hagan. Es decir, qu´e debemos esperar que suceda a partir de las

interacciones entre individuos.

3. ¿Con qu´e estructuras estudiamos la teor´ıa de juegos?

Existen, fundamentalmente, dos formas distintas de aproximarnos al

an´alisis de una situaci´on de interacciones entre individuos

I) La primera (que es quiz´as la dominante dentro del ambiente de

los economistas) es la teor´ıa de juegos no cooperativos, en la que, b´asicamente,

tenemos un conjunto de jugadores, cada uno con estrategias

a su disposici´on, y unas asignaciones de pagos que reciben por llevar

a cabo tales estrategias. La caracter´ıstica “no cooperativa” est´a en la

manera de c´omo eligen y en lo que saben de los otros jugadores cuando

JOHN NASH Y LA TEOR´IA DE JUEGOS 139

eligen: en general, se supone que los individuos toman sus decisiones

independientemente unos de otros aunque conociendo sus oponentes y

las posibles estrategias que estos tienen a su disposici´on. Es decir, son

individuos ego´ıstas pero que tratan de predecir lo que los otros agentes

har´an para obrar entonces en conveniencia propia. En esta estructura

de an´alisis los agentes no alcanzan ning´un nivel de cooperaci´on.

Nada mejor que un ejemplo bien ilustrativo del modus operandi de este

tipo de modelos. Y quiz´as el m´as elocuente de los juegos no-cooperativos

elementales es el dilema del prisionero. La historia de este juego va como

sigue: dos individuos son detenidos debido a que cometieron cierto

delito. Ambos son separados en celdas diferentes y son interrogados individualmente.

Ambos tienen dos alternativas: cooperar uno con otro

(no-confesar) o no cooperar (confesar el delito). Ellos saben que si ninguno

confiesa, cada uno ir´a a prisi´on por dos a˜nos. Pero si uno de los

dos confiesa y el otro no, entonces al que confiesa lo dejar´an libre y al

que no confiesa lo condenar´an a 10 a˜nos. Si ambos confiesan, los dos

ir´an a prisi´on por 6 a˜nos. La situaci´on se resume en la siguiente bimatriz

(es decir, una matriz cuyos elementos son parejas n´umeros):

Prisionero 1

C NC

C (2,2) (10, 0)

Prisionero 2

NC (0,10) (6,6)

C = cooperar (no confesar), NC = cooperar(confesar)

La pregunta natural es: ¿qu´e har´an los detenidos? ¿cooperar´an entre

s´ı (no confesar´an) o se traicionar´an el uno al otro (confesar´an)? Alguien

desprevenido que est´e observando este juego podr´ıa pensar que

los dos jugadores cooperar´ıan (no confesar´an) puesto que en ese caso

ambos obtendr´ıan el menor castigo posible. Sin embargo, la estructura

no cooperativa del problema hace que este arreglo no sea cre´ıble: si se

pactara la no-confesi´on por parte de los dos, ambos tendr´ıan incentivos

particulares para romperlo, pues dejando al otro en cumplimiento del

140 SERGIO MONSALVE

pacto de no confesar y ´este confesando, el que rompe el pacto obtiene

la libertad mientras al otro lo condenar´an a 10 a˜nos. Y, similarmente,

estudiando las otras tres posibilidades del juego (es decir, (C,NC),

(NC,NC), (NC,C)) observamos que el ´unico acuerdo cre´ıble (que significa

que ninguno de los dos querr´ıa romper el pacto unilateralmente

porque perder´ıa) es (NC,NC). En definitiva, la predicci´on de lo que

ocurrir´a en el juego es que ambos confesar´an y permanecer´an en la carcel

6 a˜nos.

La conclusi´on en situaciones similares a ´esta (que son comunes en la

vida diaria) es que la competencia ego´ısta puede conducir a estados que

son inferiores (en t´erminos de beneficio personal y social) a los estados

cooperativos, pero que estos ´ultimos no podr´an implementarse a menos

que existan reforzmientos externos (contratos firmados por ley, con verificaci

´on, etc.) que obliguen a las partes a cumplir con el acuerdo de

cooperaci´on.

Esta es la idea esencial de Nash al definir el concepto de equilibrio de

Nash en su tesis doctoral en Matem´aticas en la Universidad de Princeton

(Non-cooperative Games (1950)): un equilibrio de Nash de un juego es un

acuerdo que ninguna de las partes puede romper a discreci´on sin perder.

Es decir, si alguien quiere romper el pacto y lo hace unilateralmente, se

arriesga a ganar por debajo de lo que hubiese ganado dentro del pacto.

Sin embargo, como queda claro en el juego del dilema del prisionero,

esto puede no ser lo mejor socialmente para los jugadores.

Uno de los resultados que hacen del equilibrio de Nash un punto

de referencia para casi todo an´alisis en el que las interacciones entre

individuos est´en involucradas es que

todo juego finito (es decir, finitos jugadores y finitas estrategias

de cada jugador) tiene al menos un equilibrio

de Nash, aunque involucre ciertas probabilidades objetivas

de juego de las estrategias por parte de los jugadores.

Este resultado es del mismo Nash. En un art´ıculo previo a su tesis

de doctorado, y publicado tambi´en en 1950 (Equilibrium points in

nperson games) ´el prueba, utilizando un teorema de punto fijo (el conocido

teorema de punto fijo de Brouwer), que un equilibrio de Nash es

JOHN NASH Y LA TEOR´IA DE JUEGOS 141

un “punto fijo”: las expectativas de los gentes con respecto a lo que los

dem´as har´an, coinciden, todas, en el equilibrio de Nash.

II) La segunda estructura fundamental para el estudio de la teor´ıa

de juegos para desde all´ı predecir resultados de la interacci´on, es la

teor´ıa de juegos cooperativos o coalicionales. Aqu´ı todav´ıa tenemos los

mismos agentes ego´ıstas, pero ahora se asume que, si pueden obtener

alg´un beneficio de la cooperaci´on, no dudar´an en formar coaliciones que

son cre´ıbles. Por supuesto, bajo una estructura como la de juegos no

cooperativos, un acuerdo de cooperaci´on puede no ser la “soluci´on”,

de manera que los agentes deben tener una estructura de informaci´on

diferente si queremos un comportamiento acorde.

En una estructura cooperativa tenemos el mismo conjunto de jugadores

ego´ıstas, solo que ahora tienen informaci´on sobre cierta valoraci´on

a priori de las coaliciones. Es decir, se reconoce cu´ales coaliciones son

las m´as “valiosas” y cu´ales las “menos valiosas”. Para concretar ideas,

vamos a presentar un modelo que muestra bien el poder predictivo que

puede tener este tipo de estructura y las soluciones asociadas. El modelo

del peque˜no mercado muestra una estructura de mercado en la que

hay un vendedor (jugador 1) de cierto bien que no podemos dividir en

partes (pi´ensese, por ejemplo, en un autom´ovil como bien de uso), y dos

compradores (jugador 2 y jugador 3) que desean comprar ese bien. Las

valoraciones que a priori se le asignan a las coaliciones ser´an, en este

caso, un reflejo del ´exito o fracaso de la negociaci´on entre el vendedor

y el comprador dependiendo de c´omo se emparejen, y no una predicci

´on sobre qui´en de los dos obtendr´a el bien (este problema tiene otra

valoraci´on). En este caso, asignamos la valoraci´on a todas las posibles

coaliciones de la siguiente forma:

V ({1, 2, 3}) = V ({1, 2}) = V ({1, 3}) = 1

(“si hay vendedor y comprador, el negocio se lleva a cabo”)

V ({1}) = V ({2}) = V ({2, 3}) = 0

(“si solo hay compradores o vendedor, no se realiza el negocio”)

Existen varias “soluciones” a ese tipo de juegos en forma cooperativa.

Por supuesto, una “soluci´on” debe significar una repartici´on de la riqueza

142 SERGIO MONSALVE

o valoraci´on total de todo el grupo de jugadores como gran coalici´on, de

tal manera que a cada jugador le corresponda su “aporte” a ella. C´omo

determinar el nivel de este aporte es algo que analizamos con las dos

m´as importantes soluciones a juegos cooperativos: el n´ucleo y el valor

de Shapley.

a) El n´ucleo del juego cooperativo (Gillies (1953))

La idea de repartici´on detr´as de la soluci´on de n´ucleo es que si esta le

asigna x1 al vendedor, x2 al comprador-jugador 2, y x3 al compradorjugador

3, entonces debemos, por lo menos, tener que:

x1 + x2 + x3 = 1 (eficiencia) (i)

(los tres agentes se reparten el “poder” del mercado que est´a, a priori,

en la uni´on de los tres).

V ({1, 2}) x1 + x2,

V ({1, 3}) x1 + x3,

V ({2, 3}) x2 + x3,

V ({1}) x1,

V ({2}) x2,

V ({3}) x3

(ii)

(“lo que los agentes reciben a trav´es de la asignaci´on de n´ucleo es mejor

que lo que recibir´ıan antes de la asignaci´on a priori V , y esto sucede en

cualquier coalici´on que formen”).

Obs´ervese que la asignaci´on de n´ucleo es un acuerdo muy b´asico. Es

una “invitaci´on” a formar coaliciones: si usted forma alguna coalici´on

ganar´a m´as de lo que gana en cualquier coalici´on del status quo determinado

por la asignaci´on a priori V .

Un poco de aritm´etica nos muestra que la ´unica asignaci´on de n´ucleo

en nuestro peque˜no mercado es x1 = 1, x2 = x3 = 0. En otras palabras, el

n´ucleo est´a pronosticando que la importancia total del mercado la tiene

el vendedor y que los compradores no tienen niguna. Pobre predicci´on:

no existe casi ning´un mercado en el que los compradores no tengan

ninguna importancia estrat´egica.

JOHN NASH Y LA TEOR´IA DE JUEGOS 143

b) El valor de Shapley del juego cooperativo (Shapley (1953)

Otra forma de distribuci´on con consideraciones m´as sut´ıles que las de

n´ucleo, es el valor de Shapley. Podr´ıa decirse que el valor de Shapley es

a los juegos cooperativos, lo que el equilibrio de Nash es a los juegos no

cooperativos.

Como ya hab´ıamos descrito con el ejemplo anterior, un juego cooperativo

consiste en un conjunto de jugadores N (_= N = n) y una asignaci´on

monetaria V (S) para cada subcoalici´on S N. El problema que se intenta

resolver es: ¿C´omo distribuir la riqueza total V (N) entre todos

los participantes? El valor de Shapley busca solucionarlo imponiendo

ciertas condiciones a la distribuci´on:

Si xi, i N, es la asignaci´on que recibir´ıa en la distribuci´on de Shapley

el jugador i, entonces

a) (Eficiencia)

x1 + x2 + …xn = V (N)

b) (Jugador “dummy” o fantasma) Si para alg´un i N, V (S {I}) =

V (S) para toda coalici´on S, entonces xi = 0

c) (Simetr´ıa) Si las valoraciones de las coaliciones no cambian cuando

se reemplaza un jugador por cualquier otro, entonces, todos reciben

lo mismo. Es decir, x1 = = xn.

d) (Aditividad) Si V y W son dos valoraciones distintas sobre el mismo

conjunto N de jugadores, entonces la asignaci´on de cualquier

jugador para la valoraci´on V y para la valoraci´on W es aditiva. Es

decir, para todo i N, xi (V +W) = xi(V ) + xi (W)

Solo el valor de Shapley satisface estas cuatro condicions. Y m´as

a´un, existe una f´ormula expl´ıcita sobre c´omo calcularlo, basada en las

“contribuciones marginales” (es decir, una medida de cu´anto un jugador

le aporta a las coaliciones en donde est´a):

xi =

_r_ i (Si (r)))

n!

()

donde _ es el conjunto de los n! ´ordenes de N, Si (r) = conjunto de

jugadores que preceden a i en el orden r, Δi (S) = V (S {i})_V (S) =

contribuci´on marginal del agente i a la coalici´on S.

144 SERGIO MONSALVE

Como un ejemplo de la “mejor” distribuci´on total de la riqueza del

juego entre los participantes que el valor de Shapley realiza, es f´acil

calcular (con la f´ormula (*) de arriba) que en el juego del Peque˜no

Mercado que analiz´abamos antes, el valor de Shapley es

x1 = 2/3, x2 = 1/6, x3 = 1/6.

A diferencia del n´ucleo, cuya asignaci´on es (1, 0, 0), el valor de Shapley

s´ı est´a asign´andole importancia a los compradores, aunque reconoce un

poder mayor al vendedor.

IIa) Una muy importante categor´ıa en el estudio de la teor´ıa de juegos

cl´asica es, realmente, una subdivisi´on de la teor´ıa de juegos cooperativos:

los modelos de negociaci´on. En estos juegos, dos o m´as jugadores

buscan ganar a trav´es de la cooperaci´on, pero deben negociar el procedimiento

y la forma en que se dividir´an las ganancias de esta cooperaci´on.

Un modelo de negociaci´on espec´ıfica: c´omo y cu´ando se alcanzan los

acuerdos y c´omo se dividir´an las ganancias, dependiendo de las reglas

de negociaci´on y de las caracter´ısticas de los negociadores.

John Nash realiz´o contribuciones fundacionales a la teor´ıa de juegos

de negociaci´on. En su art´ıculo de 1950, The bargaining problem, se

aparta radicalmente de la teor´ıa econ´omica ortodoxa que consideraba indeterminados

los problemas de negociaci´on. En contraste, Nash asume

que la negociaci´on entre agentes racionales conduce a un ´unico reultado,

y lo determina imponi´endole al modelo ciertas “propiedades deseables”.

La formulaci´on de Nash del problema de negociaci´on y su soluci´on (la

soluci´on de negociaci´on de Nash) constituyen el fundamento de la teor´ıa

moderna de la negociaci´on.

Para aclarar un tanto lo dicho arriba con una versi´on muy elemental

del problema de negociaci´on de Nash, supongamos que tenemos dos jugadores

ego´ıstas que buscan dividirse una cantidad de dinero M y que

no est´an de acuerdo en que los dos no obtengan nada de la negociaci´on,

pero que si no llegan aun acuerdo, entonces s´ı les corresponder´a “irse

con las manos vac´ıas”. John Nash mostr´o que bajo ciertas condiciones

plausibles, los dos jugadores acordar´ıan la repartici´on (x1, x2) que

maximiza, en este caso, el producto de las dos. Es decir, resuelven

M´ax x1x2, sujeto a la condici´on x1 + x2 = M.

JOHN NASH Y LA TEOR´IA DE JUEGOS 145

La soluci´on a esto es, como se ve f´acilmente, (x1)= (x2)= 1

2M. Esta

es la soluci´on de negociaci´on de Nash a este simple problema: distribuci

´on equitativa de la cantidad de dinero disponible. Esta soluci´on se

ilustra en el diagrama de abajo. Por supuesto, problemas de negociaci´on

m´as complicados dan or´ıgen a soluciones de Nash menos obvias.

grafico!!!!

Aquellas “propiedades deseables” mencionadas arriba, que satisface

la soluci´on de negociaci´on de Nash son las siguientes:

a) Eficiencia: las soluciones de negociaci´on de Nash agotan todas las

oportunidades de mejorar las ganancias de ambos jugadores.

b) Simetr´ıa: si el cambio de un jugador por otro no cambia el problema

de negociaci´on, en la soluci´on ellos deben obtener lo mismo.

c) Invarianza: la soluci´on no puede depender de las unidades arbitrarias

en las que se midan los beneficios de la negociaci´on.

d) Independencia de alternativas irrelevantes: es la hip´otesis m´as sutil.

Dice que el resultado de una negociaci´on no puede depender de

alternativas de negociaci´on que los negociadores no escogen aunque

pudieran hacerlo.

Estas cuatro hip´otesis conducen al conoocido teorema de negociaci´on

de Nash:

La soluci´on de negociaci´on de Nash es la ´unica soluci´on

que satisface las propiedades a), b), c), d) en un modelo

de negociaci´on.

3. El programa Nash: ¿Es mejor cooperaci´on que

competencia?

Nash aseguraba que la teor´ıa de juegos cooperativa y no cooperativa

eran complementarias, que cada una ayudaba a justificar y clarificar

la otra. Si una soluci´on cooperativa pod´ıa ser obtenida a partir de un

conjunto convincente de hip´otesis, esto indicaba que tambi´en pod´ıa ser

apropiada en una variedad de situaciones m´as amplia que las encontradas

en un modelo no cooperativo simple. Y de otro lado, si reformulamos

146 SERGIO MONSALVE

juegos cooperativos como no cooperativos y buscamos los equilibrios

de Nash de estos ´ultimos, la discusi´on abstracta sobre lo razonables

que puedan ser los principios o los resultados se reemplazan por una

discusi´on m´as mundana acerca de lo apropiadas que son las reglas del

juego.

El programa Nash buscaba la posibilidad de la unificaci´on te´orica, y

algunos logros ya se tienen en este sentido. Uno de ellos es el famoso

teorema de Aumann (1975) que afirma, en t´erminos elementales, y a la

vez un tanto vagos, lo siguiente:

En un grupo conformado por muchos agentes que tratan

de disputarse cierta cantidad de dinero, las distribuciones

de equilibrio de Nash, de n´ucleo, de valor de Shapley y

de negociaci´on de Nash coinciden.

Aqu´ı, la palabra “muchos” intenta capturar la idea de que cada jugador,

por s´ı mismo, tiene un poder estrat´egico pr´acticamente nulo. Solo tienen

poder, para la asignaci´on, grupos verdaderamente “grandes”, no individuos

aislados. Una implicaci´on directa de este teorema es que cuando

las interacciones individuales tienden a anularse, ¡¡la competencia y la

cooperaci´on conducen a los mismos resultados!!

Otro modelo b´asico muy importante en la direcci´on del programa

Nash es el de Rubinstein (1982) que muestra que cualquier resultado

de negociaci´on Nash entre pocos agentes, puede aproximarse mediante

equilibrios de Nash de juegos no cooperativos secuenciales. Pero, por

encima de esto, el gran impulso del programa Nash se recibi´o en 1994

en el seminario Nobel sobre el trabajo de John Nash en la Universidad

de Princeton (publicado en Les Prix Nobel 1994). Despu´es de estos,

se han obtenido resultados que involucran otros valores diferentes al de

Shapley en estructuras de juegos m´as sofisticadas que muestran que

la afirmaci´on de Shapley en el sentido de que ambas teor´ıas (cooperativa

y no cooperativa) son, no solo complemento una de otra, sino

que realmente son una sola teor´ıa vista con dos lentes diferentes, estaba

en el camino correcto (v´ease Hart & Mas Colell (1996), Hart &

Monsalve (2001)).

JOHN NASH Y LA TEOR´IA DE JUEGOS 147

5. Otras contribuciones de Nash a la teor´ıa de juegos

Se reconocen muy poco las contribuciones de John Nash a la primera

literatura en econom´ıa experimental (v´ease Roth (1993)). Entre

otras, Nash hace algunos comentarios importantes respecto a la cooperaci

´on observada cuando repetimos infinitamente el dilema del prisionero.

Adem´as, el trabajo pionero de Nash, conjuntamente con Kalish,

Milnor y Nering sobre experimentos en juegos cooperativos (Kalish

et al. (1954)) fue un importante est´ımulo para Reinhard Selten en

sus experimentos (Selten (1993)) que han conducido al florecimiento

de la escuela alemana en econom´ıa experimental.

6. Final

El par´agrafo final de los peri´odicos anunciando el premio Nobel en

Econom´ıa de 1994 dice: “a trav´es de sus contribuciones al an´alisis de

equilibrios en teor´ıa de juegos no cooperativos, los tres laureados constituyen

una combinaci´on natural: Nash dio los fundamentos para el

an´alisis, Selten los desarroll´o con respecto a la din´amica, y Harsanyi

con respecto a la informaci´on incompleta”. Esta es la unidad “natural”

de este premio. Sin embargo, n´otese que la teor´ıa de juegos cooperativos

fue completamente ignorada e, indirectamente, tambi´en los aportes de

John Nash a esta teor´ıa, incluyendo los resultados del Programa Nash.

El razonamiento de la teor´ıa de juegos es ahora el fundamento de

importantes ´areas de la teor´ıa econ´omica, y est´a r´apidamente entrando

en disciplinas aparentemente dis´ımiles como finanzas, ciencia pol´ıtica,

sociolog´ıa, derecho y biolog´ıa. Las contribuciones de John Nash (junto

con Harsanyi, Selten, Aumann & Shapley) constituyen importantes

piedras angulares en el desarrollo de la teor´ıa de juegos y en el

establecimiento de una metodolog´ıa com´un para analizar la interacci´on

estrat´egica dentro de todas las ciencias sociales, e incluso (este es el reto)

en otras ciencias.

148 SERGIO MONSALVE

Referencias

[1] Aumann, R. J. (1975) Values of markets with a continuum of traders, Econometrica

43:611–646

[2] Aumann, R. J. (1977) Game Theory. In The New Palgrave: A Dictionary

of Economics Vol. 2 ed J. Eatwell, M. Milgate, and P. Newman, 460–482.

London: Macmillan.

[3] Aumann, R. J. (1988) On the state of the art in game theory: and interviewwith

Robert Aumann, Games and Economic Behavior 24:181–210.

[4] Gillies, D. B. (1953) Some theorems on nperson games. Ph. D. Dissertation,

Department of Mathematics, Princeton University.

[5] Hart, S. & Mas Colell, A. (1996) Bargaining and Value, Econometrica

64: 357–380.

[6] Hart, S. & Monsalve, S. (2001) The Asymptotic approach of the Maschler-

Owen values Journal of Game Theory (forthcoming).

[7] Kalish, G. K., Milnor, J. W., Nash, J. F., Nering, E. D. (1954) Some

experimental n person games, Cap´ıtulo 21: 301–327 En: Thrall R. M.,

Coombs, C. H., Davids, R. L. (eds) Decision Processes. Wiley, New York.

[8] Mayberry, J. P., Nash, J. F. y Shubik, M. (1953) A comparison of

treatments of a duopoly situation, Econometrica 21:141–155.

[9] Monsalve, S. (1999) Introducci´on a los conceptos de equilibrio en econom´ıa.

Editorial Unibiblos, Santaf´e de Bogot´a.

[10] Monsalve, S. (2002) Teor´ıa de Juegos: ¿Hacia d´onde vamos? (60 a˜nos

despu´es de von Neumann y Morgenstern) Revista de Econom´ıa, Institucional

No. 7 Universidad Externado de Colombia, Bogot´a (Pr´oxima Publicaci´on).

[11] Myerson, R. (1991). Game Theory: Analysis of Conflict. Cambridge, MA:

Harvard University Press.

[12] Nash, J. F. (1950) Equilibrium points in n person games, Procedings from

the National Academy of Sciences, USA 36:48–49.

[13] Nash, J. F. (1950) The Bargaining Problem, Econometrica 18:155–162.

[14] Nash, J. F. (1950) Non cooperative Games, Ph. D. Dissertation Princeton

University.

[15] Nash, J. F. (1953) Two person cooperative games, Econometrica 21:128–

140.

[16] Roth, A. (1993) The Early history of experimental economics, Journal of

History of Economic Thought 15: 184–209.

[17] Rubinstein, A. (1982) Perfect equilibrium in a bargaining model, Econometrica

50:97–109

[18] Selten, R. (1993) In search of a a better understanding of economic behavior.

En : Heertje A. (ed.) The Makers of modern economics I:115–139.

Harvester Wheatsheaf Hertfordshire.

JOHN NASH Y LA TEOR´IA DE JUEGOS 149

[19] Shapley, L. S. (1953) A value for n-person games. En: Contributions to

the Theory of Games, vol 2, H. W. Kuhn y A. W. Tucker, eds.

20] Von Neumann, J. & Morgenstern, O. (1944) Theory of Games and

Economic Behavior. Princeton, NJ: Princeton University Press.

(Recibido en junio de 2002; la versi´on revisada agosto de 2003)

Sergio Monsalve

e-mail: email: monsalvesergio@yahoo.com

Departamento de Matem´aticas, Universidad Nacional de Colombia

Bogot´a, Colombia

Formar un Grupo de Estudio – 3


El concepto de Grupo de Estudios, a mi entender, no consiste en un Teacher que le explica las lecciones a los alumnos.

Todos prepararan algún tema, y lo expondrán al resto. Construcción social del conocimiento. Todos somo pares.

Intenté con el e learning, pero después de una presentación me da fiaquita y abandono. Es mi problema.

Pienso en grupos de 7 / 8 pendex que quieran acceder a una flor de tecnología.

¿ no me digan que no pueden agenciarse 3 Hs semanales para dedicarselo al tema ?

Formar un Grupo de Estudio – 2


 

En caso de no tener resultados con esta convocatoria nacional y popular ( nadie es Profeta en su tierra), les pongo en conocimiento que las autoridades de Fucklands Islands me ofrecieron un cargo de profesor TIC porque no disponen y además porque hay muy pocos hombres disponibles para la cantidad de señoras solas. Mi destino está en sus manos.

Formar un Grupo de Estudio


Convoco a estudiantes de Económicas e Ingeniería para formar un Grupo de Estudio, para exprimir a fondo a MS OFFICE 2010, con todos los chiches. Silverlight, Sharepoint, la Nube, Smartphones. La diferencia con las versiones anteriores es abismal.

No estará dirigido a especialistas en Informática sino a profesionales que quieran utilizar plenamente las herramientas tecnológicas.

No reuniríamos un vez por semana (por Callao y Corrientes) para trabajar en equipo, unas tres horas (horario a concensuar)

Requisito: traer un equipo portable con el software, Windows 7 Starter para arriba y las herramientas que se bajan gratuitamente de Visual Studio.

Serán convidados con mate y gaseosas (alcohol, nones).

Los interesados mandenme un mail a carlosfmur@hotmail.com

www.empiezoinformatica.wordpress.com

El lema del Grupo deberá ser ” No somos machos pero somos muchos”

“Serás lo que debas ser y si no, no serás nada” – Gral José de San Martín

 

 

Conceptos básicos de Red Neuronal Artificial (RNA)


ftp://ftp.mug.org.ar

Las redes de neuronas artificiales (denominadas habitualmente como RNA o en inglés como: “ANN”1 ) son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas en una red que colabora para producir un estímulo de salida. En inteligencia artificial es frecuente referirse a ellas como redes de neuronas o redes neuronales.

Diseño y programación de una RNA (red neuronal artificial)

Con un paradigma convencional de programación en ingeniería del software, el objetivo del programador es modelar matemáticamente (con distintos grados de formalismo) el problema en cuestión y posteriormente formular una solución (programa) mediante un algoritmo codificado que tenga una serie de propiedades que permitan resolver dicho problema. En contraposición, la aproximación basada en las RNA parte de un conjunto de datos de entrada suficientemente significativo y el objetivo es conseguir que la red aprenda automáticamente las propiedades deseadas. En este sentido, el diseño de la red tiene menos que ver con cuestiones como los flujos de datos y la detección de condiciones, y más que ver con cuestiones tales como la selección del modelo de red, la de las variables a incorporar y el preprocesamiento de la información que formará el conjunto de entrenamiento. Asimismo, el proceso por el que los parámetros de la red se adecuan a la resolución de cada problema no se denomina genéricamente programación sino que se suele denominar entrenamiento neuronal.

Por ejemplo en una red que se va a aplicar al diagnóstico de imágenes médicas; durante la fase de entrenamiento el sistema recibe imágenes de tejidos que se sabe son cancerígenos y tejidos que se sabe son sanos, así como las respectivas clasificaciones de dichas imágenes. Si el entrenamiento es el adecuado, una vez concluido, el sistema podrá recibir imágenes de tejidos no clasificados y obtener su clasificación sano/no sano con un buen grado de seguridad. Las variables de entrada pueden ser desde los puntos individuales de cada imagen hasta un vector de características de las mismas que se puedan incorporar al sistema (por ejemplo, procedencia anatómica del tejido de la imagen o la edad del paciente al que se le extrajo la muestra).

Consigna: Ingrese al link   http://es.wikipedia.org/wiki/Red_neuronal_artificial y en Propiedades lea cuales son las unidades que componen la RNA y que funciones componen sus salidas. Ingreselo como comentario.

Vista gráfica funciones trigonométricas


Haga click en la imágen de arriba para ampliarla

__________________________________________________

Definiciones respecto de un triángulo rectángulo

Para definir las funciones trigonométricas del ángulo: α, del vértice A, se parte de un triángulo rectángulo arbitrario que contiene a este ángulo. El nombre de los lados de este triángulo rectángulo que se usará en los sucesivo será:

  • La hipotenusa (h) es el lado opuesto al ángulo recto, o lado de mayor longitud del triángulo rectángulo.
  • El cateto opuesto (a) es el lado opuesto al ángulo que nos interesa.

El cateto adyacente (b) es el lado adyacente al ángulo del que queremos determinar

Haga click en la imágen para ampliarla:

               sen  α =  a/h                             cos α = b/h

La trigonometría posee numerosas aplicaciones: las técnicas de triangulación, por ejemplo, son usadas en astronomía para medir distancias a estrellas próximas, en la medición de distancias entre puntos geográficos, y en sistemas de navegación por satélites.

En su carpeta de usuarios cree un documento word con el nombre trigonometría.doc Investigue en la web que otros usos se la da a la trigonometría en el mundo real.

El número de oro…


El número áureo o de oro (también llamado razón extrema y media, razón áurea, razón dorada, media áurea, proporción áurea y divina proporción) representado por la letra griega φ (fi) en honor al escultor griego Fidias, es un número irracional.

Puede hallarse en elementos geométricos, en las nervaduras de las hojas de algunos árboles, en el grosor de las ramas, en el caparazón de un caracol, en los flósculos de los girasoles, etc.

Asimismo, se atribuye un carácter estético a los objetos cuyas medidas guardan la proporción áurea. Algunos incluso creen que posee una importancia mística.

En 1509 el matemático y teólogo Luca Pacioli publica su libro De Divina Proportione (La Divina Proporción), en el que plantea cinco razones por las que estima apropiado considerar divino al Número áureo.

http://www.portalplanetasedna.com.ar

Averiguar y comentar cual es el valor aproximado del número áureo…¿es un número finito?. ¿ Para que fue usado en la historia de la humanidad ?