El Sistema Operativo (SO), es lo que hace pensar al ordenador. Si nos queremos meter un poco más de forma técnica, podemos decir en un ordenador se ejecutan programas. Estos programas se dividen en dos apartados:
Software Básico
Software de Aplicación
El SO constituye la parte más importante del Software Básico y las funciones más importantes se pueden clasificar en dos grandes secciones.
Definición y realización de una máquina virtual
Gestión y distribución compartida de los recursos
A lo largo de la historia, han aparecido diferentes SSOO que, en cada momento, se encargaban de recoger las características punteras de lo que se descubría en el mundo de la informática. Hoy en día, sin ir más lejos, se están desarrollando potentes SSOO basados en la Programación Basada en Objetos (POO), que, dicho sea de paso ha sido la última evolución de la informática, hace ya casi 10 años.
Lo primero es hacer constar que, lo que nos venden hoy en día como "moderno", es casi seguro que ya se utilizaba desde hace muchísimo tiempo en otros SSOO. El concepto de Sistema Operativo, no es ni mucho menos nuevo. Los primeros SSOO aparecieron a finales de los años 50; al comienzo de la informática. Al principio, los primeros SSOO eran monousuario y monotarea, algo así como el DOS. Pero con la direferencia de que se gobernaba con tarjetas perforadoras en vez de Diskettes.
Pronto empezaron a surgir nuevos conceptos y tras la malgama de SSOO que aparecieron, surgió uno de entre ellos, en el que estaban mezcladas todas las filosofías que hasta entonces se había descubierto en este mundo de la informática. Este SO se denominó Multics, son mediados de los años 60. Poco tiempo despues, se dieron cuenta los diseñadores de este SO que era enfarragoso y muy difícil de administrar, así pues se cogió la esencia misma del SO y el mismo equipo que diseñó el Multics, se puso manos a la obra y a finales de los 60 sacan la primera versión de un SO que revolucionaría la informática; el Unix.
El Unix es hoy en dia, casi 30 años despues de su primera versión, para mucha gente que se dedica al mundo de los ordenadores, el único SO de redes real. De hecho es el que se maneja en las administraciones y redes con grandes ordenadores. Se caracterizó en aquel entonces por ser un SO que incorporaba dos conceptos totalmente nuevos, la multitarea y acceso multiusuario; y durante mucho tiempo fue el único SO que se utilizó en las redes.
Este panorama se siguió durante unos cuantos años, entre los cuales, en el mundo de los SSOO se iban sacando a la luz nuevas conceptos y todos ellos emanaban del Unix. Uno de esos conceptos era la Memoria Virtual, tan ampliamente utilizada en los SSOO modernos.
Dando un gran salto en el tiempo nos vamos a finales de los años 70. Por aquel entonces una casa de ordenadores sacó el primer ordenador personal, o al menos, como se le conoce hoy en día, esa casa fue Apple. El éxito fue tal que en seguida otras casas empezaron a desarrollar ordenadores personales, entre ellas emergió IBM. Cada una de esas casas diseñó una serie de SSOO para sus máquinas; Apple el Mac OS, IBM el CP/M, que pronto fue sustituido por un SO que diseñó un jovencísimo Bill Gates y sus colegas, el DOS. Ambos SSOO para su época fueron revolucionarios ya que el DOS intentaba coger el manejo de archivos del Unix pero limitando la potencia del Unix a un sólo usuario. Por contra, el Mac OS diseñaba un SO totalmente nuevo basado en una Interfaz Gráfica. Algo que rompió la tendencia de los SSOO que se diseñaron hasta entonces.
Mientras IBM optó por compartir sus licencias a todo fabricante, Apple no lo hizo. Esto fue la base del mercado de los PCs que conocemos hoy en día. Una arquitectura basada en la conectividad de fabricantes; PC y compatibles, y una arquitectura totalmente particular como son los Apple.
Siguieron pasando los años y a mediados de los 80 surgió, de la alianza Microsoft-IBM un SO que en principio sería destinado a sustituir elDOS, ese Sistema fue el OS/2. Este sistema aprovechaba las nuevas características de los PCs de entonces e introdujo un concepto nuevo al DOS, la multitarea. Poco tiempo despues se produjo una ruptura sonada, el duo Microsoft-IBM se rompía. Por un lado IBM seguiría con elOS/2, por otro lado Microsoft desarrolló un programa basado en el caracter intuitivo del interfaz gráfico del Macintosh, Windows. Este programa, que en principio fue catalogado como el juguete de los niños ricos, ya que imperaba el DOS sobre el PC, en poco tiempo se convirtió en el programa más vendido para PCs.
En principio no fue nada más que una aplicación que necesitaba del DOS, pero el tiempo y los usuarios demandaron que se convirtiera a un SO completo. Tras varios años en los que MS veía como subía su prestigio en el mercado de los PCs hasta cotas casi impensables 10 años antes (el 80% de los SSOO que se utilizan en el mundo son de MS y el 65% de las Suites de oficina también, sin contar con otras aplicaciones como compiladores, Servidores SQL, etc), se sacó el Windows 95. El SO más utilizado hoy en día en todo el mundo, que no el mejor.
Entre sus características destacan la multitarea, un interfaz de usuario muy intuitivo y un cliente de redes muy conseguido. El DOS sólo era monotarea. Con la salida a la luz de Windows 95, MS acaba con la vida del DOS como tal (aunque muchos usuarios piensan que Windows 95 no es sino el DOS renovado por el tiempo, entre ellos el escribiente) y con la de Windows como programa. El DOS ha sido el SO del PC durante más de 15 años. Hoy en día, que las aplicaciones son viejas al año, constituye todo un record que va a ser muy difícil de superar.
Volviendo hacia atrás la mirada, no mucho, desde el año 1990, surge entre los usuarios una demanda que obligó a MS al desarrollo de un SO que aprovechara la interfaz de Windows, pero orientado al mundo empresarial. Ese embrión fue denominado NT, y luego rebautizado aWindows NT. Ese SO aprovechó la interfaz e intuitividad de Windows para llevarla a las redes. Hasta entonces seguía dominada por el Unix, que cumplía su añete 22 de existencia, todo un mozalbete. Tras un par de años de esfuerzos sale a la luz Windows NT y sus características son, como SO orientado a las redes, multitarea, estabilidad y multiusuario. Sus contras son excesivos recursos para poder ser utilizado en una red medianamente grande.
Entre medias de todo este circo de MS, IBM sigue mejorando el OS/2 hasta unas cotas muy altas. Y es en 1994 en pleno retraso de MS por sacar un SO real para PC (entonces solo existía como SO el DOS), cuando IBM saca el OS/2 3.0, apodado Warp. Este SO se caracterizaba por tener un multitarea muy rápida, estabilidad enorme amén de una compatibilidad hasta entonces no posible. Era capaz de ejecutar aplicaciones DOS, más rápidas y con más estabilidad que el DOS. Y lo mismo con Windows. Las aplicaciones Windows se ejecutaban mejor y de forma más estable sobre OS/2 que sobre el propio Windows, además de dar cobertura a todas las aplicaciones que se desarrollaran para OS/2.
Pese a todo este esfuerzo, la gente sigue esperando el nuevo SO de MS para el mundo doméstico. Ya llevaba más de un año de retraso, ya que la última versión de Windows para el PC se sacó a finales de 1991. Y se hace con MS lo que nunca se había hecho con ninguna casa de Software; darle una prórroga de más de un año. Cualquier casa que hubiera tardado todo ese tiempo en sacar algo al mercado que previamente hubiera estado anunciándolo, hubiera sido retirada del mercado por obligación de la demanda de los usuarios. Yo creo que es cuando Bill Gates se da cuenta de una cosa, no importa si el SO es mejor o peor, no importa el retraso, lo único que importe es que sea MS y sea una versión mejor que la anterior.
El año que va desde mediados de 1994 hasta finales de 1995 (que es cuando MS saca el Windows 95) el OS/2, pese a lo que se pudiera suponer, no experimenta un gran crecimiento. Sin embargo, MS iba a provechar ese tiempo muy bien. No fue un retraso debido a mejoras del SO (como fue justificado el retraso), ya que cuando Windows 95 salió seguía adoleciendo de la inestabilidad de su antecesor y era más lento que OS/2. Ese tiempo, lo dedicó al esfuerzo más grande que ha existido por desmarcarse del resto de la competencia. Ese año se dedicó a crear las APIs (herramientas que utilizan los desarrolladores de software para un SO) más difíciles del mercado, y MS daría esa documentación a los desarrolladores siempre y cuando no desarrollasen software en otro SO.
Si sumamos lo comentado en los dos últimos párrafos tenemos la jugada ganadora de MS. El porqué de su éxito. A mi entender cuando a la salida de Windows 95, la gente lo compró de forma masiva, se dió una puñalada de muerte a la que fue edad de oro de la informática. Pero ese es otro tema, ahora estamos haciendo un poco de historia sobre el mundo de los SSOO.
A finales de 1991 surge el fenómeno más revolucionario que ha existido en la informática. Una persona llamada Linus Torvalds, estudiante de informática finlandés, quiere desarrollar un clónico del Unix. Hasta entonces el único SO que se utilizaba a nivel empresarial era ése. Y para ello pide ayuda por Internet. Pese a que no hace falta voy a poner el mensaje que anunció a otros programadores, aunque sólo sea por hacer un pequeño homenaje a esta persona.
"¿Echas de menos los días de Minix 1.1, cuando los hombres eran hombres, y escribían sus propios drivers? ¿Estás sin ideas y deseas tener un sistema operativo que puedas modificar a tu antojo? ¿Te frusta disponer sólo de Minix? ¿Pasas las noches en vela para depurar tus cuidados programas? Este anuncio puede ser lo que buscas. Como mencioné hace meses, estoy trabajando en un versión similar a Minix para máquinas AT-386. Finalmente ha empezado a ser utilizable (aunque depende de tus exigencias), y estoy pensando en publicar las fuentes para su difusión, Sólo es la versión 0.2... pero ya ejecuta bash, gcc, gnu-make, gnu-sed, compress y otros.."
Mucha gente empezó a trabajar en el sistema. A partir de la versión 0.99, en Navidades de 1993, comenzó la distribución masiva. Lo que llamaba la atención de este proyecto es que era gratis. Y totalmente anónimo. No había una casa detrás de él que se hiciera responsable del proyecto. En estos días que la marca lo es todo, no sólo resultó romántico sino que mucha gente se interesó por el tema más de lo debido. Hoy por hoy, Linux (así se llamó el proyecto, en honor a su inventor) es el clónico Unix más vendido del mundo y no sólo eso, sino que debido a que toda la información sale por Internet, salen versiones cada vez mejores en muy poco periodo de tiempo; hasta llegar al caso de que son más rápidas las versiones Unix de Linux que las de los propios fabricantes tales como Sun, IBM o SCO. Si a eso le sumamos que el año 1996 la NASA eligió como mejor SO de redes al Linux RedHat v4.1, nos podemos dar una ligera idea del fenómeno que ha supuesto Linux en el mercado.
El período que va desde 1993 hasta 1996 se caracterizó por una salida ingente de SSOO al mercado; ya que MS quiso jugar la baza de introducirse en el mundo de las redes con nuevas versiones de Windows NT, IBM sacó una nueva versión del OS/2, destinado a sustituir alDOS, MS también sacó Windows 3.xx y Windows 95 que finalmente fueron los estándares del mercado, Sun y otros con versiones nuevas del Unix y el nuevo Linux que poco a poco ganaba más adeptos, incluso ya en centros universitarios. No olvido las versiones del Mac OSpara el Apple, es decir, que se tenía una gran oferta de SSOO y todos ellos buenos.
MS, con Windows NT, apostó sobre las redes y se dedicó a sacar tres versiones en poco más de 3 años. Cada una de ellas mejores y más estable que la anterior, pero con el mismo problema de sus antecesoras, el excesivo número de recursos necesarios para administrar una red medianamente grande.
Y estamos en 1996, el año que va hasta la fecha de hoy se ha caracterizado por un afianzamiento de los SSOO de MS, ya sean a nivel particular (Windows 95) o a nivel de redes (Windows NT), si bien en este último le queda por luchar dos grandes batallas que se me antojan imposibles, ambas se llaman de parecida forma, Linux/Unix. El SO de los grandes ordenadores, grandes redes o simplemente, de las administraciones, y últimamente, de pequeños usuarios generalmente universitarios. Pese a ser viejo, el Unix, es sin duda ninguna, el SO para las redes.
Un paradigma es un modelo o patrón sostenido en una disciplina científica o epistemológica o, a diversa escala, en otros contextos de una sociedad.
La palabra “paradigma” viene del griego y significa “modelo” o “ejemplo”. La concepción de paradigma data de fines de la década del ’60 y refiere a un determinado modelo de pensamiento o de interpretación de las entidades que se corresponde con una disciplina y un contexto sociohistórico dados. De cualquier forma, el concepto es amplio y puede hacer referencia a un modelo tan complejo como la explicación de determinado fenómeno científico y a algo tan informal y variable como es la interpretación de las relaciones sociales. En cualquiera de los casos, un paradigma supone un determinado entendimiento de las cosas que promueve una forma de pensar en particular por sobre otras.
Para la ciencia, la idea de paradigma está asociada con la que dio el científico Thomas Kuhn en su libro “La Estructura de las Revoluciones Científicas”. Para él, un paradigma se define como aquello que se debe observar y escrutar; el tipo de interrogantes que es necesario formular para hallar respuestas en torno de un objetivo; la estructuración de dichos interrogantes; y la interpretación de los resultados científicos. Desde este tipo de interpretación, el paradigma constituye básicamente un modelo de cómo deben realizarse investigaciones y experimentos científicos, con la concepción en mente de que este modelo pueda replicarse. Sin embargo, en la práctica científica un paradigma constituye mucho más que un modelo experimental, sino que también responde a la manera en que los agentes del campo científico entienden, piensan y hacen ciencia. Lo mismo ocurre a escala social. Por ejemplo, en términos de cómo en un momento de la historia las sociedades entienden al mundo de una u otra forma.
Cuando se habla de “cambio de paradigma”, entonces, se hace referencia a la evolución de pensamiento que ocurre en las disciplinas y en las sociedades a través de la historia y que promueve el surgimiento de un nuevo modelo imperante de pensamiento.
Comencemos por aclarar que no hay un solo punto de vista sobre lo que es la Administración, sino que varios autores se han encargado de definir y profundizar sobre el tema. Nombraremos algunos de ellos y sus principales ideas.
SegúnIdalberto Chiavenatoen su libro“Introducción a la Teoría General de la Administración”,la administración es la dirección racional de las actividades realizadas en una organización, con o sin fines de lucro. Implica la planeación y organización, diferenciadas por la división del trabajo. Por tanto, la administración es imprescindible para la existencia, la supervivencia y el éxito de las organizaciones. Sin la administración, las organizaciones jamás tendrían condiciones que les permitan existir y crecer.
Jorge Hermida, en su libro “Administración y estrategia”, debate si es una ciencia, una técnica o un arte y analiza:
La ciencia investiga y busca la comprensión, elabora leyes, hipótesis, y aplica con rigurosidad el método científico.
La técnica transforma y opera la realidad, aplica normas y procedimientos con rigurosidad y sobre la base de un programa objetivamente definido.
El arte trata de captar una realidad en un plano vivencia y espiritual en forma esencial pero subjetiva, tanto para sí como para los demás.
Para Hermida resulta imposible considerar a la administración como un arte, dado que en ella no caben las vivencias ni las interpretaciones subjetivas de una realidad.
Mientras que ciencia y técnica de la administración actúan en forma complementaria, y a modo de interactividad realimentada. Esto significa que el campo explicativo de la ciencia alimenta a la técnica; de sus progresos y estancamientos surge la realimentación para una posterior evaluación y redimensión de las explicaciones científicas. Estas se revierten luego al campo explicativo y profundizan y recrean el horizonte científico del foco de atención dentro del objeto de estudio.
La administración podría ser concebida entonces como una ciencia que estudia a las empresas y a las organizaciones con fines descriptivos, para comprender su funcionamiento, su evolución, su crecimiento y su conducta; esta es la actividad que se desarrolla en las universidades.
Para Peter Drucker es gerencia y se refiere al Management. Su misión fundamental es conseguir la actuación conjunta y eficaz de la gente hacia objetivos y valores comunes, estructura adecuada, adiestramiento y desarrollo necesarios para la eficacia y respuesta al cambio. Timms completa dicha apreciación al asimilar a la administración con la gerencia, a la cual considera como una mezcla de arte y ciencia.
Otros autores:
Para Taylor es ciencia y no regla empírica, aunque su idea de la ciencia está totalmente desvirtuada, y nada tiene que ver con el verdadero concepto científico;
Para Fayol es una doctrina administrativa, además del arte de gobernar la empresa;
Para Koontz y O’Donnell es un sistema de principios;
Para Simon una teoría.
Tras esta breve introducción, realizaremos más adelante un análisis profundo de cada autor para luego abarcar contenidos fundamentales en la materia como “organización”, “planeación”, “dirección ” y “control”.
En este post hablaremos de lo que es la balanza de gas,y para iniciar, comenzaremos diciendo que es; El registro de las transacciones de un país con el resto del mundo por unidad de tiempo. Consta de dos cuentas principales: la balanza por cuenta corriente (que incluye las transacciones de bienes y servicios y los pagos por transferencias) y la balanza de movimiento de capitales.
La Balanza de Pago es un término económico que se refiere a la relación de las transacciones económicas efectuadas entre los residentes en el país que la elabora y los residentes en los demás países.
La balanza de pagos es el documento contable que expone las liquidaciones realizadas anualmente entre un país y el extranjero. En primer lugar, registra las operaciones con mercancías (importaciones, exportaciones) y las transacciones llamadas invisibles (turismo, seguros, transferencias de diverso tipo). También indica los movimientos de capitales (inversiones en el extranjero, por ejemplo). El saldo de las liquidaciones hechas al extranjero y de los pagos de éste puede ser positivo o negativo. Indica la situación de acreedor o deudor.
En caso de déficit, debe intervenir el sistema bancario. Entonces se produce una salida de divisas o de oro monetario. Un déficit crónico de cierta importancia amenaza directamente la economía del país; en ese caso, la devaluación se hace inevitable. Si se trata de una moneda que desempeña el papel de moneda de reserva a nivel mundial como el dólar y anteriormente, la libra esterlina, el peligro se torna aún más grave.
Los gastos de envío son uno de los principales quebraderos de cabeza en torno a las operaciones logísticas, las decisiones de compra de los consumidores, la organización del flujo comercial de los productos y los incentivos publicitarios. Tanto cuando compras como cuando vendes, tomar una decisión sobre los gastos de envío asociados al producto, -ya sean gratuitos, gratis a partir de un coste determinado o variables– es una parte importante de tu operación. Hoy vamos a basar nuestra explicación en el análisis del experto Juan Macias, CEO de deMartina.com, consejero de la Asociación Española para la Economía Digital y advisor en varias start-ups. Vamos a detallar las características de los distintos tipos de gastos:
Envío gratis: Existe una gran corriente que apoya este punto como incentivo para la compra, partiendo de la costumbre existente en Estados Unidos de poner gastos de envío gratis en todas las tiendas una vez al año. Esta tendencia se conoce como “Free Shipping” y destaca en un país con mucha competencia y consumismo, pero implantarla permanentemente es un paso casi irreversible para los clientes. Dentro de nuestras fronteras, el envío gratuito no se considera determinante en la búsqueda de la tienda, a pesar de que, como es lógico, aumenta los porcentajes de conversión de los e-commerce. También existen modelos de negocio basados en embolsarse beneficios económicos mediante los gastos de envío, como hacen Pixmanía o El Corte Inglés. Hay que tener en cuenta que el usuario medio español no mira en exceso los gastos de envío, y se centra más en la comparación de precios. Es por ello que muchas marcas los incluyen en el propio precio del producto. Si eres dueño de un negocio y estás pensando en apostar pos esta posibilidad ten cuidado porque no suele haber vuelta atrás. Lo más recomendable es tantear el terreno y elaborar una analítica de resultados mediante una oferta de envío gratis en un corto período de tiempo: semanal, por ejemplo.
Envío gratis a partir de un coste determinado: una de las opciones con más peso es el envío gratis a partir de una cantidad específica, dependiente de muchos factores y de la competitividad del producto a vender -es probable que para tomar este tipo de decisiones precises estudiar logística-. Los objetivos de esta clase de políticas comerciales tienen dos objetivos fundamentales: que el pedido medio aumente y para ganar más clientes. En tal caso, si el pedido medio es de 70 euros, pondremos envío gratis a partir de esa cifra. Así, los usuarios se gastarían 71 euros para ahorrarse los gastos de envío, teniendo en cuenta que el pedido medio es un presupuesto máximo que funciona como barrera mental para los consumidores. Si queremos incrementar nuestra cuota de clientes, podemos darles un regalos de bienvenida, recompensa por ser buenos clientes, etc…No obstante, existen muchas variantes que se deben estudiar y evaluar: hacer Test A/B, y campañas de marketing para comprobar la rentabilidad de implementar cada medida.
Envío variable: Los gastos de envío variables no son nada recomendados por los expertos para aumentar los índices de conversión. Veamos: si los gastos aumentan según los productos que se van agregando, el carrito medio bajará, la conversión bajará, el cliente empezará a probar y acabará confundido. Si los gastos de envío disminuyen según los productos, suele suceder que cuando el cliente no tiene dinero para hacer un pedido grande, no compra y espera a necesitar más productos. Además y como apunte, en la mayoría de las tiendas que tienen gastos de envío variables, los precios anunciados en las condiciones no coinciden con el cálculo que hace el programa. Si el programa determina unos gastos menores, no hay problema, pero si los calcula mayores tenemos un problema grave.
Envío fijo: es la opción que mejor aceptan los consumidores, puesto que asísaben de antemano cuanto les va a costar el pedido, independientemente de lo que compren, de donde lo envíen, del día de la semana o de la estación en que se encuentre la luna. El problema reside en determinar cuanto están dispuestos nuestros clientes a pagar por los gastos de envío y las estadísticas apuntan hacia una media de 4.99€. Las ventajas de esta opción es que tiene un coste y unas condiciones de mantenimiento muy sencillas desde el punto de vista informático.
En síntesis, no existe una norma general sobre la mejor opción de envío que pueda aplicarse a todas las tiendas y productos. La tendencia es que en España, si el producto tiene poco margen, la opción más rentable la constituya el envío fijo, aunque esto pueda variar según la maduración del mercado, el tipo de producto y muchas otras variables. Es recomendable probar a través de promociones puntales para analizar el incremento de las ventas y el margen de beneficios que generan.
Algunos consejos para ahorrar en los gastos de envío
Existen diversos consejos que puedes seguir a la hora de ahorrar en tus gastos de envío, tanto desde la perspectiva de cliente como desde la de empresario:
La tarifa plana anual beneficia mucho a ambos: Sigue el ejemplo de Amazon y establece una cuota anual que puede pagar el cliente para obtener “envíos gratuitos” durante 12 meses, estudiando cuidadosamente cuánto debería ser para beneficiarte. Por ejemplo, una cuota de 15€ si tu cliente medio compra de la página 3 veces al año. Si no estás seguro de si una cuota mensual sería positive, también puedes ofrecer un descuento determinado en cada envío, como un 30%.
El tamaño sí que importa: Mantén los paquetes tan pequeños como sea posible. Si tu producto es pequeño, ponlo en una caja acorde a su tamaño, y evita pagar por enviar espacio vacío.Box size matters No pagues por enviar espacio vacío: mantén el paquete de un tamaño adecuado al del producto. Source: Flickr/precid
Ten cuidado con ofrecer envíos gratuitos, ya que podría hacer que los clientes se tomen los pedidos más a la ligera, y encarguen tres pedidos en un mes de un producto cada uno, ya que no tienen que pagar el envío. Es mejor para nuestro margen de beneficios el recibir solo un pedido, de tres productos.
Posibilita opciones de envío urgente para clientes impacientes. De nuevo, la empresa de Jeff Bezos ha sido precursora en este terreno. Pagando un pequeño extra consigues un envío más rápido. Si un servicio normal tarda entre 3 y 4 días, con este pago extra puede tardar 1 o 2. Así se puede ofrecer a los clientes variaciones de precio y de límite de tiempo
Logra tiempo de reacción para la gestión de los pedidos es una parte muy importante del comercio electrónico. Negocia con la empresa de transporte los precios y límites de tiempo. Especifica un tiempo apropiado para hacer el envío, que te permita saber con certeza que el paquete le llegará al cliente. Deja mucho tiempo de margen para no tener que rectificar corriendo si surge algún problema de última hora, y así no te tengas que gastar más dinero en envío urgente.
Apuesta por los envoltorios sencillos y reutilizables, apostando por materiales como el papel de burbujas o las cajas de cartón, que reducirán los gastos de envoltorios considerablemente. Los materiales ligeros te ayudarán, prescindiendo de la tela y de los envoltorios duros.
Cúbrete las espaldas con un segundo transportista, por si acaso el primero no realiza su trabajo de forma correcta o tiene algún problema. Los clientes simplemente quieren su pedido, no les importa cómo llegue a ellos ni la compañía elegida mientras ofrezca buenas prestaciones.
Toma precauciones con respecto a los pedidos al por mayor. Cuando queremos enviar muchos productos en un mismo envío, consigue un permiso de envíos al por mayor, y reduce los costes de envoltorio al mínimo. Esto nos permitirá ahorrar en gastos, con un envoltorio más ligero y un manejo específico por parte del transportista.
Piensa bien si una tarifa plana es la major opción para tí. Si trabajas con mercancías más pesadas, lo será, pero si mandas mercancía más ligera, como ropa o tarjetas, es más aconsejable que emplees una tarifa de envíos normal.
Por último, y como dato añadido, otra de las cosas que puedes hacer es invertir en un sistema donde aparecen todos los transportistas, un multi-plataforma. Te permite introducir los datos del envío: código postal de salida, código postal de destino, peso, tipo de servicio… Una vez manifiestes ese paquete, te devolverá el coste del envío según una serie de compañías de transporte, y así puedes tomar la decisión basándote en la información devuelta por el sistema. El sistema también creará una etiqueta con esa información para la compañía que elijas, automatizando el proceso. Esta opción es recomendada para pequeños y grandes comerciantes.
En definitiva, en el mundo de la logística, los gastos de envío no son ninguna ciencia exacta, por lo que lo importante es tu capacidad para analizar los datos y descubrir que opciones son más interesantes para ti.
El Día Mundial de la Madre Tierra, rinde homenaje al planeta en su conjunto y al lugar que ocupamos en él. Cada 22 de abril se celebra, desde los años setenta, con el objetivo de crear conciencia sobre los problemas medioambientales, y subrayar la importancia de los bienes comunesLa biodiversidad, el agua, los recursos genéticos agrícolas, los bosques, la energía, elementos compartidos por todos y esenciales para la continuación de la raza humana.
Este año, el Día de la Madre Tierra se centrará en las “ciudades verdes”, ya que actualmente las poblaciones alrededor del mundo viven en su mayoría en las grandes ciudades. En Latinoamérica, la región más urbanizada del mundo, un 80% de la población –unos 450 millones de personas- vive en ciudades. A medida que la población urbana aumenta, las ciudades están llamadas a evolucionar e invertir en energías renovables, integrando a toda su población, comenzando por aquellos que habitan las zonas menos favorecidas.
Con esta celebración se reconoce la importancia del medio ambiente y sus ecosistemas, pues nos proporcionan la vida y la subsistencia.
Gobierno Bolivariano, cambiando el sistema
El presidente de la República, Nicolás Maduro, aprobó el pasado mes de febrero, recursos para fortalecer el resguardo del patrimonio natural del país, a través del Ministerio del Poder Popular del Ambiente. El mandatario otorgó 40 millones de bolívares para consolidar la meta de siembra de 3 millones 500 mil árboles, en este 2014, en todo el territorio nacional, monto que será distribuido para la ejecución y fortalecimiento de toda la logística, apoyo, voluntariado y adquisición de productos para la siembra.
De la misma forma entregó 304 millones de bolívares para la conformación de un Órgano Superior para el manejo integral del sistema de parques y monumentos nacionales, en aras de fortalecer el resguardo de los 43 parques y 36 monumentos nacionales que conforman el sistema.
Dicho sistema estará dirigido por el Ministerio del Poder Popular para el Ambiente y trabajará de forma mancomunada con los Ministerios de Turismo, Comunas, Agricultura y Tierras, Transporte Terrestre, Deportes, Cultura, el Ministerio del Poder Popular para los Pueblos Indígenas y el Comando Estratégico Operacional.
De igual modo, con el Plan Nacional del agua (PNA), creado por el Gobierno Bolivariano, el 29 de octubre de 2013 para ampliar la cobertura y darle continuidad al servicio de agua potable en barrios, zonas urbanas periféricas y áreas rurales, plantea generar conciencia en el modo de utilizar este recurso esencial.
“Si queremos cambiar el clima debemos cambiar el sistema, porque el capitalismo es una amenaza para el planeta” dijo el presidente Hugo Chávez en el 2010, a su arribo a Bolivia, en donde asistió a la Primera Conferencia Mundial de los Pueblos sobre el Cambio Climático y los Derechos de la Madre Tierra. Bajo esta premisa, el Gobierno Bolivariano trabaja por generar la conciencia del pueblo venezolano en el uso responsable de los recursos naturales.
En las últimas décadas ha tenido lugar un notable incremento de la demanda de agua debido en parte a la mejora de la calidad de vida y en parte al mayor desarrollo industrial y agrícola. Este incremento de la demanda también ha llevado asociado una contaminación de este recurso natural, es decir, ha provocado una modificación de las propiedades físicas, químicas y biológicas del agua.
Existen factores externos, especialmente de origen antrópico, que alteran la composición natural de las aguas al introducir sustancias ajenas susceptibles de modificar su naturaleza original, deteriorando su calidad y limitando su utilización para ciertos usos. Por tanto, la contaminación aparece asociada a actividades antrópicas, ya sea de forma directa (vertidos) o a causa de accidentes.
Obviando las consideraciones económicas, la contaminación del agua es, a priori, indeseable por razones no sólo de salud público sino también por razones estéticas y éticas. Con ella, se reduce la cantidad de recurso utilizable para ciertos fines, y se contribuye a conformar una situación de escasez y de degradación del medio ambiente. La tendencia actual es la de obligar a los causantes de la contaminación a pagar por este uso del agua y a asumir los costes de depuración.
Aunque las aguas subterráneas se encuentran más protegidas frente a la contaminación que las aguas superficiales, debido fundamentalmente a la capacidad purificadora de los suelos, sin embargo, cuando la contaminación se produce en las aguas subterráneas es un proceso difícilmente reversible debida a la dificultad de recuperación de los acuíferos aún cuando esta fuese económicamente viable.
En el caso de las aguas superficiales, la detección de la contaminación desde una fuente y su control se puede identificar fácilmente. En cambio, en las aguas subterráneas esto es bastante más complejo, ya que en muchas ocasiones la degradación de la calidad se advierte después de un cierto tiempo y cuando la contaminación ha afectado a amplias zonas del acuífero.
Mientras que la solución del problema es relativamente sencilla en el caso de las aguas superficiales, en las aguas subterráneas la adopción de medidas correctoras son costosas y de eficiencia no siempre satisfactoria, estando condicionada, además, por una compleja evolución del contaminante en el terreno y la consiguiente dificultad de establecer un diagnóstico de las relaciones causa-efecto del proceso contaminante.
Una de las principales causas del deterioro de la calidad de las aguas se debe a al uso abusivo de fertilizantes en actividades agrícolas, llegando a producir:
Eutrofizaciónen aguas continentales (acequias, ríos, lagos y embalses) y costeras
La eutrofización da lugar al crecimiento explosivo de algas produciendo trastornos en el equilibrio biológico.
Contaminación de las aguas subterráneas
Fundamentalmente debida a la presencia de nitratos.
Es particularmente interesante el proceso de cambio que se ha ido produciendo en la política agrícola de la Unión Europea, la cual durante años ha estado subvencionando el uso del agua y de fertilizantes, con el resultado de producir excedentes no comercializables y de causar contaminación. En cambio, la nueva política agrícola europea va dirigida a contener el volumen de excedentes ya mantener la calidad de las aguas. Además, de este modo el espacio que la agricultura cede, al producir menos, se recupera para actividades de ocio y para la mejora del medio ambiente, en concordancia con el aumento del tiempo libre y del uso que la población hace del espacio rural.
En muchos países, la contaminación del agua por diversas actividades es un problema muy serio. Los causantes de dicha contaminación argumentan que los costes de depuración son elevados y no resulta económicamente viable, por lo que el principio de "quién contamina, paga" no se cumple. Por otro lado, la mayor tolerancia y laxitud en la aplicación de las leyes en los países cuyas instituciones son débiles ha estimulado la transferencia de ciertas actividades contaminantes. En los países pobres, los productos agroquímicos (fertilizantes, pesticidas, herbicidas) son escasos y, por consiguiente, la contaminación del agua y del suelo causada por actividades agrícolas no es demasiado grande. No obstante, algunos países en desarrollo poseen un sector agrícola orientado hacia la exportación y la producción intensiva, que produce una severa degradación del agua y del suelo ya que la conservación del capital natural no entra en los cálculos económicos.
Pero además, en muchos países las aguas subterráneas constituyen una reserva importante de agua potable. En varias zonas este recurso hídrico está contaminado hasta tal punto que no reúne las condiciones establecidas en las normas actuales de consumo. Si bien estos problemas se deben esencialmente a la aplicación excesiva de fertilizantes minerales, en algunos lugares está situación está especialmente asociada a la aplicación extensiva e intensiva de fertilizantes orgánicos (estiércol).
La contribución exacta de la agricultura a la eutrofización del agua superficial y a la contaminación de las aguas subterráneas es difícil de cuantificar. Se calcula que la agricultura europea puede ser la causante del 60% del total del flujo fluvial de nitrógeno al mar del Norte, y del 25% de la carga total de fósforo (FAO/CEPE, 1991). En Checoslovaquia, la agricultura aporta el 48% de la contaminación del agua superficial. En Noruega y Finlandia se han señalado situaciones, localmente significativas, de eutrofización de las aguas superficiales como consecuencia de factores agrícolas. Los altos niveles de utilización de nitrógeno y fósforo son considerados como los causantes de la proliferación de algas en el mar Adriático. Algo semejante ha ocurrido en las aguas costeras de Dinamarca. En los Países Bajos se ha registrado una contaminación sustancial de las aguas subterráneas por nitrato (FAO/CEPE, 1991). El 50% de los pozos poco profundos que abastecen de agua a más de 1 millón de residentes en Lituania no son aptos para el consumo humano por la presencia de una gran variedad de contaminantes, entre los que figuran plaguicidas y compuestos nitrogenados (FAO, 1994b). En los años 60, el lago Erie (uno de los Grandes Lagos de América del Norte) fue declarado, por la prensa, como “muerto” debido a los altos niveles de nutrientes acompañado por un crecimiento excesivo de algas, mortandad de peces y sedimentos de fondo anaeróbicos.