Nosotros introducimos la URL de la pagina que sospechamso que nos han copiado y la herramienta "Copyscape" nos da la paginas web y el numero de coincidencias.
Manifiesto “En defensa de los derechos fundamentales en internet”
Ante la inclusión en el Anteproyecto de Ley de Economía sostenible de modificaciones legislativas que afectan al libre ejercicio de las libertades de expresión, información y el derecho de acceso a la cultura a través de Internet, los periodistas, bloggers, usuarios, profesionales y creadores de internet manifestamos nuestra firme oposición al proyecto, y declaramos que…
1.- Los derechos de autor no pueden situarse por encima de los derechos fundamentales de los ciudadanos, como el derecho a la privacidad, a la seguridad, a la presunción de inocencia, a la tutela judicial efectiva y a la libertad de expresión.
2.- La suspensión de derechos fundamentales es y debe seguir siendo competencia exclusiva del poder judicial. Ni un cierre sin sentencia. Este anteproyecto, en contra de lo establecido en el artículo 20.5 de la Constitución, pone en manos de un órgano no judicial – un organismo dependiente del ministerio de Cultura -, la potestad de impedir a los ciudadanos españoles el acceso a cualquier página web.
3.- La nueva legislación creará inseguridad jurídica en todo el sector... Leer más ...
Problema solucionado, esta claro que esto este tipo de portal no lo soporta, y como han salido otros tipos de errores, como que desaparecen los iconos de administración, etc, intente poner un nuke et, en el mismo lugar y me daba un millón de errores rarisimos, así que lo que ice, fue coger el nuke et, y llebarmelo a otro servidor,y se le acabaron los problemas, y con este, como todo me esta funcionando dentro de Contenido y tengo mucha cosa, estoy creando uno de nuevo en el miso sitio, pero es un CMS de los modernos que pare ser que este servidor no se asusta así que poco a poco lo iremos cambiando todo al nuevo CMS.
Necesito que cualquier persona que entre en mi nuke entre logueado como un usuario determinado en cuanto escriba en su navegador la url de mi dominio, y que pueda acceder a todos los contenidos, bloque y módulos; pero que el rol anónimo no tenga acceso a los contenidos.
De este modo los datos de este usuario único se los paso a un desarrollo en java+ php contra oracle. Así puedo aprovechar el nuke, y posteriormente ofrecer otras posibilidades con una DB de usuarios distinta (la de Oracle).
Cada pagina debe tener un titulo diferente. El titulo es lo mas importante.
En cuanto cambies los titulos y los ajustes al contenido veras como el trafico te aumenta.
Lo mismo debes hacer con la descripcion y las keywords. Esta bien que sean parecidas las keywords, pero no las mismas... cambia algunas y que coincidan con palabras importantes del texto de la pagina a la que pertenezcan.
Ya hablaremos de lo del tablon... ahora céntrate en lo sencillo.
...el periodista se hubiese lavado la cara ese dia, no habria escrito el artículo.
Quote::
“Para informarse en Internet uno puede visitar ediciones digitales de medios de comunicación o, simplemente, entrar en Google News y encontrar jerarquizadas y extractadas las últimas noticias. “
Uno tambien puede ir al kiosco y ver los titulares de todos los periodicos que se venden (en ese kiosco) y nadie lo ve descabellado.
Quote::
“El internauta quizá no pase de ahí y, si eso ocurre, una vez más será Google quien rentabilice clics gracias a un contenido ajeno. “
Pero, chaval, si la noticia no interesa como va a hacer nadie clic en tu web… Además Google News no indexa periódicos que no se han dado de alta de forma maniefiesta y voluntaria… y si no prueba a dar de alta tu blog en Google News y veras que patada te dan en el culo.
Pero además, si tuvieses que pagar por cada clic que recibes desde el buscador general (un servicio que presta Google “gratuitamente”) estarias en quiebra
…
“Ahora Google ha lanzado un vídeo de un cuarto de hora dirigido a empresas periodísticas en el que explica cómo funciona su servicio de noticias y trata de... Leer más ...
El otro dia me acorde de este tema viendo un articulo sobre Keteke.com (la red social de Telefonica).
Al periodista se le ocurrio compararla con una de las grandes redes sociales internacionales, auque fuese solo para decir que no habia cuajado.
La verdad es que me recordo al chiste del gitano que está arreglando una escupidera, ve pasar a un avion y exclama:
¡Lo que hacemos los técnicos!
Pues lo mismo... la red Keteke es un fracaso admitido de forma interna en Telefonica, aunque se mantenga por ser considerado un "proyecto estratégico". Un fracaso mas en el intento de la compañia por introducirse en las redes de contenidos de internet (lo mismo que fue Terra-Lycos en su dia).
Al menos este fracaso no ha costado varios billones de pesetas... pero alguien deberia plantearse el poco exito alcanzado, pese a los recursos empleados.
El Congreso de Webmasters 2009 se celebrará en el Centro de Convenciones Norte de IFEMA en Madrid, los próximos días 2, 3 y 4 de octubre de este año.
En su tercera edición, el Congreso de WebMasters se ha consolidado como el referente de la cultura web de nuestro país tras reunir a 3.272 asistentes en la edición del pasado año.
El principal objetivo del Congreso de este año es buscar la participación activa de todos vosotros, y tomar el pulso a Internet en España en estos días de múltiples cambios y nuevos proyectos en la Red. Los participantes podréis exponer vuestros casos e inquietudes a los expertos y ponentes para solventar dudas, compartir experiencias y ayudar a seguir desarrollando la web entre todos.
La oferta de contenidos de este año abarca temáticas imprescindibles como Talleres de Posicionamiento en Buscadores, Herramientas Web, Web 2.0, Gestión Publicitaria, Blogs, Casos de sitios con éxito, Metodologías, Ecommerce, Seguridad, Legislación…. todo en talleres y charlas prácticas, con casos reales en directo.
Hola,
La elección de la mejor tecnología para una web no depende de una "moda" o usar la tecnología mas avanzada.
En realidad depende del proyecto, pueden haber proyectos muy sencillos que por una mala decisión al momento de elegir la forma de implementarlo resulta complicándose muchisimo. Y otros que por no tener en cuenta todo lo que implicaban desde el inicio terminan siendo "parchados" para que la funcionalidad del web se mantenga.
Si deseas una web informativa (valga decir, exclusivamente para brindar información a tus usuarios) y que no se actualize tan seguido te recomiendo usar XHTML / CSS / JS. Es posible que hagas actualizaciones en tu web pero tendrás que crear las nuevas páginas tu mismo, o editar los archivos que ya tienes si se trata de modificaciones.
Si pretendes actualizar tu web varias veces a la semana, sería buena opción usar un sistema de administrador de Contenidos desarrollado en PHP / MySQL, que te brinde una interfaz fácil de usar para actualizar tu web.
Para proyectos más grandes (como redes sociales, sistemas online, etc) es más recomendable PHP / MySQL.
Personalmente creo que el PG está sobrevalorado, habiendo factores mucho más interesantes para lograr un posicionamiento, como la relevancia del contenido y su calidad, así como la adecuación a las palabras claves. Además por mucho que pretendamos, una página de orientación local, ni siquiera va a tener PG, por eso pienso que es mucho más interesante dependiendo de la web y de su objetivo, centrarnos en estrategias SEO de long tail o más residuales, buscando nichos más pequeños y más especializados que nos den más calidad de clicks (es decir aquellos que tengan un mayor ratio de conversión) , objetivo a mi parecer mucho más interesante que la pura cantidad.
Es decir, y acabo, que primero, mira a ver a quien quieres llegar con tu web, y después dales exactamente lo que quieren: buen contenido y que te encuentren por la búsqueda qiue van a hacer tus REALES clientes potenciales...
ramirez19851, he encontrado un juego completo de fuentes actualizadas para realizar ficheros pdf con php.
El contenido del fichero descargado habría que copiarlo al directorio lib/ezpdf de Dotproject. En el foro oficial hay un mensaje al respecto donde tambien editan varios ficheros
del directorio /modules/projects/reports/ , aunque no queda claro si es necesario editarlos.
Bienvenid@ eezi. El pagerank es un indice de relevancia que está directamente relacionado con la calidad de los contenidos web . La optimización de contenidos en los buscadores consiste en que se realice un buen indexado de las páginas web independientemente de la calidad de los contenido (pagerank). Tan importante es una cosa como la otra, sin embargo si tienes buenos contenidos y una pobre indexación recibirás pocas visitas de los buscadores siendo principalmenteel tráfico de las visitas directas (boca a boca).
Webnar, el tema del spam parece ser un tema común para la mayoría de los cms. Lo que comentas de no permitir publicaciones (foro, noticias) a usuarios anónimos es una solución buena para este tipo de usuarios. Yo me refería más bien a los usuarios registrados, para evitar tener que los administradores-moderadores tengan que realizar una supervisión continua del contenido publicado en el portal.
Por ejemplo en Joomla, que según veo en los mensajes el foro Webnaranja también lo conocéis, no he encontrado ningún módulo específico y gratuito para de filtrado de contenido, aunque si existen módulos de pago (comerciales).
Volviendo de nuevo a Dragonflycms, ¿en el core del este cms existe algún tipo de filtrado aunque sea básico (ip, usuario, email, etc.)? para el foro, coppermine, noticias.
Estoy pensando crear una comunidad con Dragonflycms y me preocupa mucho el tema del spam. ¿Podeis decirme si existe algún módulo en Dragonflycms para filtrar el contenido del portal: foros, noticias, enlaces, etc?