organizatorzy sesji - Politechnika Częstochowska

Transcription

organizatorzy sesji - Politechnika Częstochowska
ORGANIZATORZY SESJI
WYDZIAŁ INŻYNIERII PROCESOWEJ, MATERIAŁOWEJ
i FIZYKI STOSOWANEJ
STUDENCKIE KOŁO NAUKOWE
„INFOMET”
XXVIII MIĘDZYNARODOWA
STUDENCKA SESJA NAUKOWA
POD PATRONATEM
PREZYDENTA MIASTA CZĘSTOCHOWY
TADEUSZA WRONY
20 maja 2004 r.
STUDENCKIE KOŁO NAUKOWE
INFOMET
Koło Naukowe „Infomet” rozpoczęło swoją działalność w roku 2002, a oficjalnie
zostało zarejestrowane rok później. Uruchomienie Koła Naukowego przy Katedrze Ekstrakcji
i Recyrkulacji Metali było odpowiedzią na zainteresowanie ze strony studentów
uczestnictwem w zorganizowanej pracy naukowej, w pracach czynnych Koła bierze udział
około dwudziestu studentów.
Siedzibą Koła jest Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej
Politechniki Częstochowskiej. Władzą najwyższą w Kole jest Zarząd na czele którego stoi
przewodniczący. Koło opiera swoją działalność na pracy społecznej ogółu studentów.
Za podstawowe cele Koło Naukowe INFOMET obiera:
• rozwijanie zdobytej podczas studiów wiedzy,
• kształcenie umiejętności pracy samodzielnej i zespołowej,
• projektowanie i realizację systemów przetwarzania informacji,
• numeryczne modelowanie procesów wysokotemperaturowych,
• przyswajanie metod wspomagania komputerowego przy projektowaniu i realizacji
eksperymentu,
• pozyskiwanie literatury w celu realizowania zadań,
• nawiązywanie współpracy z innymi Kołami Naukowymi działającymi na innych
uczelniach,
• udział w wystawach i targach branżowych,
• uczestniczenie w konkursach i sesjach studenckich organizowanych w kraju,
• organizację sesji studenckich.
Opiekunowie Koła:
Naukowy - dr hab. inż. Jan Jowsa, Prof. P.Cz.
Organizacyjny - dr inż. Stanisław Garncarek
Bezpośredni - mgr inż. Tomasz Merder, mgr inż. Marek Warzecha
2
INFORMACJE O SESJI STUDENCKIEJ
Organizowana w tym roku na Wydziale Inżynierii Procesowej,
Materiałowej i Fizyki Stosowanej Studencka Sesja Naukowa, jest XXVIII sesją.
Do roku 1983 istniała, dość sprawnie działająca, podwójna struktura
organizacyjna studenckiego ruchu naukowego. W Katedrach pracowały Koła
Naukowe oraz powołani byli Wydziałowi i Uczelniani Opiekunowie
studenckiego ruchu naukowego. Organizowane na Wydziale Metalurgicznym
Sejmiki Studenckich Kół Naukowych, stanowiły roczne podsumowanie pracy
Kół. Do 1983 roku Sejmiki organizowały najpierw ZSP, a później SZSP. Sejmik
zorganizowany w 1983 roku był piętnastym. W roku 1984 Sejmik
zorganizowany został bez udziału organizacji studenckich. Podsumowując do
roku 1984 zorganizowano 16 Sejmików, w których uczestniczyło około 300
studentów. Po roku 1984 nastąpiła długa przerwa w organizacji Sejmików, która
trwała do roku 1992. W 1992 r. w skład Komitetu Organizacyjnego Obchodów
Dnia Hutnika powołany został Przewodniczący Studenckich Sesji Naukowych,
a organizację Sesji przejęła Katedra Pieców Przemysłowych. W latach 19992000 Studencką Sesję Naukową organizowała Katedra Przeróbki Plastycznej
Materiałów, od 2001-2002 ponownie Katedra Pieców Przemysłowych.
Organizację ubiegłorocznej i tegorocznej Sesji przejęło Studenckie Koło
Naukowe „INFOMET” działające przy katedrze Ekstrakcji i Recyrkulacji
Metali.
Ogółem w latach 1992-2003 w Sesjach zorganizowanych na Wydziale
Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej uczestniczyło czynnie
ponad 685 studentów, którzy wygłosili 195 referatów, w tym:
• 2 referaty studenci Uniwersytetu Technicznego w Delft, Holandia,
• 3 referaty studenci Narodowej Akademii Metalurgicznej w
Dniepropietrowsku, Ukraina,
• 3 referaty studenci WSP Częstochowa,
• 63 referatów studenci Akademii Górniczo-Hutniczej,
• 15 referatów studenci Politechniki Śląskiej w Gliwicach,
• 10 referatów studenci Politechniki Śląskiej w Katowicach,
• 5 referaty studenci Politechniki Warszawskiej,
• 1 referat studentka WSP Kraków,
• 90 referatów studenci Politechniki Częstochowskiej.
Przewodniczący Sesji
Dr hab. inż. Jan Jowsa, Prof. PCz
3
NAGRODY
ZA NAJLEPSZE REFERATY UFUNDOWALI
PREZYDENT MIASTA CZĘSTOCHOWY
TADEUSZ WRONA
Redaktorzy nie ponoszą odpowiedzialności za treść zamieszczonych artykułów
4
SPIS REFERATÓW
5
Sekcja A
1. Tomasz Kotlarek, Iwona Ziemba
Wpływ geometrii kadzi pośredniej na warunki przepływu ciekłej
10
stali
2. Adam Cwudziński
Modelowanie matematyczne wypływania wtrąceń niemetalicznych
w kadzi pośredniej
3. Adrian Gonera, Przemysław Woliński
Sposoby badań przepływu stali w kadzi pośredniej
4. Anna Herdzik, Ewelina Wrześniak
Modelowanie numeryczne wypływania stali z kadzi
5. Michał Tomasik
Komputerowe gromadzenie informacji w bazach danych
6. Marcin Niemiec
Bezpieczeństwo informacji elektronicznej
7. Michal Martynkiewicz
PAN i WPAN – małe sieci teleinformatyczne w zastosowaniach
domowych i przemyśle
8. Kasia Dobrowolska
GPS - Global Positioning System
9. Łukasz Matusiak
System sterowania urządzeniami gospodarstwa domowego
10. Kamil Mielech
Inteligentne budynki
11. Andriej Projdak
Badania faz azotkowych i węglikowo – azotkowych w
niskowęglowych stopach
12. Mykhaylo Ivanov
Modelowanie redukcji stężenia tlenków azotu podczas
dwustopniowego spalania gazu ziemnego
13. Piero Distefano
Aero-thermal performance in internal cooling channels (AR = 30)
with dimples
14. Piotr Warzecha
Modelowanie numeryczne opływu profilu lotniczego o kształcie
opływowym
6
14
18
22
26
28
32
34
36
38
41
41
42
46
Sekcja B
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11
12
13
Weronika Jakubiak
Metody odzysku metali z pyłów łukowych pieców elektrycznych
Sławomir Mazur
Wahadło magnetyczne
Justyna Borek
Fale gęstości ładunku o symetrii D, S i rozszerzonej S
Ewa Sikora
Wdrażanie systemu zarządzania jakością zgodnego z
wymaganiami norm międzynarodowych
Krzysztof Felikowski
Wykorzystanie arkusza kalkulacyjnego do analizy ocen
pracowników
Bartłomiej Motyl
Analiza SWOT jako metoda badania otoczenia przedsiębiorstwa
Ewa Cyganek
Możliwości dostosowania kwalifikacji bezrobotnych do wymagań
pracodawców w Częstochowie
Anna Balt
Remont i zabezpieczenie antykorozyjne zabytkowego koła
wodnego
Monika Dąbrowska
Rekonsrukcja pieca pudlingowego
Paweł Kwaśniewski
Nowa generacja przewodów jezdnych z miedzi srebrowej
przeznaczonych do dużych prędkości jazdy
Piotr Komorowski
Struktura i właściwości stali WCL (X38CrMoV5-1) po wstępnej
obróbce cieplnej w złożu fluidalnym
Piechna Andrzej
Warstwa wierzchnia wałków rozrządu po procesie eksploatacji
Konieczniak Artur
Rola sodu w zaworach silnikowych
7
52
55
59
62
63
67
71
75
79
83
84
85
87
8
SEKCJA A
9
WPŁYW GEOMETRII KADZI POŚREDNIEJ NA WARUNKI
PRZEPŁYWU CIEKŁEJ STALI
Tomasz Kotlarek, Iwona Ziemba
Studenckie Koło Naukowe „INFOMET”
Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej
Politechnika Częstochowska
1.Wstęp
We współczesnych procesach technologicznych wytwarzania stali, ciekła stal,
przelewana do kadzi z elektrycznego pieca łukowego lub konwertora, jest poddawana
obróbce pozapiecowej, a następnie przewożona do urządzenia COS. Ciągłe odlewanie stali w
znacznym stopniu skraca drogę od ciekłej stali do gotowego wyrobu. Metoda odlewania
ciągłego umożliwia otrzymanie wlewków ciągłych o określonym profilu i wymiarach, jak
również pozwala na zmniejszenie kosztów inwestycyjnych i kosztów robocizny. Stal z kadzi
odlewniczej jest odlewana do kadzi pośredniej, ustawionej nad urządzeniem do ciągłego
odlewania stali, tak, aby każdy otwór wylewowy ustawiony był dokładnie w osi
krystalizatora. Płynny przepływ ciekłej stali w kadzi pośredniej posiada istotny wpływ na
proces COS. Kadź pośrednią można wykorzystać do dalszej poprawy jakości odlewanej stali.
Główne działania, które można zrealizować w kadzi pośredniej, w celu poprawienia czystości
stali to zastosowanie odpowiedniej geometrii wewnętrznej, przelewu i sposobu filtrowania.
Buduje się kadzie z odpowiednio umiejscowionymi przegrodami, tamami i przelewami. W
ten sposób sprzyja się flotacji wtrąceń niemetalicznych. Główny efekt użycia tam i przegród
polega na zmniejszeniu stref martwych wewnątrz kadzi oraz zwiększenie średniego czasu
przebywania ciekłego metalu we wnętrzu kadzi. Mają one także wpływ na równomierność
rozłożenia pola cieplnego.
1 - kadź;
2 - zasobnik dodatków
stopowych;
3 - zasuwa próżniowa;
4 -wziernik;
5 - kadź pośrednia;
6 - krystalizator;
7-linia ciągłego
odlewania;
8-wlewnica;
9 - wóz podwlewnicowy
Rys 1. Schemat urządzenia do ciągłego odlewania stali z
próżniową kadzią pośrednią [1]
Wyjaśnieniu problemów związanych z przepływem stali w kadzi pośredniej, pomagają
badania na modelach wodnych oraz w ostatnim czasie bardzo dynamicznie rozwijające się
modelowanie numeryczne. W celu porównania warunków hydrodynamicznych panujących w
kadziach o różnej geometrii wewnętrznej przeprowadzono badania polegające na
numerycznej symulacji procesów transportu masy, pędu i energii.
10
2. Opis badanego modelu
Przedmiotem badań była sześciowylewowa kadź pośrednia o pojemności 22Mg
ciekłej stali. Ze względu na płaszczyznę symetrii obiektu w obliczeniach rozpatrywano
jedynie połowę kadzi co ilustruje rysunek 2.
Rys. 2. Szkic przestrzenny kadzi, wraz z wymiarami (mm), oraz charakterystycznymi płaszczyznami
Technologiczne warunki pracy kadzi pośredniej zestawiono w tabeli 1.
Tabela. 1. Warunki pracy badanej kadzi pośredniej
Prędkość wpływającej stali do kadzi
Temperatura ciekłej stali
Intensywność turbulencji
Gęstość ciekłej stali
Ciepło właściwe
Lepkość ciekłej stali
Pojemność kadzi
Wysokość kąpieli stalowej
Średnica otworu wlewowego / wylewowego
Liczba otworów wylewowych
Wysokość przegrody (kadź z przegrodą)
0,9 m/s
1600°C
5%
7010 kg/m3
821 J/kgK
0,007 kg/ms
22 Mg
740 mm
66 mm / 14 mm
6
370 mm
3. Model matematyczny oraz warunki brzegowe
Model matematyczny opisujący zagadnienie przepływu ciekłej stali w kadzi pośredniej
COS składa się z równań różniczkowych: zachowania masy i pędu oraz równań opisujących
strukturę turbulencji ruchu ciekłej stali w kadzi.
Równanie zachowania masy (równanie ciągłości) ma następującą postać
( )
∂ρ
∂
+
ρu j = 0
∂t ∂x j
(1)
Równanie zachowania pędu jest określone następująco
(
)
 ∂u
∂u
∂( ρui ) ∂ ρui u j
∂P
∂ 
µ eff  i + j
+
=−
+

∂t
∂xij
∂xi ∂x j 
 ∂x j ∂xi


 + ρg
i


(2)
Efektywny współczynnik lepkości wyrażony jest wzorem
µ eff = µ + µ t
(3)
gdzie dynamiczny współczynnik lepkości turbulentnej określa formuła
11
µt = Cµ ρ
k2
(4)
ε
Dla modelowania turbulencji, wykorzystano semiempiryczny, dwurównaniowy model
k-ε zaproponowany przez Jones’a i Laundera [2]. Model ten w wielu przypadkach
przepływów burzliwych daje wyniki bliskie rezultatom eksperymentu, przy ograniczonych
nakładach obliczeniowych.
Dla przedstawionej geometrii kadzi, wygenerowano siatkę niestrukturalną z około
270000 tetraedralnymi elementami, lokalnie zagęszczoną przy wlewie i wylewach kadzi.
W badanym modelu przyjęto następujące warunki brzegowe: na wlewie założono
prędkość wpływu medium (stali) = 0,9 m/s, co odpowiada strumieniowi masy 1,33 Mg/min.
Intensywność turbulencji przyjęto równą 5%. Na powierzchni swobodnej zwierciadła cieczy
założono warunek w postaci ściany z zerowymi naprężeniami.
4. Metoda badań modelowych
Badania na obiektach przemysłowych, z powodu panujących wysokich temperatur, są
bardzo trudne i kosztowne. Dlatego zdecydowano się na badanie metodami numerycznymi.
Rozpatrywano dwa przypadki kadzi bez przegrody (rys.2a) i kadzi z przegrodą (rys.2b).
Zabudowa kadzi, polegała na zabudowie dna kadzi dwiema przegrodami, co oddzieliło rejon
wlewowy od rejonu wylewowego.
Rys. 3. Schematyczny przekrój kadzi pośredniej bez przegrody a), z przegrodą b)
Symulacja przepływu ciekłej stali w przedstawionych badaniach, zrealizowano
rozwiązując numeryczne układy równań różniczkowych. Do rozwiązania rozpatrywanego
problemu zastosowano komercyjny program FLUENT [3], oparty na metodzie mechaniki
płynów.
5. Wyniki obliczeń
Po przeprowadzeniu stacjonarnych obliczeń otrzymano przestrzenne rozkłady
wektorów prędkości i pola turbulencji. Dla zilustrowania wektorów ruchu stali w kadzi,
obiekt podzielono charakterystycznymi płaszczyznami. Płaszczyzna wzdłużna A przechodzi
przez przekrój wlewu, natomiast B przez przekroje otworów wylewowych. Płaszczyzna C
znajduje się między otworem wylewu drugim, a trzecim, natomiast płaszczyzna D pomiędzy
otworem wylewu drugim, a pierwszym.
Rys. 5. Rozkład wektorów prędkości [m/s] na
płaszczyźnie A (bez przegrody)
Rys. 6. Rozkład wektorów prędkości [m/s] na
płaszczyźnie B (bez przegrody)
Na rysunku 4 pokazano siatkę obliczeniową wygenerowaną w badanym obiekcie.
Prezentowane wektory prędkości ilustrują ruch stali we wnętrzu kadzi i pokazują strukturę
przestrzenną tego ruchu. Na rysunkach 5 do 8 pokazano lokalne rozkłady wektorów prędkości
12
na płaszczyznach dla kadzi bez przegrody, natomiast na rysunku od 9 do 12 dla kadzi z
przegrodą.
-
Rys. 7. Rozkład wektorów prędkości [m/s] na
płaszczyźnie C (bez przegrody)
Rys. 8. Rozkład wektorów prędkości [m/s] na
płaszczyźnie D (bez przegrody)
Rys. 9. Rozkład wektorów prędkości [m/s] na
płaszczyźnie A (z przegrodą)
Rys. 10. Rozkład wektorów prędkości [m/s] na
płaszczyźnie B (z przegrodą)
Rys. 11. Rozkład wektorów prędkości [m/s] na
płaszczyźnie C (z przegrodą)
Rys. 12. Rozkład wektorów prędkości [m/s] na
płaszczyźnie D (z przegrodą)
6. Wnioski
Umieszczenie wewnątrz kadzi dodatkowych przegród zmienia w wymierny sposób
obraz ruchu metalu. Wywołane przegrodą zaburzenia przepływu, niosą za sobą istotne zmiany
obejmujące strukturę przepływu, co ma następujące konsekwencje:
wstawienie przegród w znacznym stopniu różnicuje ruch stali, w obszarze wlewowym
od obszaru wylewowego,
powstała w strefie wlewowej w kadzi z przegrodą cyrkulacja, ułatwia wypływanie
wtrąceń niemetalicznych do fazy żużlowej.
Badania te pokazują, że potrzeby optymalizacji kształtu przestrzeni wewnętrznej kadzi
pośredniej, pozostają ciągle aktualne, bowiem modyfikacja wewnętrznej geometrii może być
poszerzona o dodatkowe elementy tj. jazy i tamy.
Literatura
[1] T. Lis, Współczesne metody wytwarzania stali, Gliwice 2000.
[2]
B.E. Launder, D.B. Spalding: Meth. Appl. Mech. Eng., vol 3, 1974, 289.
[3]
www.fluent.com
Opiekun pracy
Mgr inż. Tomasz Merder
13
MODELOWANIE MATEMATYCZNE WYPŁYWANIA
WTRĄCEŃ NIEMETALICZNYCH W KADZI POŚREDNIEJ
COS
Adam Cwudziński
Studenckie Koło Naukowe „INFOMET”
Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej
Politechnika Częstochowska
Wstęp
Procesy produkcyjne we współczesnym świecie są nakierowane na wysoką wydajność,
a produkt powstający ma posiadać jak najlepszą jakość, przy stosunkowo nie wielkiej cenie.
Wszystko to powinno odbywać się przy możliwie najmniejszym koszcie wytworzenia. Dzięki
temu wzmocniła się pozycja procesów ciągłych, pozwalających na maksymalne
wykorzystanie mocy produkcyjnych urządzeń, możliwość mechanizacji, automatyzacji i
komputeryzacji procesu. Proces ciągłego odlewania stali stał się więc podstawowym
sposobem odlewania ciekłej stali dając przy tym możliwość otrzymywania wlewków: dobrej
jakości, jednorodnych, wolnych od segregacji i jamy skurczowej, o drobnoziarnistej
strukturze i dobrej powierzchni [1]. Urządzenie COS składa się w uproszczeniu z kadzi
lejniczej, kadzi pośredniej, krystalizatora spełniającego rolę chłodzenia pierwotnego i ciągu
rolek transportowych pozwalających na dalsze chłodzenie (chłodzenie wtórne). Ewolucja
COS-ów doprowadziła do tego, że zaczęto odlewać ciekłą stal o wymiarach zbliżonych do
wymiarów wyrobów gotowych, a także odlewa się bezpośrednio stal na wymiar końcowy np.
szyny. Dlatego sprawą priorytetową jest zapewnienie wysokiej czystości ciekłej stali
wprowadzanej do krystalizatora. Tutaj swą znaczącą rolę zaczyna odgrywać kadź pośrednia,
stanowiąca specyficzny reaktor metalurgiczny, w którym metalurdzy mogą jeszcze zwiększyć
stopień czystości ciekłej stali, tworząc wraz z piecem stalowniczym i agregatami metalurgii
drugorzędowej zwarty proces technologiczny. Jest ona odpowiedzialna za odpowiednie
dozowanie, z ściśle określoną wydajnością ciekłego metalu wprowadzanego do krystalizatora.
Dlatego o kadzi pośredniej możemy powiedzieć, że jest ona kolejnym, a zarazem ostatnim
etapem poprawienia czystości stali, zaliczającym się do tzw. metalurgii trzeciorzędowej.
Stalownie na całym świecie dążą do uzyskania jak najkorzystniejszych geometrii
wewnętrznych kadzi pośrednich, które poprzez stosowanie: tam, przelewów, przegród i
progów znacznie poprawią flotację wtrąceń niemetalicznych w wyniku wydłużenia czasu
przebywania stali w kadzi, co sprzyja ich wypływaniu do żużla. Także materiały ogniotrwałe
ścian muszą cechować się wysoką odpornością na działalność erozyjną i korozyjną ciekłej
kąpieli metalowej. Ponadto, aby zmniejszyć kontakt ciekłej stali z powietrzem stosuje się
osłonę argonową lub rury osłonowe oraz specjalne zasypki izolujące. Doprowadzenie do jak
najmniejszej liczby wtrąceń niemetalicznych w stali, która wpływa do krystalizatora jest
słuszne i zgodne z regułą, że wtrącenia niemetaliczne wywierają szkodliwy wpływ na
zapoczątkowanie i rozprzestrzenianie się pęknięć zmęczeniowych. Dla wyjaśnienia wpływu
geometrii kadzi oraz warunków przepływu stali na zintensyfikowanie procesów flotacji
przeprowadzono badania modelowe. W tym celu wybrano technikę modelowania
numerycznego. Wykonano geometrię badanego obiektu oraz siatkę obliczeniową w
programie GAMBIT, a symulację zachowania się wtrąceń niemetalicznych przeprowadzono
w programie FLUENT. Program ten jest programem służącym do obliczeń przepływu cieczy
14
lub gazów, opartym na metodzie objętości kontrolnych. Metoda ta dopuszcza
wykorzystywanie strukturalnych i niestrukturalnych siatek obliczeniowych oraz siatek o
strukturze hybrydowej. FLUENT [2] może wykonać obliczenia na obiektach płaskich 2D oraz
przestrzennych 3D.
Charakterystyka modelu
Badania przeprowadzono dla dwóch kadzi pośrednich o pojemności 22 Mg:
oryginalnej i kadzi zmodyfikowanej. Modyfikacja kadzi polega na zabudowaniu jej dna
dwoma przegrodami. Ponieważ kadź jest symetryczna względem osi głównej, dlatego do
obliczeń wykorzystano połowę obiektu (rys. 1).
Rys.1. Szkic przestrzenny badanej kadzi (kadź oryginalna), wymiary w [mm]
Do numerycznego rozwiązania rozpatrywanego problemu zastosowano program
Fluent 6.2. Natomiast siatkę obliczeniową wykonano w programie Gambit 2.0.
Metodyka badań
Dla ciekłej stali przyjęto następujące własności fizyczne: gęstość 7010 kg/m3, ciepło
właściwe 821 J/Kg⋅K, przewodność cieplna 30,5 W/m⋅K, lepkością 0,007 kg/m⋅s. Dla
modelowania wtrąceń niemetalicznych w stali założono różne wielkości wtrąceń
korundowych (Al2O3) o następujących średnicach: 1µm, 5µm, 10µm, 25µm, 50µm, 75µm,
100µm których własności fizykochemiczne wynoszą: gęstość 3990 kg/m3 i 5000 kg/m3,
przewodność cieplna 2,25 W/m⋅K i ciepło właściwe 1324 J/kg⋅K. W badaniach zastosowano
uproszczenie dotyczące kształtu wtrącenia niemetalicznego, przyjmując, że będzie ono miało
postać kulistą [3], zgodnie z uproszczonym modelem jak na (rys.3). Na połowie wlewu
założono ich usytuowanie poprzez przyjęcie pięciu grup o liniowym rozkładzie (rys.4). W
każdym z tych punktów wpływa grupa 10000 wtrąceń niemetalicznych.
Obliczenia trajektorii wraz z rozkładem wtrąceń niemetalicznych wykonano dla dwóch
wariantów, pierwszy gdy wtrącenia różnią się gęstością (3990 i 5000 kg/m3) oraz drugi gdy
różnią się średnicą (1µm, 5µm, 10µm, 25µm. 50µm, 75µm, 100µm). Gęstości wtrąceń
przyjęte do obliczeń wynikają z faktu, że w rzeczywistości wtrącenia glinowe tworzą klastry
o rozbudowanej strukturze i różnym udziale Al2O3 w stosunku do fazy spajającej czyli
metalu.
Rys.3. Przyjęty do obliczeń model wtrącenia
niemetalicznego Al2O3
Rys.4. Punkty wpływania wtrąceń niemetalicznych
Al2O3 do kadzi pośredniej
15
Wyniki obliczeń
Po przeprowadzeniu obliczeń otrzymano trójwymiarowe rozkłady wektorów prędkości
stali wraz z polami turbulencji, które opisano szczegółowo w pracy [4]. Proces symulacji
wypływania wtrąceń niemetalicznych pozwolił na zobrazowanie drogi przepływu wtrąceń
korundowych przez kadź pośrednią od otworu wlewowego aż do chwili wypłynięcia z kadzi
lub przechwycenia ich przez warstwę żużla znajdującego się na powierzchni stali. Na rysunku
5 przedstawiono tor ruchu czterech wtrąceń niemetalicznych o średnicy 10 µm w kadzi
pośredniej bez przegrody, natomiast rysunek 6 pokazuje ten sam przypadek, tylko dla kadzi z
przegrodą. W obu przypadkach zastosowano model stochastyczny ruchu wtrąceń w ciekłej
stali.
Rys.5. Trajektoria przepływu 4 wtrąceń
niemetalicznych ( Al2O3) w kadzi pośredniej bez
przegrody
Rys.6. Trajektoria przepływu 4 wtrąceń
niemetalicznych (Al2O3) w kadzi pośredniej z
przegrodą
Udział %
Dystrybucję wtrąceń niemetalicznych w wewnątrz kadzi oceniono na podstawie analizy
statystycznej grupy 10000 wtrąceń. W tym celu przedstawiono wykresy ilości wtrąceń
niemetalicznych (Al2O3) wypływających ze stalą oraz przechwyconych do żużla, dla dwóch
geometrii kadzi. Rysunki 7 - 8 obrazują rozkład procentowy ilości wtrąceń przechodzących
do żużla oraz wypływających przez otwory wylewowe w zależności od średnicy i gęstości
wtrąceń niemetalicznych.
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
Wylew 3
Wylew 2
Wylew 1
1
5
10
25
50
75
100
Żużel
Wielkość wtrąceń niemetalicznych
[mikrometry]
Rys.7. Rozkład (%) udziałów wtrąceń niemetalicznych (Al2O3 ) o gęstości 3990kg/m3 w kadzi
pośredniej bez przegrody
16
Udział %
100%
90%
80%
70%
60%
50%
40%
30%
20%
10%
0%
Wylew 3
Wylew 2
Wylew 1
1
5
10
25
50
75
100
Żużel
Wielkość wtrąceń niemetalicznych
[mikrometry]
Rys.8. Rozkład (%) udziałów wtrąceń niemetalicznych (Al2O3 ) o gęstości 5000kg/m3 w kadzi pośredniej bez
przegrody
Z obliczeń modelowych wynika, że faza żużlowa może przechwycić od 50% do
prawie 100% w przypadku kadzi bez przegrody, a w przypadku zastosowania przegród od 80
do 100% wtrąceń tlenkowych (w zależności od wielkości wtrąceń).
Zmiana gęstości właściwej klasterów wtrąceń glinowych (w dopuszczalnym zakresie)
nie ma wpływu na ilość przechwytywanych wtrąceń przez żużel.
Wnioski
Zastosowany w obliczeniach symulacyjnych przestrzenny model przepływu ciekłej stali
w kadzi pośredniej pozwolił wyznaczyć trajektorie korundowych wtrąceń niemetalicznych i
ich dystrybucję. Na podstawie przeprowadzonych obliczeń można stwierdzić, że:
w miarę wzrostu wielkości wtrąceń niemetalicznych (w zakresie od 1µm do100 µm)
zwiększa się udział wtrąceń przechwytywanych przez żużel,
pochłaniana ilość wtrąceń niemetalicznych przez żużel świadczy dobrze o jego
rafinacyjnym działaniu co istotnie poprawia czystość odlewanej stali,
na wypływanie wtrąceń niemetalicznych ma nieznaczny wpływ ich gęstość,
badania przeprowadzone na kadzi pośredniej z przegrodą dowodzą, że stosowanie
przegród znacznie poprawia flotację wtrąceń i ich absorpcję do żużla,
przeprowadzony model będzie pomocny w zakresie optymalizacji konstrukcji
wewnętrznej kadzi, celem poprawienia czystości końcowej stali.
Literatura
1. Lis Teresa – Współczesne metody otrzymywania stali, Gliwice, 2000
2. www.fluent.com
3. Yuni Miki, Brian G. Thomas: Modeling of Inclusion Removal in a Tundish, Metalurgical and Materials
Transactions, August 1999
4. Adam Cwudziński, Damian Kosiński, Tomasz Merder: Modelowanie numeryczne przepływu stali w
wielootworowej kadzi pośredniej, Zeszyty Studenckiego Towarzystwa Naukowego Nr. 2, Wydawnictwo
Studenckiego Towarzystwa Naukowego, Kraków 2003
Opiekun naukowy referatu
dr hab. inż. Jan Jowsa, prof P.Cz.
mgr inż. Tomasz Merder
17
SPOSOBY BADAŃ PRZEPŁYWU STALI W KADZI
POŚREDNIEJ
Adrian Gonera, Przemysław Woliński
Studenckie Koło Naukowe „INFOMET”
Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej
Politechnika Częstochowska
1. Wstęp
Przemysł hutniczy charakteryzuje się wysokimi kosztami urządzeń hutniczych jak i
kosztami eksploatacji produkcji. Zminimalizować je można poprzez uzyskanie jak
największej wydajności przy zachowaniu dobrych własności stali. Urządzenia do ciągłego
odlewania stali pozwalają na maksymalne wykorzystanie mocy produkcyjnej urządzeń, dając
możliwość automatyzacji, mechanizacji i komputeryzacji procesu.
Technologia COS umożliwia odlewanie wlewków o przekroju kwadratowym,
prostokątnym lub kołowym oraz kęsisk o wymiarach bliskich wymiarom końcowym.
Urządzeniem, które w ostatniej fazie procesu produkcji ciekłej stali może w istotny sposób
poprawić jej czystość, jest kadź pośrednia COS. W kadzi pośredniej może zachodzić wiele
procesów chemicznych i fizycznych. Dlatego duży nacisk kładzie się na opracowanie
optymalnych rozwiązań przepływu medium, który zależy od geometrii wewnętrznej. W tym
celu stosuje się różnorodne badania, najczęściej stosuje się techniki modelowania, ze względu
na trudności związane z wysokotemperaturowymi obiektami. Powstało wiele prac które były
poświęcone badaniom rozmaitych aspektów metalurgii w kadzi pośredniej. W pracy
przedstawiono zarys problemów dotyczących badań modelowych, z szczególnym
uwzględnieniem modelowania matematycznego.
2. Współczesne metody badań modelowych
Istnieją trzy rodzaje metod badania zjawisk zachodzących podczas odlewania stali [1,2,3]:
Pierwszym rodzajem są badania na obiektach ,,gorących” czyli przeprowadzane
najczęściej w urządzeniach prototypowych i o znacznie mniejszej skali lub urządzeniach
przemysłowych. Ten ostatni rodzaj badań jest rzadko stosowany ze względu na dużą trudność
oraz koszty badań. W badaniach na obiektach metalurgicznych tj. kadziach odlewniczych,
kadziach pośrednich i katalizatorach można wyróżnić dwa sposoby pomiarów w fazie ciekłej
i fazie stałej.
W fazie ciekłej do opisania czystości stali i składu chemicznego ciekłej stali oraz żużla
wykorzystuje się próby tzw. ,,lizakowe”. Próbki te analizowane są spektograficznie lub
metodą chemiczną tzw. ,, na mokro” .
W celu określenia sfery przejściowej podczas odlewania różnych gatunków stali pobiera się
próbki lizakowe zasysające ciekłą stal z krystalizatorów co kilka minut w celu określenia
czasu po jakim zmieni się skład chemiczny kąpieli na wylewach (pojawi się nowy gatunek
stali na wylewie kadzi).
W fazie stałej wycina się próbki kęsisk wycina się próbki kęsisk w celu badań
metalograficznych np. określenie rozkładu wtrąceń za pomocą mikroskopów elektronowych.
Kolejnym metodą badań jest modelowanie fizyczne na obiektach zimnych.
Modelowanie fizyczne jest metodą powszechnie stosowaną. Pozwala ono uzyskać informację
o charakterze przepływu ciekłej stali przez urządzenie COS, a także daje informacje o
18
zjawiskach w trakcie jej mieszania. Główną uwagę w tej metodzie zwraca się na zjawiska
zachodzące w kadziach stalowniczych, kadziach pośrednich oraz na krystalizatorze ponieważ
mają one zasadniczy wpływ na efekty modelowania. Najczęściej modele fizyczne urządzeń
do ciągłego odlewania stali buduje się dzięki wykorzystaniu metod hydrodynamiki. W
modelach ciekłą stal zastępuje się najczęściej wodą, ponieważ jej lepkość kinetyczna w
temperaturze pokojowej jest zbliżona do lepkości ciekłej stali w temperaturze 1873 K.
Modele te buduje się z przeźroczystych materiałów tj. plexiglesu lub szkła się w celu
ułatwienia poglądowej oceny zachodzących zjawisk w badanym obiekcie. Pozwalają one
badać różne stany awaryjne, dzięki czemu można uniknąć większych strat. Modele wykonane
są według ściśle określonych zasad wynikających z teorii podobieństwa. Dotyczy to zarówno
konstrukcji samego modelu jak i metody prowadzonych badań. Ważnym elementem przy
badaniach modelowych dotyczących ciągłego odlewania stali jest spełnienie kryteriów
podobieństwa :
- podobieństwa geometrycznego obiektu i modelu – gdzie zachowane jest podobieństwo
wymiarów modelu i obiektu rzeczywistego tzn. stosunek odpowiednich wielkości jest stały
SL =
L'
= const
L
(1)
- podobieństwa hydrodynamicznego dla przepływu cieczy w modelu i obiekcie gdzie
wyróżniamy :
- podobieństwo kinetyczne - które zachowane jest jeżeli stosunek prędkości
(przyspieszenia) czynnika w geometrycznie podobnych punktach modelu i obiektu
rzeczywistego jest stały i wyraża się następującym wzorem :
V1' V2' V3' V4' Vi'
=
=
=
=
= SV
V1 V2 V3 V4 Vi
(2)
- podobieństwo cieplne – charakteryzowane jest jako stosunek parametrów cieplnych
występujących w modelu do zjawisk cieplnych zachodzącym w
obiekcie rzeczywistym i wyraża się wzorem :
T1' T2' T3' Ti'
=
=
=
= ST
T1 T2 T3 Ti
(3)
- podobieństwo dynamiczne – charakteryzowane jest przez siły oddziaływujące na
układ które mają wpływ na dynamikę przepływu i są ze sobą ściśle powiązane.
Podobieństwo dynamiczne wyraża skala dynamiczna opisana równaniem :
F1' F2' F3' F4' Fi'
=
=
=
=
= SF
F1 F2 F3 F4 Fi
(4)
Podobieństwa te realizuje się przy pomocy odpowiednich liczb kryterialnych, które muszą
być jednakowe co do wartości zarówno w modelu jak i w obiekcie rzeczywistym, a wyniki
badań uzyskane na modelach fizycznych odwzorowują wtedy warunki rzeczywiste pracy
obiektu.
Trzecim rodzajem badań jest modelowanie numeryczne z szerokim wykorzystaniu
metalurgii. W połączeniu z elektroniczną techniką obliczeniową dają one możliwości
rozwiązywania bardzo złożonych problemów. W ostatnich latach coraz powszechniej
stosowane są tego typu badania ze względu na rozwój techniki obliczeniowej.
Istnieje wiele korzyści z zastosowania tej metody. Często symulacja komputerowa
unaocznia nam zjawiska zachodzące w danym projekcie, które w inny sposób byłoby trudno
uwidocznić. Narzędzie to umożliwia w krótkim czasie symulację badanego zjawiska po
zadaniu wstępnych parametrów. Dobierając poszczególne parametry możemy otrzymać
optymalne wyniki. Otrzymane wyniki pozwalają znacznie szybciej i lepiej sięgać do
zamierzeń projektu, oszczędzając czas i finanse. Ten rodzaj modelowania zjawisk jest
wygodny, bo nie opuszczając biura możemy w krótkim czasie zrealizować projekt. Jest także
tańszy od innych metod, nie musimy wykonywać kosztownych modeli i przeprowadzać
19
również kosztownych i pracochłonnych badań eksperymentalnych. Metoda ta jest stosowana
coraz częściej w dziedzinie metalurgii. Do zamodelowania matematycznego charakteru
przepływu ciekłej stali przez poszczególne elementy urządzenia do ciągłego odlewania
wykorzystuje się równania Nawiera – Stoksa oraz równanie ciągłości przepływu.
Modelowanie matematyczne wymaga dużej wiedzy zarówno matematycznej, informatycznej
jak i technicznej związanej z metalurgią, która pozwoli sformułować, a następnie rozwiązać
właściwy model.
Wykorzystuje się w tej dziedzinie programy z zakresu CFD (Computational Fluid
Dynamics) [4] oparte na podstawach obliczeniowej mechaniki płynów. Programy tego typu
stają się coraz bardziej popularne w projektowaniu i optymalizacji różnych procesów
dynamicznych. Ważnym jest nawet przy stosowaniu sprawdzonych i uznanych programów
komercyjnych prawidłowe sformułowanie problemu, ustalenie warunków brzegowych oraz
przyjęcie odpowiedniej techniki i strategii postępowania.
3. Istotne cechy modelowania matematycznego
Pierwszym etapem metody numerycznej jest uwzględnienie układów równań
modelowych i wygenerowanie dla badanej geometrii siatki obliczeniowej (2D lub 3D) w
zależności od obiektu. Tworzenie siatki polega na określeniu liczby węzłów w obiekcie.
Siatki mogą być generowane jako strukturalne , niestrukturalne lub hybrydowe. Siatki
hybrydowe stosowane są w obiektach o bardzo złożonym kształcie. Z pośród wielu
programów do generowania siatek należy wymienić program Gambit. Jest to program CADowski w którym możliwe jest samodzielne tworzenie geometrii i siatki obliczeniowej lub
importowanie ich z innego programu CAD-owskiego.
Kolejnym etapem jest ustalenie warunków brzegowych – przez przyporządkowanie
ich brzegom geometrii. Wybierając warunki brzegowe przypisujemy odpowiednim
wielkościom wartości dla: np. brzegu odpowiadającemu wlewowi stali do kadzi (zadajemy
prędkość wpływającego medium, intensywność turbulencji, temperaturę medium);na
brzegach odpowiadającym ścianom kadzi przypisujemy straty cieplne. Dane dotyczące
właściwości mediów (gęstość, lepkość, ciepło właściwe, przewodność cieplną) wybieramy z
bazy programu lub tworzymy własną bazę własności termo – chemicznych.
Następnie wybieramy parametry stosowanej metody numerycznej: określamy błąd
aproksymacji , rodzaj aproksymacji składników konwekcyjnych równań pędu, korekcji
ciśnienia itp. Po ustaleniu tych wszystkich parametrów uruchamiamy obliczenia iteracyjne.
Jednym z kilku programów z gatunków CFD jest komercyjny program Fluent służący
do zagadnień przepływów gazów i cieczy jedno- lub wielo fazowych z możliwością wymiany
ciepła.
4. Przykłady modelowych badań w metalurgii
W obliczeniach dotyczących modelowania przepływu ciekłej stali w kadzi pośredniej
wykorzystany został komercyjny program FLUENT, wyposażony w preprocesor GAMBIT
służący do generacji siatki punktów węzłowych.
Otrzymane przykładowe wyniki ujawniają ruch metalu w kadzi oraz towarzyszące
temu zjawiska. Po dokonaniu obliczeń możemy uzyskać przestrzenny rozkład wektorów
prędkości, pól turbulencji i temperatury lub przedstawić je na interesujących nas
płaszczyznach. Rysunki 2 i 3 przedstawiają wektory prędkości w kadzi pośredniej.
20
0,5 m/s
0,03 m/s
Z
Z
X
Y
X
Y
Rys. 2. Rozkład wektorów prędkości stali Rys. 3. Rozkład wektorów prędkości stali
(m/s) stali na płaszczyźnie D
(m/s) stali na płaszczyźnie C
Rysunek 4 pokazuje rozkład pól temperatur i turbulencji w kadzi .
Rys.4. Izotermy stali w (K) na płaszczyźnie przechodzącej przez wylewy kadzi
5. Wnioski
Jeszcze niedawno optymalizacja procesów przepływu ciekłej stali w urządzeniach
hutniczych opierała się na modelach wodnych. Ciągły rozwój obliczeniowych metod
modelowania przepływów oraz rozwój komputerów stworzył dodatkową metodę badawczą
nie posiadającej takich ograniczeń jak badania na obiektach rzeczywistych lub modelach
wodnych.
Mając do dyspozycji program obliczeniowy i wydajną jednostkę obliczeniową
możemy w bardzo krótkim czasie i niedużych nakładach finansowych uzyskać rozwiązanie
stawianego problemu. Modelowanie matematyczne jest narzędziem coraz powszechniej
stosowanym. W świecie corocznie jest publikowanych kilkaset artykułów z wynikami badań
opartych na tej metodzie prezentujących różne dziedziny życia.
literatura
[1] S. Singh, S.C. Koria: ISIJ International, vol. 33, 1993, nr. 12, s. 1228.
[2] D. Mazumdar, G. Yamanoglu, R. Guthrie: Steel Research, vol.68, nr. 7, 1997, s. 293.
[3] D. Mazumdar, G. Yamanoglu, R. Shankarnarayanan, R. Guthrie: Steel Research, vol. 66,
nr. 1, 1995, s. 14.
[4] http://www.fluent.com/solutions/examples/x112.htm
Opiekun pracy
mgr inż. Tomasz Merder
21
MODELOWANIE NUMERYCZNE WYPŁYWANIA
STALI Z KADZI
Anna Herdzik, Ewelina Wrześniak
Studenckie Koło Naukowe „INFOMET”
Katedra Ekstrakcji i Recyrkulacji Metali
POLITECHNIKA CZĘSTOCHOWSKA
1.Wstęp
W odpowiedzi na zapotrzebowania klienta, światowa metalurgia stali jest
ukierunkowana na wytwarzanie produktów o bardzo wysokiej jakości. Warunki stawiane
przez kontrahentów, związanych z hutami mogą być spełnione dzięki wprowadzeniu na
wydziałach stalowni procesu ciągłego odlewania stali. Technologia COS pozwala odlewać
wszelakie gatunki stali, praktycznie bez ograniczeń kształtu wlewka. Ciągłe odlewanie stali
we współczesnej metalurgii wypiera konwencjonalne metody odlewania stali. Proces ciągłego
odlewania to powiązane ze sobą operacje, od przebiegu których zależy jakość odlanego
wlewka ciągłego.
Podczas procesu odlewania ciekły metal dostarczany w kadzi stalowniczej, przelewany
jest poprzez wylew do kadzi pośredniej, która zapewnia odpowiednie dozowanie metalu do
krystalizatorów. W krystalizatorze (chłodzonym wodą), zachodzi wstępny proces krzepnięcia
wlewka, a zastygające pasmo ciągnione jest przez system rolek chłodzących. Aby otrzymać
stal dobrej jakości, należy kontrolować etapy przejścia stali pomiędzy tymi obiektami tak, by
nie nastąpiło wtórne natlenienie, oraz aby ograniczyć lub uniemożliwić przedostanie się żużla
do kąpieli metalowej. Dlatego ważne jest zabezpieczenie strumienia stali osłonową rurą
ceramiczną, oraz określenie wysokości krytycznej stali w kadzi, przy której zaczyna się
tworzyć lej, który jest przyczyną zasysania żużla.
Proces ciągłego odlewania stali jest ściśle zintegrowany z systemem kadzi lejniczych
spełniających rolę: reaktorów w których stal jest nagrzewana (energią elektryczną, bądź
pochodzącą w wyniku przebiegu reakcji chemicznych), reaktorów pozwalających na
mieszanie ciekłej kąpieli (gazem obojętnym lub cewką indukcyjną), reaktorów dających
możliwość wprowadzania dodatków stopowych (zestaw dozowników, druty rdzeniowe, czy
mechanizm wdmuchiwania dodatków). W niektórych kadziach stalowniczych można
regulować ciśnienie i skład atmosfery gazowej nad powierzchnią kąpieli [1]
Dla zapewnienia odpowiedniej jakości ciekłej stali należy zapobiegać jej wtórnemu
utlenianiu i ograniczać zawartość wtrąceń niemetalicznych. W pierwszym przypadku
stosujemy osłony ceramiczne i nadmuch strumienia argonu, aby zmniejszyć powierzchnię
kontaktu miedzy ciekłą stalą a powietrzem atmosferycznym. W drugim przypadku należy
zapobiegać i minimalizować ilości przenoszonego żużla na odcinku kadź stalownicza-kadź
pośrednia-krystalizator, ze względu na jego ujemny wpływ na proces produkcji i jakość
wyrobu gotowego. Przyczyną części trudności wynikających z przedostawania się żużla z
kadzi wraz z metalem jest powstawanie zawirowań podczas spustu. Żużel może być
transportowany w dół przez rdzeń takich zawirowań nawet do najgłębszych warstw ciekłej
stali w kadzi pośredniej. W celu zapobiegania zaciągania żużla do stali, stalownicy musieli
prowadzić wzrokowe obserwacje strumienia metalu, metoda ta jest jednak dość nieefektywna
i niebezpieczna. Wprowadzono także automatyczne programy wychwytywania żużla w kadzi
np. system AMEPA [2] Zagadnienie związane z ograniczeniem zaciągania żużla jest wciąż
doskonalone i badane metodami modelowania na obiektach fizycznych - tzw. modele zimne, i
22
modelowania numerycznego za pomocą programów komputerowych, umożliwiających
symulację procesów metalurgicznych. W pracy wykorzystano komercyjny program FLUENT
służący do obliczania przepływów cieczy lub gazów i jego preprocesor GAMBIT, w którym
wykonuje się geometrię modelowanego obiektu i jego siatkę. Obliczenia modelowe, oparto na
metodzie numerycznej Volume of Fluid (VOF) pozwalającej określić zachowanie się fazy
żużlowej na fazie metalowej podczas opróżniania kadzi stalowniczej.
W oparciu o własne, modelowe obliczenia na obiekcie 2D, starano się ustalić wysokość
krytyczną powstawania leja bezwirowego. Szczegółowo przeanalizowano zjawisko tworzenia
się leja bezwirowego (symulacja komputerowa) podczas spustu stali z kadzi. Zależność
opisującą opróżnianie naczynia w obszarze krytycznym można znaleźć w oparciu o równania
Bernoulliego i elementy analizy bezwymiarowej. Ze względu na brak możliwości
sprawdzenia tego procesu w obiekcie wysokotemperaturowym, wykorzystane zostały
symulacje numeryczne dla ruchu różnych cieczy, co pozwoliło określić wysokość krytyczną
dla rzeczywistego obiektu.
2. Charakterystyka obiektu
Symulację komputerową przeprowadzono na kadzi stalowniczej o pojemności 130 Mg
(rys.1), której podstawowe wymiary przedstawia tabela 1.
Rys.1. Schemat Kadzi stalowniczej wykorzystanej w badaniach
Tabela 1. Własności fizyczne płynów użytych w obliczeniach
Średnica
Średnica
Wysokość
Średnica
górna kadzi,
dolna kadzi,
kadzi,
otworu wylewowego,
D1
D2
H
d
[mm]
[mm]
[mm]
[mm]
3060
2870
2964
50
Długość
rury wylewowej,
l
[mm]
780
3. Model matematyczny
Zastosowano wielofazowy model matematyczny VOF ( Volume of Fluid) [3], który
zakłada współistnienie kilku faz, określonych ułamkiem objętościowym w przestrzeni
obliczeniowej. Model matematyczny zawiera równia ciągłości i pędu. Rozwiązania modelu
pozwala określić wysokość krytyczną (poniżej której nie można opróżniać kadzi), aby wraz z
metalem nie wydostawał się żużel.
4. Zakres badań
W obliczeniach rozważono trzy przypadki:
stal-powietrze
woda-powietrze
woda- olej-powietrze
23
Tabela 2. Własności fizyczne płynów
Płyn
Gęstość, kg/m3 Lepkość, kg/(m⋅s)
Powietrze
1.225
1.789e-05
Woda
998.2
0.001003
Olej „Dow 50”
960
0.048
Ciekła stal
7010
0.007
Rys.2. Przypadki rozważane w obliczeniach A) stal-powietrze, B) woda-powietrze, C) woda-olej-powietrze
Obszar obliczeniowy (2D) wraz z siatką niestrukturalną i przyjętymi warunkami
brzegowymi przedstawionymi w tabeli 3 i na (rys.3) wygenerowano w programie Gambit, a
obliczenia numeryczne wykonano za pomocą komercyjnego kodu Fluent [4].
Tabela 3. Szczegółowe wymiary obiektu
Obszar kadzi
Lustro metalu
Otwór
stalowniczej
lub żużla
wylewowy
Warunki
„pressure
„pressure
brzegowe
inlet”
outlet”
Oś symetrii
„axis”
Pozostałe elementy
geometrii obiektu
„wall”
Rys.3. Warunki brzegowe i siatka obliczeniowa badanego obiektu
5. Wyniki obliczeń
Na rysunkach 4-6 przedstawiono początkowy etap tworzenia się leja bezwirowego dla
przypadków rozpatrywanych podczas obliczeń modelowych. W wyniku obliczeń otrzymano
wartości wysokości krytycznej pojawienia się leja bezwirowego, które przedstawia tabela 4.
Tabela 4. Wartości wysokości krytycznej
Rozpatrywany układ fazowy Stal-powietrze Woda-powietrze Woda-olej-powietrze
Wysokość krytyczna [m]
0.02
0.022
0.07
24
Rys.4. Powierzchnia międzyfazowa stal-powietrze,
proces tworzenia się leja bezwirowego
Rys.5. Powierzchnia międzyfazowa woda-powietrze,
proces tworzenia się leja bezwirowego
Rys.6. Powierzchnia międzyfazowa woda-olej-powietrze, proces tworzenia się leja bezwirowego
6. Wnioski
Zastosowany model VOF jest odpowiedni dla zobrazowania procesu tworzenia się leja
bezwirowego nad otworem wylewowym kadzi stalowniczej. Bazując na przeprowadzonych
obliczeniach możemy stwierdzić że:
model woda-olej-powietrze daje dobrą prognozę symulacji układu rzeczywistego stalżuzel-powietrze,
na podstawie wysokości krytycznej możliwe będzie określenie optymalnego poziomu
ciekłej stali w kadzi, gwarantującego minimalne zaciągania żużla kadziowego, co w
efekcie przyczyni się do:
• poprawa czystości stali, przez zmniejszenie ilości wtrąceń niemetalicznych
• wydłużenie sekwencji odlewania na kadzi pośredniej.
Opiekun naukowy referatu
dr hab. inż. Jan Jowsa
mgr inż. Marek Warzecha
[1]
Lis Teresa – Współczesne metody otrzymywania stali, Gliwice, Rok 2000
B. Allemand, Y. Zbaczyniak: „Oddanie do eksploatacji w hucie Dollac Dunkierka układu amepa do
wykrywania żużla przedostającego się z kadzi odlewniczej do kadzi pośredniej“, Tłumaczenia Techniczne-617,
Rok 1996
[3]
. C.W. Hirt, B.D. Nichols: „J. Computation. Phys.”, vol.39, 1981, 201-225
[4]
www.fluent.com sa – Współczesne metody otrzymywania stali, Gliwice, Rok 2000
[2]
25
KOMPUTEROWE GROMADZENIE INFORMACJI W
BAZACH DANYCH
Michał Tomasik
Studenckie Koło Naukowe „INFOMET”
Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej
Politechnika Częstochowska
Baza danych jest to rodzaj komputerowego zbioru kartotek - czyli magazyn danych o
określonej budowie. Baza danych jest modelowym ujęciem fragmentu rzeczywistości
będącego przedmiotem zainteresowania osób, instytucji, organizacji, firm, zakładów itp.,
reprezentującym fakty dotyczące tej rzeczywistości
w formie umożliwiającej ich
przetwarzanie w komputerze. Prostymi przykładami baz danych są spisy towarów, rozkłady
jazdy, ewidencje pracowników, wykazy płatnicze, wszelkiego rodzaju rejestry bankowe,
kartoteki urzędowe, katalogi biblioteczne, książki telefoniczne, szpitalne historie chorób,
dzienniki lekcyjne, księgi parafialne itd. Wszystkie one powinny spełniać jeden warunek: ich
tworzenie, przechowywanie, uaktualnienie i przeszukiwanie powinno się odbywać przy
wykorzystaniu komputera.
Jednym z najpopularniejszych, wystarczająco zaawansowanych i profesjonalnych
programów do zarządzania bazami danych jest Microssoft Access. Nie jest on, jak się mylnie
uważa, bazą danych, lecz systemem zarządzającym bazą danych (DBMS- Database
Managment System), za pomocą którego można tworzyć i administrować bazami danych.
Access jest systemem zarządzania relacyjnymi bazami danych; oznacza to, że poszczególne
tabele mogą być ze sobą powiązane.
Wykonana baza danych przedstawia przykładowy rejestr - spis filmów rozbudowany o
ich opisy, aktorów, reżyserów, gatunków filmowych itp. Jest ona dobrym przykładem
możliwości tego programu.
Access należy do systemów zarządzania relacyjnymi bazami danych, co oznacza, że
poszczególne tabele mogą być ze sobą powiązane. Pomimo tego, że wszystkie obiekty bazy
danych znajdują się w jednym pliku istnieje możliwość importowania / eksportowania
pojedynczych tabel.
Microsoft Access jest zaawansowanym programem baz danych, ale jego dużym
atutem jest dostępność dla mniej doświadczonych użytkowników.
Poniższa tabela zawiera rekordy odpowiadające opisowi filmów z następującymi
polami: Numer Filmu, Numer Płyty, Tytuły Polski, Gatunek itd. Każdy wiersz – film posiada
przypisany podarkusz danych opisujący Imię i Nazwisko Aktora oraz Dane Osobowe Aktora.
Ten z kolei posiada następny podarkusz, który zawiera biografię danego Aktora.
Przykład ten dobrze obrazuje możliwości przedstawienia danych za pomocą tabel
programu Microsoft Access. Prostszym sposobem i bardziej przejrzystym do zamieszczania
danych w danej tabeli jest wykorzystanie formularzy, a poza tym oferującym możliwość
wprowadzania danych bezpośrednio z jednej tabeli do drugiej, co eliminuje ewentualne błędy
podczas wprowadzania danych.
Formularz jest blankietem wyświetlającym na ekranie monitora zawartość
poszczególnych rekordów, które można przeglądać, modyfikować bądź wprowadzać nowe.
26
Formularze oferują ponadto możliwość dowolnych zmian szaty graficznej jak i układu pól w
widoku formularz.
Rysunek 1. Tabela Opis filmów
Rysunek 2. Przykładowy formularz Opis filmów
Jak widać formularz oprócz pól tekstowych może zawierać obiekty graficzne, służące
do przedstawienia, w tym wypadku, plakatu filmu, ale może to być również zdjęcie danego
pracownika czy produktu-wyrobu, itp.
W większości przypadków typowa zawartość bazy danych przekracza nasze doraźne
potrzeby, gdyż zazwyczaj chcemy uzyskać jedynie część danych potrzebną w danym
momencie np. chcemy dowiedzieć się, ile powstało filmów w danym roku lub określonego
reżysera. Aby skoncentrować się na tych istotnych informacjach, bez przedzierania się przez
resztę danych, stosujemy narzędzia umożliwiające sortowanie oraz filtrowanie.
Opiekun pracy
Mgr inż. Marek Warzecha
27
BEZPIECZEŃSTWO INFORMACJI ELEKTRONICZNEJ
Marcin Niemiec
Katedra Telekomunikacji
Akademia Górniczo-Hutnicza
Wszechobecność komputerów, powiększająca się sieć Internet, skomputeryzowane
hale produkcyjne, ciągły rozwój technologii cyfrowych ... Wszystko to wskazuje na to że
stajemy się społeczeństwem informatycznym. Informacja elektroniczna (rozmowy
telefoniczne, poczta elektroniczna, dane na dyskach komputerowych, itd.) staje się więc
główną formą informacji. Tu jednak pojawia się pewien problem – bezpieczeństwo.
Informacja elektroniczna narażona jest na szereg różnych ataków. W celu jej zabezpieczenia,
stworzono wiele różnych mechanizmów ochrony.
Informacja w formie elektronicznej, przede wszystkim dlatego stała się tak popularna,
ponieważ stosunkowo prosto można ją przesłać w inne, często bardzo odległe miejsce. I tak,
zamiast przewozić stertę akt czy książek, można to zrobić o wiele prościej i szybciej za
pomocą sieci komputerowej. Taka technika wymaga jednak zapewnienia wysokiego poziomu
bezpieczeństwa – w zależności oczywiście od wagi przesyłanych obiektów. Bezpieczeństwo
danych w sieci, staje się szybko jednym z najpoważniejszych problemów z którym styka się
współczesna telekomunikacja. Ogromne sumy przeznaczane na bezpieczeństwo i wciąż nowe
techniki ochrony, świadczą jak żywym problemem stała się dziś jej poufność.
Bardzo ważnym i zarazem najprostszym sposobem są podstawowe, nieprogramowe
sposoby ochrony: alarmy w salach informatycznych, identyfikacja osób w budynku, itp.
Szacuje się ze większość znanych ataków na poufność danych, była możliwa „dzięki”
zaniedbaniu tych właśnie aspektów. Innym rodzajem są programy i techniki informatyczne
wspomagające ochronę informacji. Nim właśnie będzie poświęcony ten referat.
Aby móc skutecznie chronić dane, należy zastanowić się na jakie ataki będą one
narażone. Przyjmuje się, że każdy sieciowy atak można zaliczyć do jednego z czterech
podstawowych rodzajów: podsłuchiwanie (ang. interception), przerwanie łączności (ang.
interruption), zmiana informacji (ang. modyfication) i fabrykowanie danych (ang.
fabrication).
Bierny atak, czyli podsłuchiwanie transmitowanych informacji, jest zwykle
najłatwiejszy do przeprowadzenia, lecz w wielu przypadkach nie powoduje on katastrofy.
Jeśli na przykład uda się komuś „podsłuchać” jakiś czujnik temperatury, dowie się o niezbyt
istotnej rzeczy. Jeśli natomiast doprowadzi do przerwania łączności z tym czujnikiem (drugi z
grupy ataków), może to spowodować o wiele większe szkody: np. wywołać alarm pożarowy.
Kolejnym atakiem na spójność danych jest modyfikacja. Nietrudno się domyślić jak ważą
sprawą jest ona w przypadku transakcji bankowych. Dodanie kilku zer na swoim koncie jest
marzeniem niejednego hakera. Ostatnim z grupy jest fabrykowanie danych. Oszust
komputerowy podszywa się wtedy pod inną osobę i dzięki temu jest w stanie wprowadzić w
błąd odbiorcę sfabrykowanych informacji lub uzyskać od niego jakieś poufne dane.
Stosując różne metody ochrony przed opisanymi atakami, należy pamiętać o
podstawowej zasadzie: czym większe bezpieczeństwo systemu tym mniejsza jego wydajność
i funkcjonalność. Zależność taka została przedstawiona na rysunku 1:
28
Rys.1. Wydajność systemu informatycznego w zależności od poziomu bezpieczeństwa
Wynika z niego że najwydajniejsze są systemy bez zabezpieczeń, natomiast systemy
bardzo bezpieczne są mało wydajne. Sztuką jest znaleźć kompromis pomiędzy tymi dwoma
wielkościami.
Dwie podstawowe techniki ochrony danych przed atakami to uwierzytelnianie i
szyfrowanie. Przy czym pierwsza zabezpiecza przed dostępem do informacji, a druga przed
jej odczytaniem przez osoby niepożądane.
Uwierzytelnianie jest technika sprawdzania tożsamości, sprawdza czy dana osoba jest
naprawdę tą za którą się podaje, czy może jest to intruz. Uwierzytelnianie użytkowników
odbywa się najczęściej za pomocą: hasła, klucza, karty inteligentnej, cech biologicznych
(głos, linie papilarne, analiza siatkówki czy tęczówki oka, itp.). Najprostszym i
najpopularniejszym jest stosowanie haseł: jest to tania technika, trudna do zgadnięcia (zwykle
!), prosta do zapamiętania, przenośna, łatwa do zmiany i konfiguracji.
Szyfrowanie, czyli takie przetworzenie danych, aby stały się one niemożliwe do
odczytania przez osoby niepowołane, jest kolejnym ze sposobów ochrony informacji.
Obecnie jest jednym z najlepszych, o czym świadczy najlepiej powszechność jego
stosowania.
Typowy kryptosystem zawiera:
- alfabet, za pomocą którego można zaprezentować zakodowaną informację
(kryptogram)
- klucze, za pomocą których kodujemy i dekodujemy informacje,
- algorytm kodowania i algorytm dekodowania informacji.
Szyfrowanie informacji kojarzy się najczęściej z utajnianiem informacji wojskowych,
działalnością wywiadu czy przesyłaniem dokumentów kanałami dyplomatycznymi.
Faktycznie, do niedawna kryptografia była stosowana jedynie do takich celów, jednak rozwój
teleinformatyki spowodował konieczność jej cywilnego zastosowania. To właśnie dzięki niej
jest możliwe działanie telefonów komórkowych, wypłata gotówki z bankomatu, itp.
Najstarszą znaną techniką kodowania był szyfr Cezara z I wieku przed Chrystusem.
Polegała ona na zastępowaniu każdej z liter, literą stojącą w alfabecie dwa miejsca dalej, czyli
np. zamiast ‘a’ pisano ‘c’, zamiast ‘m’ pisano ‘o’, zamiast słowa ‘vici’ pisano ‘xkek’. Wraz z
rozwojem cywilizacji udoskonalano ten szyfr, jednak najpoważniejszą jego wadą była słaba
odporność na atak alfabetyczny. Okazuje się że w danym języku, każda litera ma swą własną
częstość występowania: np. w języku polskim, litera ‘A’ występuje w tekście z
prawdopodobieństwem 8,49 %, natomiast litera ’H’ z częstością 1,19 %. Znając więc częstość
29
występowania wszystkich liter w danym języku, można łatwo rozszyfrować tekst: należy w
tym celu policzyć częstość występowania liter w zakodowanym tekście, a następnie
sprawdzić jakim naprawdę literom ona odpowiada.
Prawdziwą rewolucją w dziedzinie kryptografii, stała się maszyna szyfrująca Enigma
– najbardziej znany system szyfrujący w historii kryptografii Za jej pomocą wojsko
niemieckie w czasie II wojny światowej szyfrowało tajne informacje.
Rys.2. Maszyna szyfrująca Enigma
Zasada działania tej maszyny szyfrującej polegała na kilkakrotnej zmianie (w
zależności od liczby kół) danej litery na inną, w zależności od ciągle zmieniającego się
położenia kół (wirników). Analiza tekstu szyfrowanego była wyjątkowo trudna, ponieważ w
trakcie kodowania koła Enigmy mogły znajdować się w wielu różnych pozycjach:
przykładowo dla maszyny z pięcioma wirnikami mamy 11 881 376 różnych możliwości
zakodowania danej litery.
Warto przypomnieć że jako pierwsi, kody Enigmy przełamali polscy naukowcy.
Obecnie stosuje się wiele różnych metod szyfrowania. Odpowiednia metoda powinna
być wybierana w zależności od wagi szyfrowanej informacji. Do niedawna najczęściej
stosowana techniką był algorytm DES (ang. Data Encryption Standard), wprowadzony do
celów niemilitarnych przez rządową agencje USA. Dziś jest wypierany przez inne,
konkurencyjne metody: IDEA, RSA, Rabin, itp.
Współczesne szyfry wykorzystują binarność informacji elektronicznej, czyli taką
zaletę że wszystkie dane mają postać zer i jedynek. Wspomniane metody kodowania danych,
polegają na wielu różnych zmianach tych ciągów zer i jedynek, tak aby całkowicie ukryć ich
pierwotny porządek.
Jedną z ciekawszych metod jest szyfrowanie z wykorzystaniem krzywych
eliptycznych. Pole ona na tym, że wybierana jest pewna krzywa oraz dwa punkty na niej
leżące. Następnie przeprowadza się dwie proste, z których jedna przecinając krzywą
wyznaczy zaszyfrowaną lub rozszyfrowaną informację. Obecnie technika ta należy do
jednych z najlepszych metod utajniania informacji.
Często w celu większej ochrony, nie ujawnia się sposobu szyfrowania danych. Ten
sposób wykorzystują operatorzy telefonii komórkowej. Wiadomo jedynie że do ochrony są
stosowane tam m.in. algorytmy oznaczone jako A3 i A8. Technika ta jest objęta ścisłą
tajemnicą.
30
Analizując współczesne systemy teleinformatyczne, można zauważyć że stosowane są
w nich wszelkie możliwe sposoby ochrony informacji. Tworzone w tym celu protokoły
bezpieczeństwa, integrują w sobie różne metody utajnienia.
Przykładowym protokołem służącym do zabezpieczeń komunikacji w lokalnych
sieciach komputerowych może być Kerberos (czyli Cerber z mitologii greckiej). Stworzony w
Massachusetts Institute of Technology zawiera w sobie szereg technik bezpieczeństwa.
Przede wszystkim, za jego pomocą, odbywa się uwierzytelnianie klientów chcących uzyskać
dostęp do sieci. Stosowane są algorytmy szyfrowania – cała komunikacja następuje w postaci
zaszyfrowanej. W celu dodatkowego bezpieczeństwa wprowadzono techniki dystrybucji
nowych kluczy, za pomocą których klienci bezpiecznie szyfrują dane. Poza tym
zaimplementowana jest w nim możliwość podpisów cyfrowych. Cały ten protokół jest
techniką niezwykle skomplikowaną, ale zapewnia wysoki poziom bezpieczeństwa.
Dynamiczny rozwój sieci bezprzewodowych, jaki można zaobserwować w ostatnich
latach, stawia przed inżynierami telekomunikacji wyzwanie zapewnienia bezpieczeństwa.
Autor referatu zajmuje się jednym z takich problemów.
Tworzone są obecnie podstawy teoretyczne nowego protokołu routingu w sieciach
mobilnych. Ze względu na wykorzystywane medium transmisyjne – fale radiowe, łatwo jest
przechwycić transmitowane dane i uzyskać niepowołany dostęp do sieci. Nowy protokół musi
zapewnić więc wysoki poziom bezpieczeństwa, przy możliwie niskim nakładzie
obliczeniowym. Na XXVIII Międzynarodowej Studenckiej Sesji Naukowej chciałbym
przedstawić własny model protokołu bezpieczeństwa, który być może zapewni w przyszłości
poufność w sieciach mobilnych.
31
PAN I WPAN – MAŁE SIECI TELEINFORMATYCZNE W
ZASTOSOWANIACH DOMOWYCH I PRZEMYŚLE
Michal Martynkiewicz
AGH Kraków
Katedra Telekomunikacji
Rozwój sieci komputerowych sprawił, że oplatają nas one coraz bardziej, coraz
gęstszą i mocniejszą „pajęczyną”. Sieci teleinformatyczne możemy podzielić na kilka
rodzajów, w zależności od przyjętego kryterium. Jednym z nich jest zasięg danej sieci. Mając
na uwadze wspomniane kryterium, sieci teleinformatyczne możemy podzielić na: WAN –
Wide Area Network (sieci rozległe), MAN - Metropolitan Area Network (sieci miejskie),
LAN – Local Area Network (sieci lokalne) i PAN (Personal Area Network). Każdy rodzaj
wymienionych sieci komputerowych posiada odrębne obszary zastosowań, od bardzo dużych
sieci globalnych (WAN) zajmujących się transmisja danych na wielkie odległości po sieci
klasy PAN, które służą do komunikacji urządzeń elektronicznych na niewielkie odległości.
Sieci klasy PAN są bardzo interesującym zagadnieniem, między innymi ze względu na
zaawansowane rozwiązania techniczne, na których bazują, ogromny wachlarz możliwych
zastosowań – ograniczony głównie inwencją firm zajmujących się implementacją tej techniki
w urządzeniach elektronicznych. Przewidywany jest prężny rozwój sieci teleinformatycznych
tej klasy w najbliższym czasie spowodowany niskim kosztem urządzeń dla odbiorcy
końcowego i mnogością możliwych zastosowania takich sieci zarówno w przemyśle jak i w
zastosowaniach domowych.
Skrót PAN możemy przetłumaczyć jako osobiste sieci komputerowe. Sieci
dedykowane są do dokonywania transmisji sygnałów cyfrowych na niewielkie odległości.
Maksymalna odległość, na jaką może zostać przeprowadzona transmisja w urządzeniach
wyposażonych w takie interfejsy kształtuje się na poziomie 10 – 20 m. Rozważając tę
technikę pod względem medium transmisyjnego, małe sieci teleinformatyczne możemy
podzielić przewodowe i bezprzewodowe. Najbardziej perspektywiczny jest rozwój sieci
bezprzewodowych. Małe sieci bezprzewodowe rozwiązują wiele problemów, z którymi
borykano się przy łączeniu urządzeń elektronicznych, wymieniających miedzy sobą dane na
niewielkie odległości. Technika WPAN uwalnia użytkowników od połączeń przewodowych,
od potrzeby łączenia za pomocą przewodów urządzeń, chcących dokonać między sobą
transmisji. Wachlarz możliwych zastosowań tej techniki jest bardzo szeroki, dla przykładu
można podać: transmisja zdjęć lub sekwencji video z aparatu cyfrowego do komputera,
transmisja dźwięku z domowego sprzętu HiFi lub walkmana do bezprzewodowych
słuchawek. Za pomocą takich rozwiązań technicznych możemy uwolnić się też od
przewodów w myszce i klawiaturze komputerowej, możemy wymieniać dane pomiędzy
dwoma organizerami osobistymi czy palmtopami, które są w stanie przesyłać między sobą na
przykład numery telefonów i kontakty wspólnych znajomych, ich elektroniczne wizytówki,
różnego rodzaju dokumenty elektroniczne i wiele innych rodzajów danych. Te same dane
mogą przesyłać między sobą telefony komórkowe, mające w sobie zaimplementowane
odpowiednie moduły do komunikacji w technologii WPAN. Z techniki tej mogą również
korzystać użytkownicy komputerów przenośnych dokonując wymiany danych na rożnego
rodzaju spotkaniach i konferencjach. Opisywane techniki transmisji danych równie dobrze
mogą spisywać się w przemyśle. Również w tej dziedzinie można zaproponować wiele
32
rozwiązań technicznych dla urządzeń tej klasy. Przykładem niech będą różnego rodzaju
czujniki i urządzenia telemetryczne, które przekazują wyniki dokonanych pomiarów do
urządzenia zbiorczego, którym może być dla przykładu komputer właśnie za pomocą
bezprzewodowych „pikosieci”.
Urządzenia pracujące w standardzie 802.15 (taki numer posiadają standaryzacje
Międzynarodowej Uni Telekomunikacyjne) mogą charakteryzować się bardzo zróżnicowaną
przepustowością. Prędkości transmisji wahają się od kilkunastu kilobitów do kilkudziesięciu
Megabitów na sekundę. Tak duże zróżnicowanie spowodowane jest dużą ilością możliwych
zastosowań tych urządzeń – wysokie prędkości transmisji pozwalają zaspokoić
użytkowników potrzebujących dużych transferów danych. Małe prędkości transmisji mogą
być wykorzystywane dla przykładu w urządzeniach telemetrycznych, które przesyłają do
systemu małe ilości danych, a co za tym idzie mogą być zasilane ze źródeł bateryjnych,
a zatem uniezależnia się takie urządzenia od sieci energetycznej. Zakłada się obecnie ze czas
życia urządzeń będzie równy czasowi życia baterii w nim się znajdującej (okres życia
urządzeń dochodzący do kilku lat). Niemałą też role mogą odegrać pikosieci przewodowe –
głównie w przemyśle. Obecnie sztandarowym przykładem takich rozwiązań jest samochód
firmy BMW. W tej limuzynie zamontowanych jest 16 komputerów różnego rodzaju
połączonych ze sobą przewodami światłowodowymi tworząc mała sieć teleinformatyczną.
Rozwój technik transmisji tej klasy pozwala przypuszczać, iż już niedługo opisywane
technologie zagoszczą również w naszych domach. Ludzie będą mogli coraz szerzej
korzystać z oferowanych przez nie możliwości. Bardzo duże możliwości zastosowań
bezprzewodowych i przewodowych „pikosieci” czynią ten temat szczególnie interesujący.
33
GPS - GLOBAL POSITIONING SYSTEM
Kasia Dobrowolska
Wydziału Geodezji Górniczej i Inżynierii Środowiska
Akademii Górniczo-Hutniczej w Krakowie
Globalny System Pozycjonowania jest systemem nawigacji satelitarnej, składającym
się z 24 satelitów Ministerstwa Obrony Stanów Zjednoczonych, rozmieszczonych w sześciu
planach orbitalnych. Pierwotnie opracowany dla potrzeb nawigacji amerykańskich łodzi
podwodnych, system GPS dostarcza użytkownikom dokładnych informacji o czasie,
położeniu i prędkości.
Obecnie jego „globalność” wyraża się w powszechnej dostępności sygnału
satelitarnego GPS 24 godziny na dobę we wszystkich zakątkach świata. Wszystkie satelity
transmitują sygnał, używając niezależnych kodów dla wyróżnienia sygnałów z
poszczególnych satelitów. Sygnał satelitarny zawiera dane o statusie systemu, tzw. efemerydę
zawierającą dane orbitalne oraz charakterystyki zegarów.
Odbiorniki użytkowników GPS mierzą odległość od satelit przez pomiar czasu, jaki
potrzebny jest na przesłanie sygnału satelitarnego od satelity do anteny odbiornika. Ponieważ
położenie satelity w momencie transmisji jest możliwe do określenia przy pomocy informacji
z efemerydy, położenie odbiornika w przestrzeni trójwymiarowej jest obliczane poprzez
triangulację na podstawie pomiarów odległości do kilku (trzech) satelit. Dodatkowy pomiar
odległości (czwarty) umożliwia zlikwidowanie błędu zegara odbiornika.
Pierwotną i nadal najważniejszą funkcją systemu GPS jest zapewnienie
bezpieczeństwa narodowego Stanów Zjednoczonych poprzez przewagę strategiczną
U.S.Army. Dlatego właściciel systemu – Departament Obrony USA – zastrzegł sobie prawo
do ograniczenia dokładności systemu dla ogółu użytkowników cywilnych. I z prawa tego
skorzystał wprowadzając błąd selektywny tzw. S.A. (Selective Availability). Dla cywilnych
użytkowników oznacza to w praktyce zaniżenie dokładności pomiaru pozycji przez
pojedynczy odbiornik GPS nawet do 100 m.
Oczywiście takie dokładności pomiarowe nie są wystarczające dla większości
zastosowań profesjonalnych GPS. Metoda korekcji różnicowej (Differentia GPS – DGPS)
oferuje potencjał pomiaru pozycji 2-10 metrów dla zastosowań dynamicznych i poniżej 2
metrów dla użytkowników statycznych. Polega ona, mówiąc w skrócie, na użyciu odbiornika
spoczywającego na punkcie o dokładnie wyznaczonych współrzędnych (np. na punkcie sieci
geodezyjnej) do porównania jego pozycji z pozycją obliczaną na bieżąco na podstawie
informacji satelitarnej GPS. Tym sposobem uzyskujemy miarę błędu – tzw. Poprawkę
różnicową, którą możemy dostarczyć dowolnej ilości odbiorników w zasięgu ok. 500 km.
Dzięki użyciu metody DGPS użytkownicy cywilni na całym świecie zyskali możliwość
pomiaru pozycji z dużymi dokładnościami.
Geodezyjne pomiary GPS, dostarczające dane o pozycji rzędu od kilku milimetrów do
10- 20 cm, wymagają zastosowań precyzyjnych odbiorników 12- kanałowych, zdolnych do
wtórnego odzyskiwania tzw. kodu precyzyjnego P . Wymaga to sporej mocy obliczeniowej
(niektóre odbiorniki wyposażone są w procesory RISC stosowane w stacjach roboczych).
Dodatkowo stosuje się równoczesne odbieranie informacji GPS na dwóch różnych
częstotliwościach (L1 oraz L2), w celu wyeliminowania błędów powstających podczas
przechodzenia sygnału przez jonosferę.
34
Nawigacja była oczywiście pierwotnym zastosowaniem systemu. Fakt podawania
przez odbiornik GPS dokładnych danych o położeniu był tylko początkiem rozwoju nowych
generacji odbiorników nawigacyjnych, które z czasem stawały się coraz lżejsze, bardziej
ergonomiczne w obsłudze oraz korzystające coraz pełniej z możliwości technologii
komputerowej. Uwidoczniło się to w wyposażaniu tych urządzeń w coraz to nowe, przyjazne
w obsłudze funkcje: ruchome mapy, bazy danych (np. baza danych lotnisk cywilnych wraz z
częstotliwościami radiowymi). Coraz szersze są także możliwości ich współpracy z
zewnętrzną elektroniką : autopilotem, komputerem pokładowym. Odbiorniki przystosowane
są do przyjmowania sygnału korekcyjnego DGPS w czasie rzeczywistym poprzez
wielofunkcyjny port komunikacyjny. Globalny charakter technologii GPS powoduje, że jest
ona traktowana jako obiecująca dla najpoważniejszych zastosowań nawigacyjnych, takich jak
konstrukcja systemów lądowania z zerową widocznością czy systemów nawigacji okrętów na
terenie portów.
Największą zaletą wykorzystania Globalnego Systemu Pozycjonowania jest światowy
zasięg sygnału satelitów oraz, co za tym idzie, globalna jednorodność uzyskiwanych
wyników. Umożliwia to tworzenie rozwiązań dla wielu dziedzin życia z szansą na ich
zastosowanie na szeroko pojętym rynku światowym. Ta sytuacja prawdopodobnie spowoduje
powstanie „masy krytycznej” zastosowań GPS oraz zwiększenie liczby użytkowników
systemu. Być może powtórzy się nawet – w odpowiednio mniejszej skali – fragment historii
globalnej sieci komputerowej Internet, czyniąc z Globalnego Systemu Pozycjonowania
zjawisko nazywane w języku angielskim „untility” – czyli coś równie niezbędnego jak
telefon, samochód czy kalkulator. Będzie to tym bardziej możliwe, że technologia ta, jako
całkowicie bazująca na osiągnięciach nowoczesnej elektroniki, jest zdolna do zaoferowania
coraz tańszych odbiorników satelitarnych GPS. A kiedy cena odbiornika będzie
wystarczająco niska, prawie każdy będzie mógł z niego korzystać. Jedna z podstawowych
potrzeb człowieka – potrzeba poznania swojego położenia w przestrzeni – zostanie całkowicie
zaspokojona.
35
SYSTEM STEROWANIA URZĄDZENIAMI
GOSPODARSTWA DOMOWEGO
Łukasz Matusiak
Koło Naukowe „Telephoners”
Akademia Górniczo-Hutnicza w Krakowie
Wydział Elektrotechniki, Automatyki, Informatyki i Elektroniki
Katedra Telekomunikacji
Tematem mojego referatu jest zaprezentowanie możliwości zastosowania domowego
komputera klasy PC oraz sieci Internet do sterowania praktycznie wszystkimi urządzeniami
gospodarstwa domowego, a dokładniej mówiąc do ich włączania i wyłączania.
Bardzo często podczas oddawania do użytku nowego budynku mówi się, że jest to
tzw. „budynek inteligentny”. Jest to oczywiście pewnego rodzaju zabieg marketingowy, ale
zastanawiające jest, co kryje się pod tym tak popularnym ostatnio i niestety nadużywanym
przymiotnikiem „inteligentny”. Dość szybko i łatwo można się zorientować, że to określenie
jest używane najczęściej w przypadku zastosowania skomplikowanych układów
elektronicznych wykonujących niektóre czynności i „myślących” niejako za ludzi. Tak jest
np. w przypadku skomplikowanych systemów poprawiających bezpieczeństwo jazdy
montowanych coraz częściej w samochodach (np. układ kontroli trakcji itp.). Oczywiście w
przypadku budynków jest bardzo podobnie. Automatycznie mogą być dobierane parametry
powietrza (temperatura i wilgotność), włączane oświetlenie, czy też włączane i wyłączane
wszelkiego rodzaju urządzenia znajdujące się praktycznie w każdym domu (np. odbiornik
telewizyjny i radiowy). W przypadku bardzo zaawansowanych systemów jest możliwa
personalizacja ustawień. Wtedy system jest dostosowany do konkretnego użytkownika,
rozpoznaje osobę przebywającą w pomieszczeniu i wybiera opcje najlepsze dla danej osoby
np. włącza ulubioną muzykę.
Najczęściej nie wiemy, z jakich elementów składa się taki system. Okazuje się
jednak, że zazwyczaj jest to odpowiednio zmodyfikowany komputer osobisty, zamknięty w
odpowiedniej obudowie i wyposażony w adekwatne do realizowanych funkcji
oprogramowanie. To co wyróżnia taki komputer, to zespół rozbudowanych układów
wejścia/wyjścia, dzięki którym możliwe jest podłączenie szeregu urządzeń i układów
zewnętrznych. Im bardziej skomplikowany jest system, tym jego cena jest odpowiednio
wyższa.
Jednakże któż z nas, przed powrotem do domu nie chciałby włączyć ogrzewania?
Czy też będąc dłużej poza domem, kto nie chciałby włączać oświetlenia o wybranej porze w
dowolnym pomieszczeniu naszego mieszkania? Takie czynności nie są zarezerwowane tylko i
wyłącznie dla „budynków inteligentnych”, ale są dostępne praktycznie dla każdego
użytkownika domowego komputera z dostępem do Internetu. Oczywiście do komputera musi
zostać podłączony odpowiedni układ, który będzie sterował naszymi urządzeniami oraz musi
zostać zainstalowane (na tym samym komputerze) specjalne oprogramowanie sterujące tym
układem i odbierające nasze rozkazy. Ponadto, co wydaje się oczywiste, komputer musi być
cały czas podłączony do zasilania i włączony do sieci Internet.
Pozostawienie włączonego komputera może rodzić pewne obawy, ale wydaje się, że
coraz częściej będzie koniecznością. A stanie się zupełnie oczywiste w przypadku, gdy będzie
36
znacząco wpływać na bezpieczeństwo naszego mieszkania. Natomiast podłączenie do
Internetu nie powinno w najbliższej przyszłości być wielkim problemem.
Integralną częścią systemu jest specjalna strona WWW, dzięki której będziemy mogli
wydawać rozkazy naszemu komputerowi. Musimy mieć oczywiście dostęp do tej strony w
miejscu naszego pobytu. Jednakże dzięki komputerowym sieciom bezprzewodowym oraz
telefonii komórkowej łączność jest zapewniona praktycznie z każdego miejsca.
Interfejs sterujący zbudowany jest z dwóch układów scalonych oraz kilkunastu
elementów elektronicznych. Komunikacja z komputerem odbywa się za pomocą portu
szeregowego (RS 232). Układ sterujący odbiera odpowiednio przygotowane komendy, które
włączają lub odcinają zasilanie. Na komputerze zainstalowany jest program przekazujący
nasze rozkazy do interfejsu.
Na XXVIII Międzynarodowej Studenckiej Sesji Naukowej przedstawię
problematykę zdalnego sterowania urządzeń przy wykorzystaniu komputerów osobistych oraz
ogólnoświatowej sieci Internet. Zaprezentuję również samodzielnie wykonany układ
elektroniczny, pozwalający włączać i wyłączać urządzenia m. in. gospodarstwa domowego.
37
INTELIGENTNE BUDYNKI
Kamil Mielech
Akademia Górniczo-Hutnicza w Krakowie
Kierunek Elektronika
Coraz bardziej nowe technologie wkraczają we wszystkie dziedziny naszego życia.
Przy budowie domów, obiektów biurowych czy zakładów przemysłowych inwestorzy coraz
częściej zwracają uwagę nie tylko na koszt budowy ale również na koszt przyszłej
eksploatacji i wygody użytkowania. Zaczyna dostrzegać się korzyści płynące z zastosowania
zdecentralizowanych systemów sterowania, regulacji i nadzoru – systemów Inteligentnego
Budynku. Budynek posiadający system klimatyzacji, alarmowy, przeciwpożarowy,
wentylacji, ogrzewania, sterowania oświetleniem i żaluzjami nie musi być budynkiem
inteligentnym. Inteligencja budynku polega na tym ze systemy te są zintegrowane i każdy jest
informowany o stanie innego i podejmuje odpowiednie „inteligentne” decyzje. Gdy np.
ostatni pracownik opuszcza biuro zamykają się rolety, obniża się temperatura w
pomieszczeniu, wentylacja ustawia się na najniższą moc a do nie dokręconego kranu w
toalecie zostaje odcięty dopływ wody.
System taki nie tylko zapewnia optymalny komfort i bezpieczeństwo ale minimalizuje
zużycie energii (elektrycznej i cieplnej), monitoruje i zarządza sprzętem technicznym,
nadzoruje system wykrywania pożarów i włamań oraz nadzoruje dostęp do systemu
zarządzania, może również przygotowywać raporty o stanie budynku.
Instalowanie systemów nadzoru oświetlenia i ogrzewania jest szczególnie efektywne w
budynkach energochłonnych takich jak hale maszyn produkcyjnych, obiekty handlowe i
biurowe. Koszt wprowadzenia technologii jest nieporównanie mniejszy od korzyści jakie
zapewnia jego zastosowanie.
„Inteligentnym budynkiem” mogą być obiekty o różnej wielkości jak i przeznaczeniu: obiekty
przemysłowe, budynki biurowe, budynki sklepowe, szpitale oraz domy mieszkalne.
System Inteligentnych Budynków LonWorks
W ostatnich latach odchodzi się od systemów scentralizowanego sterowania na rzecz
rozwiązań rozproszonych – czyli takich gdzie sterowanie nie jest skupione w jednym miejscu
ale każda część systemu jest wykonuje swoje zadanie niezależnie.
Jednym z rozwiązań systemów rozproszonych jest rozwiązanie amerykańskiej firmy
Echelon Corporation - technologia LonWorks, oparta na nowej lokalnej sieci sterowania
zwanej LON (ang. Local Operating Network).
Podstawową jednostką sieci jest węzeł który jest czujnikiem, prostym przełącznikiem, lub też
skomplikowanym komputerem do przetwarzania danych itd. Sercem węzła sytemu LonWorks
jest Neuron Chip – układ wieloprocesorowy realizujący wszystkie czynności związane z
pracą węzła i komunikacji z otoczeniem. Każdy Neuron Chip posiada niepowtarzalny numer,
stanowiący jego identyfikator.
Do komunikacji z innymi węzłami można wykorzystać typowy kabel skrętkowy (taki
na którym budowane są sieci komputerowe), sieć energetyczną, kabel światłowodowy, sieć
radiową, podczerwień albo inne medium transmisyjne.
W systemie LonWorks przyjęto jako założenie możliwość obsługi dużych sieci o
uniwersalnym zastosowaniu. Dlatego system taki cechuje:
38
krotki czas projektowania i uruchomienia systemu
niskie koszty w stosunku do systemów sterowanych przez centralny system
wielofunkcyjność elementów
otwartość (łatwe dołączanie nowych systemów i węzłów do zautomatyzowanych
obiektów)
niezawodność
prawidłowa współpraca urządzeń pochodzących od różnych producentów
łatwość rozbudowy systemu lub zmian w jego architekturze
możliwość centralnego monitorowania pracy systemu
możliwość dostępu do systemu z zewnątrz
możliwość tworzenia sieci o kilku tysiącach węzłów i kilku kilometrach długości
możliwość stosowania w tej samej sieci różnych mediów transmisyjnych
LonWorks daje gwarancje najwyższego bezpieczeństwa pracy, ponieważ wszystkie
urządzenia wymieniają informacje między sobą niezależnie od programu nadrzędnego.
Awaria programu nadrzędnego lub któregokolwiek sterownika czy regulatora strefowego nie
zakłóca pracy pozostałych urządzeń. To jest właśnie podstawowa zaleta „inteligencji
rozproszonej” w wykonaniu LonWorks.
System LonWorks ma zdecydowaną przewagę tam gdzie mamy do czynienia z jedną z
poniższych sytuacji:
potrzebna jest sieć, a nie ma możliwości kładzenia nowego kabla
instalacja jest bardzo rozległa
wymagana jest bardzo duża ilość węzłów i możliwość rozbudowy sieci
potrzebna jest duża różnorodność funkcji urządzeń / węzłów
Zalety LonWorks sprawiły, że stosowanie tej sieci stało się standardowym rozwiązaniem
w wielu różnorodnych systemach. Otwartość i podatność na modyfikacje - możliwość
tworzenia zdecentralizowanego systemu zarządzania jest powodem wykorzystania LonWorks
w przemyśle. Dotychczasowe rozwiązania opierające się na sterownikach hierarchicznych
okazują się bardziej zawodne i dużo droższe w eksploatacji od omawianej technologii. Niski
koszt instalacyjny oraz duża liczba dostępnych modułów LonWorks spowodowała, że jest on
chętnie stosowany w rozwiązaniach Inteligentnego Budynku. Początkowy nakład to tylko
wykonanie okablowania, potem inteligencja systemu może rosnąć: sterowanie oświetleniem,
zarządzanie zużyciem energii, ruchem wind, system alarmowy, przeciwpożarowy. Łatwość
instalacji i konserwacji sieci (wszystkie urządzenia podłączone są do jednego przewodu)
faworyzuje to rozwiązanie w instalacjach monitorujących i rejestrujących dane pomiarowe.
Użytkownik ma możliwość dowolnego kształtowania swojej sieci: wprowadzania
modyfikacji, rozbudowy o nowe moduły i funkcje, wybierania urządzeń od dowolnego
producenta.
Otwarta architektura LonWorks pozwala rozszerzyć obecny zakres działalności
producentów urządzeń automatyki, umożliwiając ekspansję w kierunku nowych rynków.
Zapewnia zarazem niższe ceny dla końcowego odbiorcy towaru, dzięki skróceniu czasu
wprowadzania na rynek nowych produktów i coraz większej powszechności systemu
LonWorks. Pierwsze urządzenia pracujące w systemie LonWorks powstały na początku lat
dziewięćdziesiątych, a już obecnie urządzenia oznaczone znakiem LonMark obsługują około
30% sieci przemysłowych na świecie. LonMark to organizacja która czuwa nad prawidłowym
rozwojem systemu LonWorks, zrzeszająca największe firmy z branży. Zadaniem LonMark
jest przydział znaku jakości LonMark urządzeniom automatyki, korzystającym ze zmiennych
39
SNVT (ang. Standard Network Variables Type). Zmienne standardowe wprowadzono aby
system mógł być nazwany otwartym. Przeprowadzono tez standaryzacje wszystkich funkcji.
Stosowanie tych standardów daje gwarancje pełnej współpracy urządzeń różnych
producentów.
Zasadniczą zaletą systemu LonWorks jest tania rozbudowa istniejących instalacji. Instalacja
składająca się z dwóch urządzeń może być rozbudowana do dziesiątek tysięcy przy
minimalnych kosztach rekonfiguracji systemu. W przeszłości koszt rekonfiguracji był
głównym hamulcem rozbudowy istniejących systemów.
Efektywne wykorzystanie energii pozwala na zwrot kosztów inwestycji już po kilku latach.
Źródła podają, że stworzenie zwartego systemu automatyki budynku pozwala zaoszczędzić na
energii elektrycznej (do 50%) i ogrzewaniu (do 30%).
Inteligentny dom
Opisane systemy stają się jeszcze atrakcyjniejsze przez to że coraz częściej przenosi
się taką inteligencję „pod strzechę”. Integrując w systemie inteligentnym nie tylko system
grzewczy i energetyczny ale większość urządzeń elektronicznych – poza oczywistą zaletą
oszczędności - może uczynić przebywanie w takim domu przyjemniejszym i wygodniejszym.
Tak można wyobrazić sobie zwykły początek dnia w niezwykłym domu:
system budzi nas o określonej godzinie, odsłaniają się żaluzje, jeśli za oknem jest jeszcze
ciemno, na połowę mocy zapala się światło – tak, aby nie oślepiać domowników, w kuchni
włącza się radio i czeka świeżo zaparzona kawa. Po wyjściu z domu system obniża
temperaturę pomieszczeń, wyłącza światło i włącza alarm. Gdy np. jedno lub wiecej
pomieszczeń jest nadmiernie nasłoneczniane czujniki nakazują opuszczenie rolet. Przy
deszczu okna zostaną zamknięte a zraszanie trawników wyłączy się. Przed planowanym
powrotem domowników temperatura w domu wraca do zadanej wartości.
Przedstawiona wizja wydaje się futurystyczna ale takie domy już istnieją. Najbardziej znanym
jest rezydencja twórcy firmy Microsoft - Billa Gatesa. Jednym z ciekawych elementów jest to
że wcześniej ustawione preferencje pozwalają na taką prace systemu ze rozpoznaje on
wchodzącą osobę i z głośników zaczyna płynąć ulubiona muzyka a na płaskich ekranach
plazmowych pojawiają się ulubione obrazy.
Na zachodzie od kilku lat rozwiązania inteligentne trafiają do rezydencji i domów
jednorodzinnych. W Polsce zainteresowanie nimi zwiększa się ale jak na razie
zarezerwowane jest dla bogatszej części społeczeństwa. Polscy klienci decydują się coraz
częściej na nietypowe zamówienia – można podać za przykład wannę która po wysłaniu przez
użytkownika wiadomości SMS, napełnia się wodą o żądanej temperaturze i utrzymuje ją
przez cały czas kąpieli.
Najprawdopodobniej z upływem czasu technologia stanie się coraz tańsza i doskonalsza tak,
że poszerzy się krąg potencjalnych posiadaczy Inteligentnych Domów. Stosowanie opisanych
rozwiązań zwiększa standard życia oraz jest - poprzez zmniejszenie zapotrzebowania na
energię - ukłonem w stronę ekologii.
40
BADANIA FAZ AZOTKOWYCH I WĘGLIKOWOAZOTKOWYCH W NISKOWĘGLOWYCH STOPACH
Andriej Projdak
Narodowa Akademia Metalurgiczna w Dniepropietrowsku
MODELOWANIE REDUKCJI STĘŻENIA TLENKÓW
AZOTU PODCZAS DWUSTOPNIOWEGO SPALANIA
GAZU ZIEMNEGO
Mykhaylo Ivanov
Narodowa Akademia Metalurgiczna w Dniepropietrowsku
Wstęp
Redukcja emisji zanieczyszczeń gazowych jest bezwzględną koniecznością
wynikającą z ciągłej intensyfikacji procesów spalania oraz wprowadzania coraz to bardziej
rygorystycznych norm ochrony środowiska. Wymusza to postęp w pracach badawczych w
zakresie opracowywania nowych konstrukcji palników i opracowanie specjalnych technik
spalania w celu obniżenia emisji tlenków azotu. Metody obniżania emisji NOx dzieli się na
dwie zasadnicze grupy tj. pierwotne oraz wtórne.
Przedsięwzięcia pierwotne zmniejszania emisji NOx stosuje się na etapie
projektowania i budowy palników lub palenisk oraz przez wykorzystanie metod
eksploatacyjnych. Biorąc pod uwagę mechanizmy powstawania NOx, metody ograniczające
emisję podzielić można na trzy grupy technologiczne: zmniejszające maksymalną
temperaturę, utrzymujące lokalną koncentrację tlenu na poziomie odpowiadającym
stosunkowi nadmiaru w granicach 0,7÷0,9 oraz specjalne metody spalania .
Istnieje również możliwość zwiększania skuteczności redukcji tlenków azotu poprzez
połączenie pierwotnych metod redukcji NOx, jednak większość przeprowadzonych i
opublikowanych badań obejmuje jedynie redukcję tlenków azotu przy zastosowaniu
pojedynczych metod.
41
AERO-THERMAL PERFORMANCE IN INTERNAL
COOLING CHANNELS (AR = 30) WITH DIMPLES
Piero Distefano
Dipartimento di Ingegneria e Fisica dell'Ambiente
Universita degli studi della Basilicata
Potenza, Italy
One of the main parameters that designers can vary in order to increase the thermodynamic efficiency of a gas turbine is the turbine inlet temperature. Values over 2000 K are
achieved nowadays, exceeding the melting point of the alloys used for NGV's and rotor
blades. The need for cooling these components in the first stages of the turbine is therefore
mandatory. For aeronautical applications, a combination of internal an external air cooling
techniques is applied, using air bled from the compressor. In recent years, efforts directed at
improving internal cooling have led to concepts that include the use of rib turbulators, pin
fins, vortex generators and swirl-induced cooling or screw cooling. Usually, different kinds of
cooling systems can be used at the same time in order to improve the performances. An
example of such application is shown in Fig. 1.
Figure 1. The schematic of a modern gas turbine blade with common cooling techniques
Attention has recently focused on a relatively new type of cooling techniques with
improved thermal-hydraulic performances, the Hemispherical Surface Dimple Technique.
Preliminary investigations have shown that dimpled enhances heat transfer with minimal
pressure drop penalty. This combination makes dimpled surfaces attractive from a turbine
blade cooling perspective. This class of surface enhancements results from the depression of
features into the cooling channel walls, forming recesses rather than projections. This
concavities are known as dimples. Thus, the cooling technique used in this study is the
42
internal forced convection in a rectangular passage roughened by dimples, arrays of
indentations along its surfaces.
Heat transfer coefficients, overall pressure drop across the channel and friction factors
are experimentally investigated in a rectangular channel (aspect ratio = 30:1) which has
dimples on the two opposed walls. The side surfaces are smooth. It is a scaled up (Dh = 16;4
mm) plexiglass model of the turbine blade internal cooling channel.
The facility used for this investigation models a straight cooling channel of a turbine
blade. It has been constructed to perform the aerodynamic and heat transfer measurements.
The facility has the following components along the flow direction: an inlet section, the test
section, an outlet section, a settling chamber and a centrifugal blower.
A schematic of the facility is shown in Fig. 2.
Figure 2. Schematic of the facility
In order to measure the cooling performance, measurements are carried out by means
of thermocouples and water-manometers and results are given for Reynolds numbers ranging
from 5000 to 20000.
Three different changeable test sections are explored: smooth surface; dense dimpled
surface; sparse dimpled surface. For the last two configurations both sides of the test section
are equipped with dimple depth-to-print diameter (δ=Dd) ratio of 0,3. The ratio of channel
height to dimple print diameter is 0;8. Two dimple surface densities are used: the sparse
dimpled surface with 276 dimples and the dense dimpled surface with 541.
Figure 3. Individual dimple geometry details
The principal conclusions of the present study are summarized as follows.
43
For a given static pressure at the inlet, the inlet velocity profile is the same for all the
configurations (smooth surface and dimpled surfaces).
Using the smooth surface as test section, the pressure drops for the non heated and
heated surfaces are close to each other (within 6%). A big difference between the
pressure drop can be appreciated with dimpled surfaces, heated or not. For the dense
dimpled surface the pressure drop in the case of heating is 35% lower than at ambient
condition and for the sparse dimpled configuration it is 33% lower. This means that
heated channel should have less pressure losses than the non heated one.
Figure 4. ∆P for all configurations
The Nusselt number increases with Reynolds number for all the configurations, and
the data points follow an almost linear behavior. The Nusselt numbers are higher in
both dimpled cases compared to those in the case of a smooth surface
Among the concave dimple cases studied here, the configuration with dimples
covering a smaller portion of the test surface enhances heat transfer more that the
dense configuration, with dimples covering a larger portion of the test surface.
Figure 5. Heat transfer results: variations of Nu with Re, all configurations
The ratio Nu=Nu0 for each dimpled case increases with increasing Re with a gradually
decreasing slope. The Nu=Nu0 distributions clearly show that the dimples in the sparse
case on the surface enhances more the heat transfer.
44
Figure 6. Heat transfer results: variations of Nu=Nu0 with Re
Variations of the friction factor with the Reynolds number are presented. The
configuration with dense dimples on the surface clearly cause larger pressure drop
than the sparse dimpled configuration. The results of the heated channel present a
different behavior than the measured ones without wall heating. The maximum
different between f1 and f0 is 64;2% (heated channel) versus 76% for the non heated
channel. And the maximum different between f1 and f2 is 40;9% versus 44;5% for the
non heated channel.
Figure 7. Variations of f=f0 with Re. Non heated channels
Figure 8. Variation of f=f0 with Re. Heated channels
45
MODELOWANIE NUMERYCZNE OPŁYWU PROFILU
LOTNICZEGO O KSZTAŁCIE OPŁYWOWYM
Piotr Warzecha
Instytut Maszyn Cieplnych
WYDZIAŁ INŻYNIERII MECHANICZNEJ I INFORAMYKII
POLITECHNIKA CZĘSTOCHOWSKA
Wprowadzenie
W celu analizy modelu profilu lotniczego rozpatrujemy siły aerodynamiczne
działające na niego. Są to siła nośna, skierowana pionowo do góry, oraz siła oporu,
skierowana poziomo. Siła nośna równoważona jest poprzez siłę ciężkości, natomiast siłę
oporu równoważy siła ciągu.
Siła oporu:
Px = c x ⋅
Siła nośna:
ρ ⋅U
2
2
∞
⋅S
Py = c y ⋅
ρ ⋅U
2
∞
2
⋅S
Wypadkowa sił:
P = Px2 + Py2
Siły aerodynamiczne pojawiają się tylko wtedy, gdy występuje opływ ciała. Zależą one od
kwadratu prędkości, gęstości opływającego czynnika, od kształtu, jego wymiarów oraz
usytuowania go względem kierunku napływającego czynnika. Ciało, ustawione pod pewnym
kątem do kierunku napływającego czynnika (zwanego kątem natarcia), może wywoływać siłę
nośną, wielokrotnie większa od siły oporu. W zależności od ustawienia ciała, możemy
uzyskać siłę nośną skierowana do góry lub w dół. Po przekroczeniu pewnej wartości kąta
natarcia, następuje oderwanie warstwy przyściennej, co powoduje zmniejszenie siły nośnej
oraz gwałtowny wzrost siły oporu.
Wartości dla których przeprowadzone było modelowanie:
- prędkość strugi niezakłóconej U=0.8M (M-prędkość dźwięku)
- symulacje przeprowadzone dla płynu rzeczywistego (lepkiego)
- model – symetryczny płat o długości 1m
- siła nośna generowana poprzez zmianę kąta natarcia
46
Wyniki pomiarów
Modelowanie profilu lotniczego przeprowadzane było w programie FLUENT, dla różnych
wartości konta natarcia.
1.) Badanie profilu przy kącie natarcia 0°
W pierwszej kolejności badany był płat przy zerowym kącie natarcia. Jak widać z
powyższego rysunku rozkład prędkości dla takiego przypadku jest symetryczny, gdyż oś
symetrii płata jest równoległa do wektora prędkości opływającego czynnika. Zauważyć
można również, że najmniejsze prędkości uzyskujemy w przedniej oraz tylnej części płata.
Natomiast największe w środkowej jego części. W samym środku przedniej części badanego
profilu, prędkość posiada zerową wartość. Jest to punkt stagnacji. Za badanym profilem
również obserwujemy małe wartości prędkości. Spowodowane jest to powstawaniem śladu
aerodynamicznego, który charakteryzuje się małymi wartościami prędkości.
Rys.1 Rozkład prędkości wokół
profilu dla kąta natarcia 0°
Rys.3 Wykres rozkładu ciśnienia nad i
pod profilem dla kąta natarcia 0°
Rys.2 Rozkład ciśnienia wokół
profilu dla kąta natarcia 0°
Ponieważ ciśnienie ściśle wiążę się z prędkością, możemy zatem przeprowadzić
analizę rozkładu ciśnienia w oparciu o omówiony wyżej rysunek. Punkt stagnacji
charakteryzujący się najmniejszą wartością prędkości jest jednocześnie punktem
maksymalnego ciśnienia, co potwierdza zasadę zachowania energii. Ponieważ opływ jest
symetryczny, zatem rozkład ciśnienia statycznego w funkcji długości płata zarówno pod jak i
nad płatem nie ulega zmianie. W efekcie takiego opływu nie powstaje siła nośna, niezbędna
do tego aby pokonać siłę ciężkości i unieść samolot ku górze.
2.) Badanie profilu przy kącie natarcia 5°
a.) Prędkość
Rys.4 Rozkład prędkości wokół profilu dla kąta natarcia 5°
Kolejny etap to zbadanie zachowania się płata przy zmianie kąta natarcia. Zmianę kąta
natarcia uzyskaliśmy poprzez zmianę kąta napływu wektorów prędkości na badany profil
Tym razem przepływ nie jest już symetryczny i zaobserwować możemy inny rozkład
prędkości w odniesieniu do wcześniejszego przypadku. Punkt stagnacji przesunął się z
środkowej części płata na część dolną. W ten sposób nastąpiła zmiana w wielkościach
powierzchni dolnej i górnej (przyjmując punkt stagnacji za środek podziału). Dla takiego
przypadku widzimy, iż w górnej części płata osiągamy największe prędkości w jego przedniej
47
części, natomiast najmniejsze w tylnej części. Związane jest to z oderwaniem warstwy
przyściennej.
Rys.5 Rozkład ciśnienia wokół
profilu dla kąta
natarcia 5°
Rys.7 Rozkład turbulencji wokół
Rys.6 Wykres rozkładu ciśnienia
nad i pod profilem dla kąta natarcia profilu dla kąta natarcia 5°
5°
Duże wartości prędkości powodują, iż na górną część płata działa mniejsze ciśnienie,
niż na powierzchnię dolną (rozkład ciśnienia statycznego w dolnej i górnej części przedstawia
wykres na rys.6). Powstająca siła nośna jest równa różnicy pól między krzywą ciśnienia
statycznego na dolnej i górnej powierzchni płata. Czerwona charakterystyka przedstawia
rozkład ciśnienia na górnej powierzchni płata. Widoczna gwałtowna zmiana wartości
ciśnienia spowodowana jest oderwaniem warstwy przyściennej na powierzchni płata.
Rysunek 7 przedstawia rozkład turbulencji za badanym profilem. Możemy zauważyć,
iż turbulencje pojawiają się dopiero wtedy, gdy następuje oderwanie warstwy przyściennej
(pojawiają się wtedy duże gradienty prędkości). Dla kąta napływu 5 stopni, oderwanie
warstwy następuje mniej więcej w połowie długości płata. Pojawienie się turbulencji wpływa
bardzo niekorzystnie, gdyż powodują one zwiększenie siły oporu.
3.) Badanie profilu przy kącie natarcia 10°
Zwiększenie kąta natarcia powoduje, iż punkt stagnacji przesuwa się jeszcze bardziej ku
tylnej części dolnej powierzchni płata, zmniejszając tym samym jej powierzchnię. Jak widać z
powyższego rysunku na górnej części płata w dalszym ciągu występują największe prędkości.
Przesunięty został również punkt oderwania warstwy przyściennej, zwiększając w ten sposób
obszar występowania turbulencji.
Rys.8 Rozkład prędkości wokół
profilu dla kąta natarcia 10°
Rys.9 Rozkład ciśnienia wokół
profilu dla kąta natarcia 10°
Rys.10 Wykres rozkładu ciśnienia
nad i pod profilem dla kąta
natarcia 10°
Powyższe wykresy potwierdzają przesunięcie się punktu oderwania warstwy
przyściennej (czerwona charakterystyka), w stosunku do kąta napływu 5 stopni. Zwiększyło
się wyraźnie pole powierzchni pod krzywą, co sugeruje na zwiększenie siły nośnej. Jednak
przesunięcie się punktu oderwania warstwy przyściennej powoduje zwiększenie obszaru
turbulencji, które jeszcze bardziej (niż dla napływu pod kątem 5 stopni) zwiększają siłę oporu.
48
Wnioski:
Dr ag For ce=f(Kąt Natar cia)
60000
60000
50000
50000
40000
40000
Drag Force
Lift force
L i ft fo rc e = f(k ą t n a ta rc i a )
30000
30000
20000
20000
10000
10000
0
0
0
5
10
15
20
25
30
35
40
45
0
50
5
10
15
20
25
30
35
40
45
50
Ką t na ta rc ia
Ką t na ta rc ia
Współczynnik doskonalości aer od=f(Kąt Natar cia)
Współczynnik doskonałości aerodynamic
14
12
10
8
6
4
2
0
0
5
10
15
20
25
30
35
40
45
50
Kąt Natar cia
Powyższe wykresu pokazują zależności: siły nośnej (lift force), siły oporu (drag force)
oraz współczynnika doskonałości aerodynamicznej w funkcji kąta natarcia.
Siła nośna osiąga swą największą wartość dla kąta natarcia około 36 stopni, jednak dla
takiego kąta natarcia mamy dużą wartość siły oporu, co jest dla nas niekorzystne. Powinniśmy
znaleźć taką optymalną wartość kąta natarcia, przy którym siła nośna ma stosunkowo dużą
wartość, a opór aerodynamiczny najmniejszą. Do tego celu służy nam współczynnik
doskonałości aerodynamicznej, jako stosunek siły nośnej do siły oporu. Charakterystyka
współczynnika doskonałości aerodynamicznej w funkcji kąta natarcia wskazuje, iż dla
uzyskania najlepszych parametrów przepływu najbardziej optymalnym kątem natarcia jest kąt
około 3 stopni.
49
50
SEKCJA B
51
METODY ODZYSKU METALI
Z PYŁÓW ŁUKOWYCH PIECÓW ELEKTRYCZNYCH
Weronika Jakubiak
Politechnika Częstochowska,
Katedra Ekstrakcji i Recyrkulacji Metali
Wprowadzenie
Jednym z ważniejszych problemów stojących obecnie przed producentami stali jest
konieczność utylizacji pyłów powstających w procesie produkcji stali w piecach
elektrycznych. Należą one do najbardziej uciążliwych produktów procesów metalurgicznych,
są materiałem trudnym do składowania i transportu. Ponadto pyły te – w literaturze światowej
określane skrótem EAFD (Electric Arc Furnace Dust) stanowią poważny problem
ekologiczny. Zawierają one stosunkowo łatwo rozpuszczalne w wodzie związki chemiczne
metali ciężkich (Zn, Pb, Cd, Cr). Charakteryzują się niewielką średnicą ziaren i wynikającą z
tego dużą podatnością do pylenia. Szlamy (będące uwodnionymi pyłami) nie powodują
wtórnego pylenia, są łatwiejsze do transportu, ale podobnie jak pyły, nie nadają się do
wykorzystania w procesach technologicznych bez uprzedniego przetworzenia. W procesie
przetopu złomu stali w piecu elektrycznym cynk, kadm, ołów i jego związki oraz łatwo lotne
chlorki i fluorki zostają odparowane, a następnie wraz z gazami technologicznymi
przenoszone do układu odpylającego. Na tej drodze, w wyniku ochładzania oraz
oddziaływania utleniającej atmosfery pieca pary metali zostają utlenione. Pyły z ŁPE można
więc pod względem strukturalnym traktować jako mieszaninę zawierającą tlenkowe związki
Zn, Pb, Cd i Fe z domieszką chlorków i fluorków [1]. W Europie powstaje rocznie około 900
tys. ton pyłów. W Polsce potencjalną masę pyłów stalowniczych szacuje się na około 60 tys.
ton [2]. Ograniczeniem pełnego wykorzystania pyłów jest ich zmienny skład chemiczny
zależny od dynamiki procesu oraz wysokie koszty wdrażania nowych technologii. Z punktu
widzenia kosztów utylizacji i konieczności ich zrównoważenia przez dochody ze sprzedaży
produktów procesu, znaczenie przemysłowe mogą mieć pyły z ŁPE zawierające powyżej
15% Zn, w innym wypadku zachodzi konieczność ich wzbogacania [1].
Proces powstawania pyłów z ŁPE
Podczas pracy łukowego pieca elektrycznego i konwertora tlenowego powstają znaczne
ilości pyłów stalowniczych. Ilość pyłów generowanych w poszczególnych procesach jest
silnie zróżnicowana i zależy od rodzaju i jakości materiałów wsadowych, typu urządzeń
metalurgicznych i ich nowoczesności (w stalowniach konwertorowych waha się w zakresie 8–
12 kg/t stali, w stalowniach elektrycznych wynosi 12–16 kg/t stali) [3]. Ich skład chemiczny
zależy od parametrów procesu, rodzaju stali jaką zamierza się wyprodukować, postaci
fizycznej materiałów żużlotwórczych i nawęglających dodawanych do wsadu, sposobu
podawania tlenu gazowego, a także od stopnia zawrotu pyłów do procesu stalowniczego.
Analiza składu chemicznego pyłów [4] wykazuje wysoką zawartość cynku (szczególnie w
pyłach z ŁPE) oraz żelaza – zatem oprócz możliwości odzysku Zn są one interesującym
materiałem żelazonośnym (pyły z konwertorów tlenowych zawierają nawet powyżej 60% Fe)
[5].
52
Nowoczesne metody odzysku Zn, Pb i Cd z pyłów ŁPE
Problem przerobu pyłów z pieców elektrycznych będzie w najbliższych latach narastał,
dlatego istnieje pilna potrzeba opracowania i wdrożenia jak najbardziej efektywnego sposobu
ich utylizacji. Technologie przerobu odpadowych materiałów cynkonośnych znajdują się na
różnych etapach rozwoju i ogólnie można je podzielić na dwie grupy: procesy
hydrometalurgiczne (S.E.R.H, Zintex, Ezinex) oraz procesy pirometalurgiczne (proces
przewałowy, Tetronics, Inmetco, Plasmadust) [2]. W grupie metod hydrometalurgicznych w
skali światowej została zrealizowana jedynie metoda Ezinex, w grupie metod
pirometalurgicznych największe znaczenie praktyczne ma świecie mają obecnie procesy
realizowane w piecach obrotowych [1].
Procedura badań własnych
Przedmiotem badań był pył pochodzący z łukowego pieca elektrycznego. W piecu tym
produkowano stale węglowe oraz niskostopowe. Wsadem był głównie złom stalowy,
uzupełniany dodatkami brykietów żelaza bezpośrednio zredukowanego (HBI), surówki lub
Synticomu® w ilości nie przekraczającej 20% masy wsadu metalowego dla gatunków, od
których wymagany był wyższy poziom czystości metalurgicznej. Skład chemiczny pyłu
surowego, użytego w badaniach przedstawiono w tablicy 1.
Tablica 1. Skład chemiczny pyłu surowego z łukowych pieców elektrycznych
C
Mn
Fec
Fe2+
S
P
2,14
2,33
27,03
2,08
0,95
0,106
Zawartość składników, % mas
Cr
Zn
Pb
0,31
21,57
3,98
Cd
SiO2
CaO
MgO Al2O3
0,074
3,58
3,09
2,76
0,64
Badania przeprowadzono w laboratoryjnym, hermetycznym piecu typu Tammanna z
grafitowym elementem grzejnym (rura o średnicy wewnętrznej Ф 56 mm) w atmosferze
argonu o ciśnieniu około 0,12 MPa. Schemat stanowiska badawczego przedstawiono na rys.
1.
Próbki pyłu o masie około 0,20 kg mieszano z dodatkami węgla – grafitu stanowiącego
reduktor, zastosowano tygle molibdenowe. W poszczególnych próbach zastosowano zmienną
masę dodatku reduktora węglowego. Uzyskane wyniki badań zestawiono w tablicy 2 i 3.
Tablica 2.Wyniki badań nad redukcją pyłów z łukowych pieców elektrycznych
Nr
prób
1.
2.
Skład początkowy
pyłu, % mas.
Warunki eksperymentu
T=1673K,τ=15min,
dod.C=1,0% m/m
T=1673K,τ=15min,
dod.C=0,5% m/m
C
Mn
Fec
2,14
2,33
27,03
0,09
n.o.
0,09
n.o.
Fe
2+
S
P
Cr
Zn
2,08
0,95
0,106
0,31
21,57
3,98
0,074
38,90
36,93
1,62
n.o.
n.o.
1,39
4,27
n.o.
33,70
33,40
1,43
n.o.
n.o.
9,81
3,42
n.o.
53
Pb
Cd
Tablica 3. Skład chemiczny kondensatu uwolnionego podczas procesu redukcji
Nr próbki
1.
2.
Zawartość pierwiastków, %mas.
Zn
Pb
39,06
7,64
41,52
7,46
Cl
13,72
13,01
Wyniki badań i ich interpretacja
Analizując skład chemiczny pyłu surowego (przed jego termiczną obróbką) należy
zauważyć, że prawie cała ilość zawartego w nim żelaza stanowiła żelazo trójwartościowe
Fe3+, z minimalną ilością – około 2% masy pyłu – żelaza dwuwartościowego Fe2+. Zawartość
cynku była wysoka– 21,56% mas. co w przeliczeniu na ZnO dało wartość ok. 27% mas. oraz
ołowiu ok. 4,0% mas.
Znaczące obniżenie stężenia cynku w pyle obserwowano przy wytrzymaniu przy
temperaturze co najmniej 1673 K. Przy tej temperaturze zarejestrowano najmniejsze stężenia
cynku w pyle, co świadczy o tym, że uległ on odparowaniu. Zaszedł również proces rozkładu
franklinitu (ZnO·Fe2O3), a zatem uwolnienia ZnO, który warunkował dalsze odparowanie
tego związku. Wydłużenie czasu nie powodowało zmiany stężeń cynku w pyle. Skład
chemiczny kondensatu zebranego z zimnych, górnych części pieca zawierał od 39 do 41 %
mas. cynku oraz jednocześnie posiadał bardzo wysokie zawartości chloru, którego źródłem
były przede wszystkim tworzywa sztuczne grupy PCV oraz powłoki lakiernicze, szczególnie
chlorokauczukowe wnoszone ze złomem.
Zawartość ołowiu w pyle po procesie uległa zmianie w minimalnym stopniu w
porównaniu z zawartością w surowym pyle, nie były to więc warunki właściwe dla
odparowania bądź redukcji tlenku ołowiu. Celem usunięcia tego pierwiastka należy zatem
zastosować inny sposób postępowania.
W wyniku zastosowanego procesu prawie cała zawartość żelaza pozostałego w pyle
stanowi żelazo Fe2+. Nastąpiła zatem prawie całkowita redukcja tlenku Fe2O3 do FeO.
Źródłem siarki w pyle były przede wszystkim procesy jej usuwania z metalu przy
użyciu żużla lub materiał stosowany w charakterze nawęglacza. W warunkach eksperymentu
nie zachodziły okoliczności sprzyjające odsiarczaniu pyłu (zawartość siarki po próbach
wzrosła w porównaniu do zawartości początkowej). Problemowi temu należy poświęcić
dalsze badania, gdyż wykorzystanie na skalę przemysłową pyłów z tak dużą zawartością
siarki jest znacznie ograniczone.
Literatura:
[1] P. Kapias , R. Stelmach, J. Gazda: Rozpoznanie metod odzysku cynku i ołowiu z pyłów powstających w procesie
przerobu złomów stali. Rudy i Metale Nieżelazne Nr 6/99.
[2] J. Czernecki, E. Stós, J. Czekaj, J. Galicki, J. Jasiński: Technologia przerobu odpadowych materiałów cynkonośnych w
procesie przewałowym. Mat. Konf. Z Konf. PAN Kraków 2002.
[3] S. Serkowski: Podstawowe operacje technologiczne w utylizacji odpadów metalurgicznych. Hutnik – Wiadomości
Hutnicze Nr 4/99.
[4] M. Kowalewski: Podstawowe problemy wykorzystania żelazonośnych szlamów i pyłów hutniczych. Hutnik –
Wiadomości Hutnicze Nr 4/98.
[5] M. Gawron: Cynk w hucie żelaza. Hutnik – Wiadomości Hutnicze Nr 9/99.
Opiekun naukowych:
Dr hab. inż. Włodzimierz Derda, prof. PC
54
WAHADŁO MAGNETYCZNE
Sławomir Mazur
Instytut Fizyki, Politechnika Częstochowska
Abstract
The paper deals with the technical diagram of the magnetic pendulum. All crucial components of the construction,
together with all material characteristics were discussed in details. All the presented solution were verified experimentally.
1. Wstęp
W pracy przedstawiono schemat techniczny wahadła magnetycznego. Omówiono
dokładnie wszystkie ważne elementy konstrukcyjne. Podano również charakterystyki
materiałowe istotnych elementów składowych. Wszystkie rozwiązania prezentowane w pracy
zostały zweryfikowane eksperymentalnie.
2. Budowa wahadła magnetycznego
Wahadło magnetyczne, składa się z dwóch płyt pleksiglasu zamocowanych na czterech
podporach wykonanych z rurek miedzianych z trzpieniami mosiężnymi. Dolna część każdej
podpory została dodatkowo wyposażona w śrubę regulacyjno-poziomującą. Na rysunku 1
przedstawiono schemat ogólny budowy wahadła magnetycznego.
Rys. 1. Wahadło magnetyczne
55
Zamieszczono również tabelę instruktażową. W górnej płycie pleksi wywiercono
otwory w których mocuje się zawieszenie Cardana, umożliwiające ruch ramienia wahadła w
dowolnym kierunku. Zawieszenie Cardana zostało scharakteryzowane na rysunku 2. Na
dolnej płycie pleksi rozmieszczono magnesy neodymowe w osłonach mosiężnych. Układ
otworów dolnej płyty pozwala na dobór odpowiedniej konfiguracji geometrycznej magnesów.
Charakterystyka płyty dolnej wahadła została przedstawiona na rysunku 3. Ramię wahadła
zostało wykonane z rurki miedzianej uzupełnionej elementami mosiężnymi. Na końcu
ramienia umocowano pojedynczy magnes neodymowy Szczegółowy opis zamieszczono na
rysunku 4.
Rys. 2. Zawieszenie Cardana
Rys. 3. Płyta dolna wahadła magnetycznego
56
Rys. 4. Ramię wahadła
3. Dobór materiałów
W przypadku wahadła magnetycznego należy zwrócić szczególną uwagę na materiały
użyte do jego budowy, tak by nie zakłócały one pomiarów. Chodzi tutaj gównie o zaburzenia
jakie mogłyby się pojawić w wyniku użycia materiałów stalowych, które w znacznym stopniu
przyczyniłyby się do niepowołanego oddziaływania magnesów z materiałami
konstrukcyjnymi. W wahadle zastosowano silne magnesy neodymowe-spiekane (NdFeB) w
kształcie walca o rozmiarach: (30x5)mm, oznaczenie magnesów: MW30x5/N35. Magnesy
neodymowe są obecnie najnowocześniejszymi i najczęściej stosowanymi materiałami
magnetycznymi [1]. Proces wytwarzania tych magnesów opiera się na metodach metalurgii
proszków, a odpowiednio dzięki zastosowaniu metody prasowania w polu magnetycznym
uzyskuje się strukturę anizotropową. Magnesy neodymowe-spiekane, zawdzięczają swoje
znakomite właściwości magnetyczne związkowi: Nd 2 Fe14 B . Magnesy oparte na tym związku
osiągają wysokie wartości koercji jak również dużą wartość gęstości energii magnetycznej. W
porównaniu do magnesów samarowo-kobaltowych cechują się jednak niższym zakresem
temperatur pracy (do ok. 80 o C ) a ich właściwości magnetyczne silnie zależą od temperatury.
W omawianych magnesach ze względu na zawartość neodymu o silnych skłonnościach do
utleniania, należy zastosować powlekanie warstwami antykorozyjnymi. Najczęściej
stosowane są powłoki niklowe, cynkowo-niklowe lub cynkowe. Można również powlekać
magnesy cienkimi warstewkami złota lub srebra.
W tabeli 1. przedstawiono charakterystykę fizyczną magnesów
neodymowych-spiekanych.
57
Tabela 1. Podstawowe parametry magnesów neodymowych.
Własności Remanencja Koercja Koercja
(jHc)
(bHc)
(Br)
Magnetyczne
Jednostka
Oznaczenie
Materiału
N35
Gęstość energii
(BH)max
Max
Temperatura
Pracy
[kGs ]
[kOe]
[kOe]
[ kJ / m 3 ]
[MGsOe ]
[oC ]
11,7-12,1
Min
10,9
Min
12,0
263-286
33-36
80
W celu wyeliminowania niepożądanych oddziaływań magnetycznych występujących
pomiędzy magnesami a pozostałymi elementami konstrukcyjnymi układu należy większość
pozostałych elementów wahadła wykonać z mosiądzu, brązu lub miedzi. Szczególnie istotne
znaczenie ma to w przypadku elementów
mocujących magnesy do konstrukcji. Materiały stalowe (śruby, łożyska) rozmieszczamy w
możliwie dużej odległości od magnesów tak by nieznacznie zaburzały ruch wahadła. Płyta
dolna i górna wahadła została wykonana z przeźroczystej pleksi (Polimetakrylan metylu). Ma
to istotne znaczenie, ponieważ materiał ten nie jest tak kruchy jak szkło a jednocześnie
pozwala na swobodną obserwację ruchu wahadła.
4. Wnioski
Praca prezentuje schemat techniczny wahadła magnetycznego wykonanego w
Zakładzie Fizyki Komputerowej Politechniki Częstochowskiej. W wahadle magnetycznym
obserwuje się zjawisko chaosu deterministycznego [2]. Wahadło uzupełnione o układ
pomiarowy pozwoli na przeprowadzenie badań eksperymentalnych.
Literatura
[1] Strona internetowa dystrybutora magnesów P.P.H.U. „Enes”, www.enes.com.pl
[2] H.G. Schuster „ Chaos deterministyczny. Wprowadzenie ” , PWN 1993
58
FALE GĘSTOŚCI ŁADUNKU O SYMETRII D, S
I ROZSZERZONEJ S
Justyna Borek
Instytut Fizyki, Politechnika Częstochowska
Abstract.
We consider charge density waves with symmetry d, s and extended s.
Our results suggested that symmetry d is dominant and originates from pure electron-electron interaction. The symmetry s
and extended s can be neglected.
Wstęp.
W prezentowanej publikacji rozważamy hamiltonian opisujący oddziaływanie
elektron-elektron i elektron-fonon. Przy odpowiedniej dystrybucji wektora falowego opisuje
on fale gęstości ładunku.
Fale gęstości ładunku mogą być przyczyną formowania się pseudoszczeliny w stanie
normalnym w nadprzewodnikach wysokotemperaturowych [1].
Opierając się na danych eksperymentalnych [2] należy stwierdzić, że pseudoszczelina posiada
symetrię typu dx2-y2 W prezentowanym modelu wykażemy, że symetrię d należy powiązać z
czystym oddziaływaniem elektron-elektron.
Model.
Modelowy hamiltonian zapisujemy w następującej formie:
Pierwszy człon hamiltonianu (1) opisuje gaz nieoddziaływujących elektronów
gdzie εk określa elektronową relację dyspersyjną;
εk = −tγ (k)
to odpowiednio operator anihilacji (kreacji) elektronu w stanie Blocha o
Symbole
pędzie k i spinie 6. Czyste kulombowskie oddziaływanie pomiędzy elektronami modeluje
drugi człon hamiltonianu (1). Zapisujemy go w następującej formie:
Symbol Vijlm określa następujące elementy macierzowe
59
gdzie
Oddziaływanie opisane hamiltonianem (3) przedstawiliśmy graficznie na rysunku 1.
Rys.1. Diagram oddziaływania kulombowskiego pomiędzy dwoma elektronami
Efektywne oddziaływanie elektron-fonon prowadzące do powstania CDW modelujemy
hamiltonianem
Potencjał parujący VkQ zapisujemy w formie
Na rysunku 2 przedstawiliśmy diagram reprezentujący oddziaływanie modelowane
hamiltonianem (7).
Rys.2. Wymiana wirtualnego fononu pomiędzy elektronami prowadząca do powstania CDW.
60
Opierając się na wprowadzonym
modelu łatwo można zauważyć, że hamiltonian
elektronowo – fononowy (wzór 7) może indukować fale gęstości ładunku tylko o symetrii s.
Hamiltonian elektronowy (wzór 3) ma natomiast dużo bogatszą strukturę.
Przeprowadźmy przybliżoną analizę potencjału parującego w hamiltonianie (3) w tym celu
wybieramy następującą dystrybucję wskaźników macierzowych
Po prostych rachunkach stwierdzamy, że potencjał oddziaływania elektron-elektron można w
przybliżeniu zapisać w postaci:
gdzie
.
Z równań 10-13 wynika, iż oddziaływanie elektron-elektron prowadzi do powstania CDW o
symetrii d, s i rozszerzonej s.
Wnioski.
W prezentowanej pracy analizowaliśmy własności hamiltonianu modelującego
oddziaływania elektron-elektron i elektron-fonon. W przypadku prostej postaci wektora
modulacji Q ≡ (π/a, π/a) omawiany hamiltonian opisuje fale gęstości ładunku. Na podstawie
przeprowadzonej analizy stwierdzamy, iż symetria d fal gęstości ładunku związana jest z
czystym oddziaływaniem elektron-elektron. Symetria s ma znikome znaczenie z uwagi na
przeciwne wkłady wnoszone do hamiltonianu przez oddziaływanie elektron-elektron i
elektron-fonon. Fale gęstości ładunku o symetrii rozszerzonej s nie mogą powstawać w
przypadku półpełnego pasma.
Literatura:
[1] R. Szczęśniak, M. Mierzejewski, J. Zieliński: Physica C 335 (2001) 126.
[2] A. M. Gabovich, A. I. Voitenko, M. Ausloos: Physics Reports 367 (2002) 583 and
61
references therein.
WDRAŻANIE SYSTEMU ZARZĄDZANIA JAKOŚCIĄ
ZGODNEGO Z WYMAGANIAMI NORM
MIĘDZYNARODOWYCH
Ewa Sikora
Studenckie Koło Naukowe „INFOMET”
Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej
Politechnika Częstochowska
Wiele współczesnych przedsiębiorstw zarządza jakością. Koniecznym jest wiec
wychwytywanie, sprawdzanie i zakwestionowanie wszystkiego, co tego zagadnienia dotyczy.
Jakość jest obecnie głównym „źródłem” sukcesu rynkowego wielu organizacji. Czasopisma
biznesowe są zdominowane przez artykuły dotyczące jakości. Wskazuje wiec to na to, ze
przechodzimy „jakościową rewolucję”. Wzrasta więc nasza świadomość, że produkty i usługi
o wysokiej jakości mogą odgrywać niebagatelną role wobec konkurencji. Dobra jakość
pozwala zredukować koszty napraw, zwrotów itp., ale co najważniejsze wpływa na wzrost
satysfakcji klientów.
Niektórzy kierownicy wierzą, że w dłuższym okresie czasu, jakość jest
najważniejszym czynnikiem wpływającym na wynik, jaki uzyskuje przedsiębiorstwo. Tak
wiec dobra i usługi muszą być raz po raz udoskonalane, jako że konkurencja tez to robi.
Natomiast systemy i normy związane z zachowaniem jakości pomagają nie tylko w walce
konkurencyjnej o klienta, ale także zapewniają odpowiednie standardy ochrony środowiska
czy obsługi klienta w różnych instytucjach.
Czas potrzebny do zbudowania systemu zarządzania jakością zależy od wielkości
przedsiębiorstwa i kultury kierowania nim. Część systemów i norm związanych z
zachowaniem jakości jest w Polsce obligatoryjna, inne, mimo że nie są obowiązkowe, w
praktyce zadecydują o być albo nie być – na silnie konkurencyjnym rynku unijnym. Często
sprostanie standardom jakościowym wiąże się ze znacznymi kosztami, pomimo to jakość jest
wartością, w którą nie tylko trzeba, ale i warto inwestować.
Opiekunowie pracy:
Mgr inż. Marek Warzecha
Mgr inż. Tomasz Merder
62
WYKORZYSTANIE ARKUSZA KALKULACYJNEGO DO
ANALIZY OCEN PRACOWNIKÓW
Krzysztof Felikowski
Koło naukowe „Plus.Minus”
Katedra Zarządzania Produkcją i Logistyki
Politechnika Częstochowska
Wstęp
Mimo niesprzyjającej docenianiu zasobów ludzkich sytuacji na rynku pracy, uważa się,
że dotychczasowe traktowanie zasobów ludzkich jako kosztu dla przedsiębiorstwa jest
nieproduktywne. Zasoby ludzkie należy traktować jako zasoby posiadające określoną, choć
trudno wymierną wartość strategiczną dla firmy. Wartość ta wynika z kumulowanej latami
wiedzy i zdobytego w tym czasie praktycznego doświadczenia, która może nawet przesądzić
o „ być albo nie być” firmy.
Gospodarowanie zasobami ludzkimi jest jednym z obszarów funkcyjnych
przedsiębiorstwa, które podobnie jak inne obszary ( np. produkcja, zaopatrzenie, zbyt,
finanse) może podlegać komputeryzacji we wszystkich jego dziedzinach. Komputeryzacja
rozumiana jest jako wykorzystanie komputera i odpowiednich programów zarówno do
realizacji funkcji przetwarzania informacji (wyszukiwanie danych wg różnych kryteriów
i przedstawiania ich w systematycznej formie), jak i funkcji analitycznych ( ocenianie wg
podanych kryteriów) i decyzyjnych ( decyzje optymalizujące, symulujące i ekspertowe).
Komputerowe wspomaganie ma spełniać między innymi następujące role [1]:
• przyśpieszać dostęp do informacji
• przyśpieszać wykonywanie czynności rutynowych (np. prac obliczeniowych)
• ułatwiać i kontrolować procesy podejmowania decyzji
• pozwalać na gromadzenie i przechowywanie informacji w ekonomiczny sposób
Komputerowe wspomaganie zarządzania zasobami ludzkimi znajduje szerokie zastosowanie
w analizie dokonywania ocen pracowników i budowie strategii personalnych.
Strategie personalne
Jednym ze sposobów konstruowania i wyboru strategii personalnej jest analiza
portfelowa personelu ( porfolio analysis). Analiza portfelowa to metoda stosowana
w marketingu do określania znaczenia poszczególnych produktów dla firmy. W analogii do
analizy portfelowej produktów konstruowane jest personalne portfolio. Zbudowane jest ono
na dwóch kryteriach odnoszących się do oceny wyników pracy i posiadanego potencjału
rozwojowego[2].
Sporządzenie personalnego portfolio poprzedza ocena pracowników pod kątem
wybranych kryteriów. Przykładową analizę portfelową personelu przedstawia rysunek 1.
63
Wyniki
pracy
Dojne krowy
(fachowcy,solidni
pracow nicy,tzw. Żywiciele;
wysokie wykorzystanie
potencjału pracownika
przy niskich nakładach)
Balasty
(pracownicy mało
przydatni,
niewykorzyst anie
potencjału pracownika
do rozwoj u
przedsiębiorstwa)
Gwiazdy
(pracownicy obecnie
najlepsi i przyszłościowi,
opłacalne
i nwestowanie w
pracownika)
Dylematy
(tzw. Narybek,
problematyczni
pracownicy
niski poziom
“zwrotu”inwestycji
w pracownika)
Potencjał
rozwojowy
Rys. 1. Analiza portfelowa personelu.
Źródło :opracowanie własne na podstawie [2]
Analiza ocen pracowników przy wykorzystaniu arkusza kalkulacyjnego
W artykule zostały wykorzystane oceny pracowników dokonane za pomocą skali
punktowej. Badania przeprowadzono w jednym z częstochowskich przedsiębiorstw, ocenie
poddano 160 pracowników. Ocenie poddano ilość i jakość pracy oraz stosunek do klienta, co
obrazowało osiągane wyniki w pracy. Natomiast rozwojowość oceniana była poprzez
zdolność pracownika do adoptowania się do zmiennych warunków pracy oraz poprzez
samodzielność. Poszczególnym elementom przypisano wagi, różnicując je pod kątem ich
znaczenia i wpływu na wybrane kryteria. Wycinek wyników ocen został przedstawiony
w tabeli 1.
Tabela 1. Fragment ocen pracowników pod kątem osiąganych wyników w pracy
i rozwojowości.
Badane
składowe
Wyniki pracy
Potencjał
rozwojowy
Ilość pracy
Jakość pracy
Stosunek do
klienta
Samodzielność
Zdolność do
adptacji
1
4
2
2
3
4
4
3
5
3
4
2
3
3
3
4
4
4
3
3
3
3
3
3
3
4
3
3
3
3
6
3
3
7
3
3
8
4
3
2
3
4
3
3
3
3
4
3
Źródło: opracowanie własne na podstawie [3]
Uzyskane wyniki ocen zostały przemnożone przez ustalone wagi w arkuszu
kalkulacyjnym Excel:
=$C$3*D3,
gdzie C3 i D3 to adresy komórek, gdzie znajdują się mnożone wagi ocen i ocena pracownika.
64
Adres komórki, w której znajduje się waga musi być zablokowany (symbolem $), ponieważ w
trakcie przeciągania formuły mnożenia na pozostałych pracowników, wartość wagi musi
pozostać stała. W tabeli 2 został przedstawiony fragment wyników uzyskanych po
przeliczeniu.
Tabela 2. Fragment wyników ocen pracowników po przemnożeniu przez ich przez wagi
Pracownicy
Badane składowe
Przypisane wagi
1
2
3
4
5
6
Wyniki pracy
Ilość pracy
Jakość pracy
0,4
0,4
1,6
1,6
0,8
0,8
1,6
1,2
1,2 1,2
1,2 1,2
1,2
1,2
1,2
1,2
Stosunek do klienta
0,2
0,8
0,8
0,6
0,6 0,6
0,4
0,6
4
2,4
3,4
2,8
3
Suma
Potencjał
rozwojowy
7
3
3
Samodzielność
0,3
1,2
0,9
0,9
0,9 0,9
0,9
0,9
Zdolność do adaptacji
0,7
2,8
2,1
2,1
2,1 2,1
2,1
2,8
4
3
3
3
3,7
Suma
3
3
Źródło: opracowanie własne
Uzyskane wyniki należy zsumować, a następnie przy wykorzystaniu funkcji Excel można
określić, do której kategorii zaliczyć poszczególnego pracownika:
=jeżeli(warunek; działanie jeżeli spełni się warunek;
działanie jeżeli warunek się nie spełnił)
Dla uszeregowania ocenianych pracowników w odpowiednich grupach analizy portfelowej,
jako wartość graniczną przyjęto 2,5 pkt. Następnie dla określenia dokładnej ilości
pracowników w poszczególnych grupach zastosowano następującą funkcję Excel.
= Licz. Jeżeli( zakres; kryterium)
Częstotliwość występowania
Wyniki tych obliczeń przedstawia rysunek 2.
140
129
120
100
80
60
40
13
11
7
Dojne krowy
Balasty
20
0
Gwiazdy
Znaki zapytania
Kategoria
Rysunek 2. Liczba pracowników w poszczególnych grupach
Źródło: Opracowanie własne
65
Wnioski
Jak widać w strukturze przedsiębiorstwa dominują gwiazdy, co dobrze świadczy
o zasobach pracowniczych tego przedsiębiorstwa. Należy jednak zaznaczyć, że
przedsiębiorstwo to istnieje na lokalnym rynku zaledwie rok, i oceny na których oparta jest
przedstawiana analiza mogą być zawyżone. Ponadto sama analiza portfelowa ma kilka wad,
wśród których należy wymienić każdorazowe ocenianie pracowników tylko na podstawie
dwóch kryteriów, co zaciemnia obraz poszczególnych pracowników oraz trudności w
jednoznacznym zaszeregowaniu pracowników do którejś kategorii w sytuacji, gdy plasują się
oni na granicach tych kategorii.
W analizie portfelowej personelu z powodzeniem można zastosować podstawowe
funkcje arkusza kalkulacyjnego Excel. Ułatwia on dokonywanie obliczeń i sporządzanie
wykresów, które obrazują sytuację przedsiębiorstwa. Można go zaliczyć do podstawowych
narzędzi wspomagających zarządzanie przedsiębiorstwem.
Literatura:
1. Lipka A.: Uwarunkowania komputerowego wspomagania gospodarowania zasobami ludzkimi
w przedsiębiorstwie. Katowice: Wydawnictwo Akademii Ekonomicznej im. Oskara Lanego,
1996
2. Lipka A.: Strategie personalne firmy. Kraków: Wydawnictwo Profesjonalnej Szkoły Biznesu,
2000
3. Materiały z badanego przedsiębiorstwa
4. Danowski B.: MS Excel 2002/XP. Gliwice: Wydawnictwo Helion,2001
66
ANALIZA SWOT JAKO METODA BADANIA OTOCZENIA
PRZEDSIĘBIORSTWA
Bartłomiej Motyl
Koło Naukowe „Plus.Minus”
Katedra Zarządzania Produkcją i Logistyki
Politechnika Częstochowska
Wstęp
Analiza SWOT jest jedną z prostszych i najczęściej stosowanych technik
analitycznych. Nazwa jest akronimem angielskich słów: Strengths (silne strony), Weaknesses
(słabe strony), Opportunities (szanse), Threats (zagrożenia). Metoda ta służy do oceny
wewnętrznych i zewnętrznych czynników warunkujących rozwój organizacji. Podstawową
dyrektywą wynikającą z analizy SWOT jest: wykorzystać możliwości i szanse,
przezwyciężyć słabości, rozwijać mocne strony i wykorzystywać atuty oraz unikać zagrożeń.
Efektem analizy SWOT jest zestaw dobrze zdefiniowanych czynników mających wpływ na
stan organizacji. Na ich podstawie zarządzający mogą opracować i wybrać strategię działania.
Prawidłowo przeprowadzona analiza SWOT powinna skupiać się na ograniczeniu lub
wyeliminowaniu słabych stron organizacji, oraz na pielęgnowaniu dostrzeżonych jej silnych
elementów. Jej prostota zapewnia w miarę przejrzystą diagnozę stanu obecnego, oraz
umożliwia wskazanie dalszych kierunków rozwoju.
Cel analizy SWOT w nowopowstającym przedsięwzięciu
Chcąc stworzyć nowe przedsiębiorstwo i wprowadzić je z powodzeniem na rynek,
należy zbadać szereg czynników, w tym przede wszystkim szanse i zagrożenia oraz ocenić
opłacalność przedsięwzięcia. Do tego rodzaju badań najodpowiedniejszą metodą będzie
analiza SWOT. Pierwszym krokiem analizy SWOT jest ustalenie stanu początkowego –
obecnego, w jakim znajduje się osoba, bądź też osoby chcące stworzyć coś nowego, określić
wizję przedsięwzięcia oraz sposób w jaki można osiągnąć zamierzony cel.
Analiza SWOT opiera się na badaniu dwóch grup czynników: wewnętrznych i zewnętrznych.
Każda grupa rozpatrywana jest pod kątem pozytywnego i negatywnego wpływu na
organizacje. Z zestawienia szans i zagrożeń buduje się najczęściej tablice korelacji; z jednej
strony, szansę i zagrożenia, a z drugiej – silne i słabe strony firmy [1]. Schemat analizy
SWOT został przedstawiony na rys.1.
Analiza SWOT polega na zidentyfikowaniu wymienionych czterech grup czynników,
opisaniu ich wpływu na rozwój organizacji, a także na ocenie możliwości osłabiania lub
wzmacniania ich wpływu. Prowadzi to do wyboru strategii rozwoju organizacji. Dla
przedsiębiorstwa nieistniejącego silne strony są szansami, tak samo jak zagrożenia są słabymi
stronami.
Analiza SWOT została przeprowadzona dla projektu przedsiębiorstwa mającego
zaistnieć na rynku częstochowskim. Projektem przedsiębiorstwa zajmują się studenci,
posiadający wiedzę teoretyczną z zakresu zarządzania i marketingu. Celem tego
przedsięwzięcia jest utworzenie konkurencyjnej linii transportu osobowego na trasie
Częstochowa – Prusicko, pod egidą prywatnego przedsiębiorstwa, działającego z
powodzeniem na innym rynku. Takie rozwiązanie umożliwi stworzenie spółki „córki”.
67
Rys.1. Schemat analizy SWOT.
Źródło: opracowanie na podstawie [1]
Mocne strony
Pierwszym etapem analizy było określenie mocnych stron zarówno wewnątrz
projektowanego przedsiębiorstwa oraz istniejących szans w otoczeniu. Zestawienie
pozytywnych elementów zostało przedstawione w tabeli 1.
Tabela 1.Zestawienie mocnych stron dla projektowanego przedsiębiorstwa.
Czynniki wewnętrzne
Czynniki zewnętrzne
•
potencjał ludzki
•
wejście na rynek jako spółka „córka”
•
szybkość uczenia się
•
doświadczenie spółki „matki”
•
wiedza teoretyczna
•
fundusze strukturalne unii europejskiej
•
niskie koszty administracji
•
krótkie linie
•
niskie koszty eksploatacyjne
•
wyższa częstotliwość przejazdów
•
wyższa jakość usług
•
złamanie dominacji PKS
•
większa elastyczność
•
pomyślność podobnych przedsięwzięć
Źródło: Opracowanie własne
Najważniejszą i zarazem najbardziej wartościową rzeczą, w jakimkolwiek
przedsiębiorstwie, jest potencjał ludzki. W analizowanym przedsięwzięciu, są to młodzi
ludzie, studenci, o bardzo szerokich zainteresowaniach, pragnący skonfrontować teorię
z praktyką oraz mający na celu poprawę swojego standardu życia. W związku z powyższym
posiadają motywację, która jest determinantem i odgrywa istotną rolę w drodze do sukcesu.
Program studiów wprowadził takie przedmioty jak: bankowość, rachunkowość, podstawy
prawa, zarządzanie i marketing, które z całą pewnością pomogą w prowadzeniu działalności
gospodarczej. Przedmioty te są również przedmiotem egzaminów państwowych
umożliwiających otrzymanie licencji na przewozy osób w kraju i zagranicą [2]. Kwestia
finansowanie projektu w dużej mierze opierać się może o fundusze Unii Europejskiej, które
pozwalają, ubiegać się o dofinansowanie, bądź też refundację. Ponadto młodzi przedsiębiorcy
mogą skorzystać z pomocy instytucji wspierających przedsiębiorczość. Wejście na rynek jako
spółka „córka” pozwoli bazować na doświadczeniu spółki „matki”. Zaplecze techniczne oraz
infrastruktura organizacyjna, z założenia, opierać się będzie o spółkę „matkę”, która jest
dobrze prosperującym i efektywnym przedsiębiorstwem na rynku. Podstawą wszelkich
działań będą odpowiednie umowy cywilno-prawne. Dzięki takiemu posunięciu, utworzy się
niezbyt rozbudowana infrastruktura administracyjna, co pozwoli utrzymać niskie koszty
związane z prowadzeniem działalności gospodarczej. Tworząc krótkie linie, mające na
uwadze dobro mniejszej grupy potencjalnych klientów, będzie można uzyskać wyższą
częstotliwość przejazdów, co podniesie komfort i jakość usługi. W takim wymiarze
przedsięwzięcie ma szanse rozwoju i możliwości większej elastyczności w stosunku do
68
potrzeb klientów. Wiedza z zakresu zarządzania przedsiębiorstwem i marketingu, uzupełniana
zdobywanym, na bieżąco doświadczeniem, pozwoli spełniać coraz wyższe oczekiwania
klientów.
Słabe strony
Kolejnym krokiem analizy SWOT jest określenie i ocenienie zagrożeń dla nowego
przedsiębiorstwa. Ich zestawienie dla rozpatrywanego przedsięwzięcia zostało
przedstawione w tabeli 2.
Tabela 2.Zestawienie zagrożeń dla projektowanego przedsiębiorstwa
Czynniki zewnętrzne
Czynniki wewnętrzne
•
konkurencja PKS
•
brak zdolności kredytowych
•
doświadczenie konkurencji
•
brak środków własnych
•
nieufność ludzi do nowego przedsięwzięcia
•
brak koncesji
•
biurokracja urzędów
•
zerwanie umów przez spółkę „matkę”
Źródło: Opracowanie własne.
Największym zagrożeniem dla omawianego przedsięwzięcia jest konkurencja ze
strony PKS. Duże przedsiębiorstwa takie jak PKS działające na rynku przewozu osób bez
większego problemu mogą przejąć, obsługiwaną przez małą firmę, linię. Posiadają
odpowiednią bazę techniczną i są w miarę dobrze zarządzane – PKS w Częstochowie nie
przyniósł strat. Inną kwestią pozostaje dochodowość linii czy też po prostu „panowanie” na
lokalnym rynku. Potencjalni klienci nie będą posiadać podstaw, aby udzielić kredytu zaufania
nowemu dostawcy usług. Będzie to ktoś nowy, niesprawdzony. Pojawią się obiekcje, co do
punktualności i stałości dostarczonej usługi, w tym przypadku przewozu. Studenci nie
posiadają materialnego majątku i co za tym idzie, zdolności kredytowej, która jest podstawą
do udzielenia jakiegokolwiek kredytu. Mimo iż większość funduszy pożyczkowych oferuje
znacznie dogodniejsze warunki niż sektor bankowy problemem są poręczyciele. Ponadto
wielkość uzyskanych środków z funduszu niejednokrotnie nie pokrywa się
z zapotrzebowaniem, a uzależnione jest od wypłacalności poręczycieli oraz pożyczkobiorcy.
W sytuacji tej najdogodniejszym wyjściem, dla osoby chcącej uzyskać środki na
sfinansowanie swojego projektu, są Fundusze Strukturalne Unii Europejskiej. Ogromną
bolączką dla przyszłego przedsiębiorcy są również urzędnicy każdego szczebla, przy
rejestracji nowego przedsiębiorstwa. Każdy urząd to oczekiwanie na następne dokumenty,
kolejne 14 dni roboczych. Istotnym elementem w analizowanym przedsięwzięciu będą
umowy ze spółką „matką”. Może się zdarzyć tak, że „matka” nie podpisze umów, mimo
wcześniejszych zapewnień, bądź też nie dotrzyma zawartych w nich warunków.
Wnioski
Wyniki analizy SWOT dają obraz mówiący o powodzeniu bądź też porażce
przedsięwzięcia. Przyszli przedsiębiorcy, chcąc zaistnieć na rynku muszą pokonać swojego
rywala, jakim jest PKS. Z mojej oceny wynika, iż powodzenie projektu zależy głównie od
rynku, w którym została odnaleziona nisza jak i od efektywnego wykorzystania czynnika
ludzkiego, jakim niewątpliwie są studenci, posiadający znaczącą wiedzę teoretyczną. Mając
za sobą prosperującą i dobrze zarządzaną spółkę „matkę”, mogą skoncentrować się na celu
marketingowym. Oferowanie na konkurencyjnym rynku produktu lub usługi, zawsze
związane jest z koniecznością przekonania do oferty potencjalnych klientów. Należy przy tym
myśleć o produktach i usługach w kategoriach ich wysokiej użyteczności dla klienta. Również
69
należy spojrzeć na specyficzne i konkretne problemy, które produkt lub usługa może
rozwiązać.
Przesłanką do sukcesu rynkowego może być myślenie o ofercie w kategoriach, w jakich
postrzega ją nasz klient, który ma konkretny problem do rozwiązania. Klienci zwykle
zainteresują się produktem lub usługą, gdy będą przekonani, że oferta może udoskonalić lub
rozwiązać ich konkretny problem, z którym się borykają.
1.
2.
3.
Literatura:
Materiały strony internetowej www.infoport.pl.
Materiały Wydziału Komunikacji i Infrastruktury Urzędu Starostwa w Częstochowie.
H. Szulce: „Czynniki wyznaczające poziom konkurencji na regionalnym rynku”; Zeszyty
naukowe nr 1: „Przesłanki i narzędzia podejmowania decyzji marketingowych”;
Wydawnictwo Akademii Ekonomicznej w Poznaniu; Poznań 2000
4. P. Kingston: „Wielka księga marketingu”; Wydawnictwo. Signum, Kraków 1992
5. B. Dobiegała-Korona: „Business Plan w przedsiębiorstwie”, Wydawnictwo Infor, Warszawa
1996
70
MOŻLIWOŚCI DOSTOSOWANIA KWALIFIKACJI
BEZROBOTNYCH DO WYMAGAŃ PRACODAWCÓW
W CZĘSTOCHOWIE
Ewa Cyganek
Koło Naukowe PLUS.MINUS
Katedra Zarządzania Produkcją i Logistyki
Politechnika Częstochowska
Wstęp
Zjawisko bezrobocia jest jednym z poważnych problemów społecznych. Ze stopą
bezrobocia 18,6% (styczeń 2004) lokujemy się w europejskiej czołówce. W krajach Unii
Europejskiej w latach 1996-2003 liczba ludzi bezrobotnych spadła o 2,6pkt. procentowych
(z 10,8 do 8,2). Bezrobocie maleje też we wszystkich krajach wchodzących do UE. Tylko
w Polsce w ostatnich 7 latach bezrobocie zwiększyło się o 5 pkt. proc. Według raportu
Komisji Europejskiej bez pracy jest aż 42 % Polaków w wieku 18-25. Średnia Unijna to
15%[1].
Podobnie jest również w Częstochowie. Na koniec 2003r. było 18410 osób
bezrobotnych. Poruszając temat rynku pracy w Częstochowie nie należy zapominać o jednym
z najważniejszych pracodawców jakim jest Huta Częstochowa S.A. Problemy ekonomicznofinansowe tego podstawowego pracodawcy znajdują swoje odzwierciedlenie w sytuacji na
rynku pracy. Fakt postawienia Huty Częstochowa S.A. w stan upadłości spowodował, że
Częstochowa została uznana za obszar o szczególnym zagrożeniu bezrobociem.
W Częstochowie realizowanych jest wiele programów mających na celu aktywne
zwalczanie bezrobocia. Jednakże najbardziej racjonalnym projektem wydaje się dostosowanie
kwalifikacji potencjalnych pracowników do wymogów stawianych przez pracodawców.
Wymagania stawiane przez pracodawców
Obecna sytuacja na polskim rynku pracy skłania pracodawców do poszukiwania tzw.
„idealnych kandydatów”, gdyż dzięki nim przedsiębiorstwo będzie odnosiło sukcesy.
Pracodawcy poszukują dziś pracowników elastycznych, mobilnych i samodzielnych, którzy
posiadają dostateczną wiedzę teoretyczną i w czasie studiów nabyli doświadczenie
zawodowe, którzy potrafili radzić sobie finansowo, godzić okres nauki z okresem pracy.
Zestawienie oczekiwań pracodawców w stosunku do przyszłych pracowników przedstawia
tabela nr.1.
Tabela 1. Wymagania stawiane potencjalnym pracownikom.
Dane ogólnopolskie
Wyniki badań własnych
umiejętności zawodowe w tym bardzo dobra znajomość
języków obcych ;
umiejętność pracy w zespole
umiejętność efektywnego komunikowania się
umiejętności zawodowe:
odpowiednie wykształcenie ;
odpowiednie kwalifikacje ;
znajomość języków obcych ;
umiejętność obsługi komputera ;
umiejętność pracy w zespole
komunikatywność
łatwość w nawiązywaniu kontaktów międzyludzkich
otwartość na klienta
71
kreatywność oraz umiejętność znajdowania
niekonwencjonalnych rozwiązań problemów
kreatywność
inicjatywy i umiejętności realizowania postawionych
sobie celów
własna inicjatywa
głębokiej motywacji oraz gotowości do przyjęcia
odpowiedzialności
zaangażowanie w pracy
umiejętność podejmowania efektywnych decyzji, oraz
myślenia koncepcyjnego i analitycznego
umiejętność pracy w zespole
umiejętność zarządzania własnym czasem
umiejętność szybkiego uczenia się
umiejętności analityczne
umiejętność pracy w zespole
asertywność
solidność, sumienność
kultura osobista
Źródło : opracowanie własne na podstawie [2] i [5].
W tabeli tej przedstawiono wymagania pracodawców wg badań ogólnopolskich, a także
wyniki ankiet przeprowadzonych w Częstochowie w okresie od lutego do marca 2004 roku.
Porównując dane zawarte w tabeli 1 można stwierdzić , że wymagania pracodawców
w Częstochowie są zbieżne z wymaganiami pracodawców ogólnopolskich. Przede wszystkim
pracodawcy wymagają odpowiednich i rzetelnych umiejętności zawodowych. Poza tym
pracodawcy w Częstochowie oczekują od przyszłego pracownika: otwartości na klienta,
samodzielności, solidności i zaangażowania w pracę.
Analiza kursów i szkoleń przeprowadzonych w Częstochowie
Jak wynika z tabeli 1 najważniejsze na rynku pracy są odpowiednie umiejętności
zawodowe. Jedna z możliwości ich nabycia lub też pogłębienia są kursy i szkolenia
organizowane dla bezrobotnych. Kursy doskonalenia zawodowego na terenie miasta
Częstochowy organizowane są przez Powiatowy Urząd Pracy, Ochotnicze Hufce Pracy oraz
Miejski Ośrodek Wspierania Przedsiębiorczości (MOWP). Zestawienie przeprowadzonych
kursów / szkoleń w 2003 roku przedstawia tabela numer 2.
Tabela 2. Zestawienie kursów / szkoleń w 2003 roku.
URZĄD PRACY
OHP
Nazwa kursu/szkolenia
Liczba
osób
Nazwa kursu/szkolenia
Obsługa komputera z programami użytkowymi
40
Obsługa komputera klasy IBM PC
Obsługa AutoCad
2
Obsługa pakietu projektowo graficznego
AutoCad
Księgowość wspomagana komputerem
Liczba
osób
29
3
Księgowość komputerowa
11
Kurs przedsiębiorczości
60
Podatkowa księga przychodów i rozchodów
1
Podstawy przedsiębiorczości " mój własny
biznes "
Księga przychodów i rozchodów
7
Obsługa komputera + kasy fiskalnej
99
Obsługa komputera i kas fiskalnych
89
Kurs obsługi kasy fiskalnej
Palacz CO
59
5
Obsługa kas fiskalnych
Palacz kotłów CO
80
14
139
1
Magazynier
40
Zaawansowany pakiet projektowo-biurowy
40
Obsługa żurawi samojezdnych
5
51
Kurs dokształcający kierowców przewożących osoby
lub rzeczy
Zarządzanie nieruchomościami i pośrednictwo w
obrocie nieruch.
Weryfikacje spawalnicze
22
5
Obsługa kas fiskalnych wspomaganych
komputerem
Obsługa komputera z pakietem magazynhurtownia-sprzedaż
Stolarz
8
Obsługa systemu zarządzania produkcją
5
Pracownik ochrony
6
Zarządzanie systemem Linux
2
72
12
10
Operator sprzętu ciężkiego
5
Handlowiec- Sprzedawca
24
Prawo jazdy kat. C i D
62
Szwacz
15
Spawalniczy
8
Firma symulacyjna płytkarz-posadzkarz układanie paneli ściennych i podłogowych
10
Obsługa wózka widłowego
Przewóz materiałów niebezpiecznych
Obsługa programu Adobe Fhoto- Shop
29
35
2
Kurs uprawnień elektro- energetycznych SEP
33
Obsługi stacji paliw
1
Kurs ręcznego przepalacza gazowo-tlenowego
2
Kurs drwali operatorów pilarek
3
Kurs dokształcający kierowców przewożących osoby
lub rzeczy
Fryzjerski
35
Sprzedawca usług
5
Telekomunikacyjny
12
Kroju i szycia
18
Kurs kadrowo płacowy
12
Magazynier
29
1
Kurs bukieciarstwa
12
Sekretarka asystentka dyrektora
5
Kurs gosposi opiekunki
15
Warsztaty z zakresu pośrednictwa nieruch.
1
Dla pracowników służb BHP
1
Kosztorysowania robót budowlanych
1
Pielęgniarstwo rodzinne dla położnych
5
Kurs dla pielęgniarek i położnych po 5- letniej
przerwie w wykonywaniu zawodu
SUMA:
8
703
SUMA:
531
SUMA OGÓŁEM:1234
Źródło: opracowanie własne na podstawie [3]
Jak wynika z zestawienia w tabeli 2 z oferowanych kursów i szkoleń w 2003 roku
skorzystało 1234 osób. Największą popularnością cieszą się takie kursy jak obsługa
komputera i kas fiskalnych, kursy przedsiębiorczości oraz kursy na prawo jazdy kategorii C
i D. Natomiast niewielkie zainteresowanie wzbudzają kursy obsługi stacji paliw, fryzjerskie,
dla pracowników służb BHP (uczestniczyło w nich tylko po 1 osobie). Jeśli chodzi
o warsztaty z zakresu pośrednictwa nieruchomościami i kursy kosztorysowania robót
budowlanych nie dają one pełnego prawa do wykonywania zawodu ponieważ muszą one być
potwierdzone egzaminem państwowym. Należy, więc zastanowić się nad sensownością
organizowania tego typu kursów. Zestawienie sześciu najbardziej popularnych kursów w UP
i OHP zostało przedstawione na rysunku 1.
W tabeli 2 nie zostały ujęte kursy i szkolenia przeprowadzone przez MOWP ze względu
na ich niewielką liczbę. Jest to spowodowane faktem, iż głównym przedsięwzięciem
realizowanym przez MOWP w ciągu ostatnich 2 lat było prowadzenie seminariów,
konferencji i prelekcji poświęconych tematyce MSP , oraz realizacja programu edukacyjnego
„ Przedsiębiorczość szansą dla Ciebie”. W 2003 roku MOWP przeprowadził szkolenia
w których wzięło udział 990 osób, wśród których znalazły się osoby bezrobotne,
rozpoczynające działalność gospodarczą, przedsiębiorstwa działające na rynku w tym
z sektora MSP i inni (uczniowie, studenci, absolwenci).
73
`Kursy UP
1. obsługa komputera +
kasy fiskalnej
2. prawo jazdy kat. C i D
3. kurs przedsiębiorczości
4. kursy obsługi kasy
fiskalnej
5. magazynier obsługa
komputera z programami
użytkowymi
120
liczba uczestników
100
99
80
62
60
59
60
40
40
5
6
40
20
0
1
2
3
4
nazw kursu
160
liczba uczestników
140
139
120
89
100
80
80
51
60
40
40
29
20
0
A
B
C
D
E
F
nazwa kurs u
Kursy OHP
A. podstawy
przedsiębiorczości „Mój
własny biznes”
B. obsługa komputera i kasy
fiskalnej
C. obsługa kas fiskalnych
D. obsługa kas fiskalnych
wspomaganych
komputerem
E. zaawansowany pakiet
projektowo – biurowy
Rys.1.Zestawienie najbardziej popularnych kursów 2003 r.
Źródło: opracowanie własne na podstawie [3]
Podsumowanie
Analizując zebrane dane można stwierdzić, że:
Najbardziej racjonalnym projektem zwalczania bezrobocia jest dostosowanie kwalifikacji
potencjalnych pracowników do wymogów stawianych przez pracodawców;
Posiadanie przez pracowników takich cech jak kreatywność, mobilność, samodzielność
będzie w przyszłości gwarantem powodzenia;
Zastąpienie lub wycofanie kursów niepopularnych, kursami np. języków obcych bądź
kursami adekwatnymi do wymogów rynku pracy;
Zdolność utrzymania się na rynku pracy będą miały tylko te osoby, które błyskawicznie
zareagują na dokonujące się zmiany-kształcenie ustawiczne;
Literatura:
1 Newsweek Polska 43/2003;
2 Informator Praca – edycja 2004
3 Dane Powiatowego Urzędu Pracy i Ochotniczego Hufca Pracy w Częstochowie
4 Dane Miejskiego Ośrodka Wspieranie Przedsiębiorczości
5 Badania własne - ankieta
74
REMONT I ZABEZPIECZENIE ANTYKOROZYJNE
ZABYTKOWEGO KOŁA WODNEGO
Anna Balt
Koło Naukowe „Piecowników”
Katedra Pieców Przemysłowych i Ochrony Środowiska
Politechnika Częstochowska
Abstrakt
Największy zespół cennych reliktów Zagłębia Staropolskiego zlokalizowany jest w
Muzeum Zagłębia Staropolskiego w Sielpii Wielkiej. Żelazne koło wodne w Muzeum
Techniki jest klasycznym przykładem koła, które zaopatrywało zakład w energię. W Polsce
jest to jedyne koło takiej wielkości i trzecie w świecie, które zachowało się do dziś. Koło
wodne z wyjątkiem jego nadzwyczajnej konstrukcji stanowi autentyczne dzieło sztuki. W
pracy omówiono remont tego koła wodnego. Remont został podjęty w roku 2003 przez Koło
Naukowe „Piecowników” Politechniki Częstochowskiej.
1. Wstęp
Koło wodne wynaleziono prawdopodobnie na przełomie II i I w. p.n.e. w Azji
Mniejszej. W Polsce koło wodne w kuźnicach zaczęto wykorzystywać na przełomie XII
i XIII w. [1, 2]. Było to związane z osiedleniem się na ziemiach polskich Cystersów
i uruchomieniem w okolicy Wąchocka, nad rzeką Kamienną, kuźnic produkujących żelazo.
Znane są trzy konstrukcje kół wodnych (rys.1): nasiębierne (A), śródsiębierne (B),
podsiębierne (C).
Rys.1 Rodzaje kół
wodnych
a-dopływ wody
b-koło wodne
c-odpływ wody
75
Żelazne koło wodne w Muzeum Techniki w Sielpi (rys.2.) jest klasycznym przykładem koła
śrudsiębiernego. Pod względem rozmiarów to jedyne w Polsce, a trzecie
w świecie.
Rys.2 Koło wodne w Muzeum Techniki w Sielpi D=6 m, P .50 kW
2. Historia koła wodnego
Jednym z większych zakładów hutniczych na terenie Zagłębia Staropolskiego był
zakład w Sielpi Wielkiej, który od roku 1934 stanowi Muzeum Zagłębia Staropolskiego i jest
Oddziałem Muzeum Techniki NOT w Warszawie. Fabryka Sielpiańska powstała 1842 roku
pod nazwą „Walcowna i Pudlingarna" i była jednym z ogniw Przemysłowego Zagłębia
Staropolskiego zlokalizowanego wokół Gór Świętokrzyskich. Była ona wyposażona w 3
piece pudlarskie i 2 walcarki z piecami grzewczymi. Profil produkcyjny zakładu dostosowany
był do potrzeb rolniczego regionu. Umożliwiał wykonywanie z półproduktów walcowni: okuć
wozów transportowych i chłopskich, produkcję narzędzi rolniczych, gospodarskich itd.
Energię mechaniczną dostarczały dwa ogromne koła wodne, zasilane ze specjalnie
zbudowanego systemu dwóch zbiorników istniejących do dziś. Koło wodne, unikat w skali
światowej, zostało w latach 1970 – 1981 wyremontowane przez studentów Politechniki. W
latach 1984 – 2003 koło nie było remontowane.
Czas ten w zakresie stanu technicznego koła okazał się czasem destrukcji. Brak remontów,
jego częste i długotrwałe uruchomienia oraz postępujące „zanurzenie” w stojącej wodzie
zrobiły swoje.
Wstępna diagnostyka koła wykazała, że bez wykonania remontu koło skazane jest na
zniszczenie niezależnie, czy będzie uruchamiane, czy też nie. Jeżeli będzie uruchamiane –
zginie śmiercią „mechaniczną”. Ponieważ wiele śrub, nitów i blach uległo zużyciu w czasie
eksploatacji, to dalsze niszczenie będzie następować w postępie geometrycznym. Jeżeli koło
76
nie będzie uruchamiane – zginie śmiercią „chemiczną”. Elementy koła znajdujące się
w wodzie ulegają widocznej korozji.
Szczegółowej diagnostyki, remontu i zabezpieczenia antykorozyjnego podjęło się
Koło Naukowe „Piecowników” na wniosek Muzeum Techniki NOT w Warszawie.
3. Diagnostyka, remont i zabezpieczenie antykorozyjne koła
Diagnostykę techniczną koła rozpoczęto od wykonania rysunku technicznego,
fragment którego zamieszczono na rys.3.
Rys. 3 Szczegóły konstrukcyjne koła
1-element wieńca koła; 2 -listwa krańcowa do mocowania karczówki; 3-karczówka; 4,6- śruba L; 5-listwa wzmacniająca; 7- listwa
środkowa do mocowania karczówek: 8- łącznik elementów tarczy koła; 9- listwa wzmacniająca karczówkę; 10- szprycha.
Na tegorocznym obozie poza pełną diagnostyką techniczną wykonano częściowy remont
koła. Szczegółowy wykaz wymienionych elementów zamieszczono w tabeli 1.
Tabela 1Wykaz elementów wymienionych i uzupełnionych w kole wodnym.
Lp.
Nr
karczówki
Wymieniony element
1.
1
Wymieniono 7 śrub
2.
2
Wymieniono 4 śruby i 1 śrubę L
3.
3
Wymieniono ½ karczówki, listwę wzmacniającą, 3 śruby L, 17 śrub
4.
4
Wymieniono 6 śrub
5.
5
Wymieniono 2 śruby
6.
8
Wymieniono 2 śruby
7.
9
Wymieniono 1 śrubę
8.
10
Wymieniono 2 śruby
9.
11
Wymieniono 4 śruby
10.
12
Wymieniono 1 śrubę
11.
13
Wymieniono 3 śruby
12.
16
Wymieniono 2 śruby L
13.
17
Wymieniono całą karczówkę, 2 listwy, 2 śruby L, 22 śruby
14.
57
Wymieniono 6 śrub
15.
59
Wymieniono 7 śrub
16.
60
Wymieniono 4 śruby
L – śruby rozporowe, mocujące karczówki
77
Prace przy remoncie koła są niezwykle uciążliwe i czasochłonne. Przykładowo dla
wymiany jednej karczówki należy: wyciąć kilkanaście starych śrub, usunąć kilkanaście
starych nitów, usunąć starą karczówkę, wykonać w nowej karczówce ponad 20 otworów na
śruby, dopasować nową karczówkę w kole, wykonać otwory w listwie wzmacniającej,
uzupełnić 2 lub 3 śruby L, uzupełnić ponad 20 innych śrub.
Wykonanie wielu z tych prac było niezwykle trudne.
Niemożliwe było mechaniczne usunięcie nitów mocujących starą karczówkę do poszycia
koła. Dla wykonania tych prac niezbędny był udział pracownika z uprawnieniami do cięcia
gazowego oraz zabezpieczenie palnika gazowego i butli gazowej.
Uzupełnienia karczówek, listew, śrub L i pozostałych śrub wykonano w ten sposób, aby
wzmocnić koło na całym obwodzie. Uzupełniono też wiele śrub „tymczasowo”. Śruby te
mają zadanie podtrzymywać i wzmacniać karczówki oraz listwy do czasu ich wymiany lub
remontu.
Tegoroczne prace spowodowały, że można odnieść wzrokowe i słuchowe wrażenie
o dobrym stanie koła.
4. Wnioski
Na podstawie przebiegu wykonanych prac przy kole można sformułować następujące
wnioski:
1. Koło wodne, unikalny zabytek polskiej myśli technicznej, powinno bezwzględnie
podlegać ciągłym remontom i przeglądom.
2. Remont koła wymaga niewielkich nakładów finansowych i bardzo dużych nakładów
pracy ludzkiej.
3. Możliwe jest wykonanie całkowitego remontu koła w okresie 2 lat
(2 obozów).
4. Koło, do czasu zakończenia remontu, powinno być eksploatowane
w ograniczonym zakresie.
5. Dla zmniejszenia chemicznej degradacji koła należy okresowo zmieniać jego
położenie (obracać o 90 lub 180o).
Remont koła prowadzono przy merytorycznym nadzorze pracowników Muzeum Techniki
NOT w Warszawie.
Literatura
1.K. Dorcz, Koło wodne. Końskie 2001 r.
2.A. Bocheński, Przemysł Polski w dawnych wiekach. Warszawa 1984 r.
3.F. Szwagrzyk, S. Knapik, A. Saładziak, 2000 lat hutnictwa żelaza na ziemiach polskich. Śląsk,
Katowice 1976 r.
Opiekun naukowy
Dr hab. Inż. Marian Kieloch
78
REKONSRUKCJA PIECA PUDLINGOWEGO
Monika Dąbrowska
Koło Naukowe „Piecowników”
Katedra Pieców Przemysłowych i Ochrony Środowiska
Politechnika Częstochowska
Abstrakt
W 1784 roku Anglik-Henry Cort wynalazł nową metodę świeżenia surówki. Obróbka
metodą Corta odbywała się w tzw. piecu odbłyskowym (pudlarskim). Istotą świeżenia tym
sposobem było oczyszczanie płynnej surówki za pomocą utleniania. Piece pudlarskie
wprowadzono na ziemiach polskich w roku 1832.W roku 2003 podjęto rekonstrukcję takiego
pieca w Muzeum Zagłębia Staropolskiego w Sielpi Wielkiej.
1.Wstęp.
W 1784 roku Anglik-Henry Cort wynalazł nową metodę świeżenia surówki. Obróbka
metodą Corta (rys. 1) odbywała się w tzw. piecu odbłyskowym (pudlarskim).
Rys.1. Schemat pieca odbłyskowego (pudlarskiego).
Istotą świeżenia tym sposobem było oczyszczanie płynnej surówki za pomocą
utleniania. Zastosowanie procesu pudlingowego spowodowało:
- zastąpienie węgla drzewnego we fryszerkach drewnem lub węglem kamiennym;
- kilkakrotne zwiększenie wydajności pieca,
- zdecydowane zmniejszenie strat Fe.
2.Piece pudlingowe w Sielpii.
Można przyjąć, że piece pudlingowe w Sielpii wybudowano w latach 1840-1842 i w
pierwszym okresie były opalane suszonym drewnem. Drewno jako paliwo do opalania
pudlingów stosowano do roku 1844. W tym roku inżynier Girard przebudował paleniska
pieców na węgiel kamienny.
79
Podczas II Wojny Światowej piece wraz z całym wyposażeniem Zakładu zostały
całkowicie zniszczone. Jedynymi śladami pozostałymi po piecach okazały się fragmenty
kamiennych fundamentów. Na podstawie pracy [1] można przyjąć, że w Sielpii pracowały 3
piece. Znane są również opracowania mówiące o pracy 6 pieców. W opracowaniu z roku
1841 [2] czytamy: „Pudlingarnia składać się będzie z 6 pieców płomiennych pudlingowych i
6 płomiennych wygrzewczych czyli szwejsowych, a między nimi wielki młot kolbowy
poruszany siłą wody, i nożyce.”
3.Rekonstrukcja pieca pudlingowego.
Pierwsze prace nad rekonstrukcją pieca pudlingowego pracownicy
i studenci naszego Wydziału podjęli na przełomie lat siedemdziesiątych
i osiemdziesiątych. W latach 1979-1985 wykonano inwentaryzację dwóch fundamentów
pieców. Na jej podstawie, oraz znanych szkiców i rysunków wykonano dokumentację
techniczną pieca. W roku 1988 odbudowano fundament pieca oraz podstawę komina.
Do prac związanych z rekonstrukcją powrócono w roku 2003. Prace te miały na celu:
- inwentaryzację istniejących elementów i materiałów do budowy pieca,
- specyfikację (na podstawie projektu pieca) elementów i materiałów niezbędnych do
budowy pieca,
- wykonanie specyfikacji brakujących elementów i materiałów,
- wykonanie brakujących rysunków,
- szacunkowe określenie kosztów niezbędnych do wybudowania pieca.
Na podstawie istniejącej dokumentacji wykonano rysunek pieca po pełnej odbudowie
(Rys. 2).
dolna
część
okno rusztu
czopuch
okno wyrobowe
okno załadowcze
Rys. 2. Widok pieca pudlingowego z fragmentem komina.
80
Dla opisu budowy pieca wykonano jego przekrój wzdłużny (Rys. 3).
sklepienie łukowe
czopuch
ściany
ruszt
trzon
Rys. 3. Przekrój wzdłużny pieca pudlingowego
Na rysunku 3 przedstawiono przekrój wzdłużny pieca, na podstawie którego
wykonano prace inwentaryzacyjne mające na celu oszacowanie zapotrzebowania na materiały
do pełnej rekonstrukcji pieca.
Piec pudlingowy zbudowany jest z szamotowego (szamot A) wyłożenia ogniotrwałego
wewnątrz oraz z izolacji termicznej (czerwonej cegły) na zewnątrz. Trzon pieca leży na
czterech podporach żeliwnych i wyłożony jest mieszaniną żużla, piasku i szamotu. Strop
zbudowany jest z klinów stojących 1S4, 1S10 i 1S16 wykonanych z szamotu typu A
tworzących sklepienie łukowe, które zmniejsza swój promień w kierunku komina. Piec
opalany jest węglem kamiennym, a spaliny ogrzewając piec przepływają przez czopuch
wykonany
z tego samego materiału, co ściany i opartego na 4 żeliwnych kolumnach i trafiają poprzez
komin (szamot B) do atmosfery. Obróbka płynnej surówki następuje poprzez okno wyrobowe
przy pomocy drewnianych drągów.
Ustalono, że po uwzględnieniu materiałów, będących w posiadaniu Muzeum do pełnej
rekonstrukcji pieca, niezbędne są materiały zamieszczone w tabeli 1.
Tabela 1. Zapotrzebowanie na materiały
Materiał
Vcałk [m3] mcałk [kg]
Żl 150
St3
LI400
LI500
Szamot A
Cegła
czerwona
0,9787 6851,24
0,4452 3472,72
0,1555 1213,06
0,0180
140,40
7,1643 13612,20
16,3000
Na podstawie wykonanych zestawień ustalono, że dla wybudowania pieca niezbędne są
nakłady materiałowe w wysokości około 100 tys. zł, nie licząc kosztów przygotowania
modeli i form do wykonania odlewów.
Należy przyjąć, że z kosztami modeli i form nakłady materiałowe należy szacować na 200
do 300 tys złotych.
Dalsze, ponad 50 tys. zł, jest niezbędne na organizację Obozów Naukowych. Należy
założyć, że zdobycie funduszy w tej kwocie jest niemożliwe.
81
4.Dokończenie rekonstrukcji pieca.
Zakończenie rekonstrukcji pieca odtworzy piec pudlarski dawniej w tym Zakładzie
działający co będzie miało znaczenie dla przywrócenia go do stanu przed wojennymi
zniszczeniami. Piec ten będzie usytuowany na oryginalnym fundamencie.
Równocześnie, a może przede wszystkim, zrekonstruowany piec (jedyny tego rodzaju w
Środkowej Europie, a może i w świecie) stworzy możliwość prowadzenia praktycznych
badań nad procesem pudlingowym, co będzie istotnym wkładem do pogłębiania wiedzy w
zakresie historii rozwoju techniki metalurgicznej.
Autorzy doszli do wniosku, że jedyną możliwością wybudowania pieca jest zastąpienie
większości odlewanych elementów- stalowymi, produkowanymi w krajowych hutach żelaza.
Dla zrealizowania tego wniosku konieczna była zmiana dokumentacji pieca i ponowne
wykonanie rysunków wszystkich elementów. Na tak dokonanym „oszustwie” historii
możliwe są oszczędności blisko 200 tys. złotych i odbudowa pieca.
Wnioski.
Na podstawie wykonanych prac projektowych i obliczeniowych można sprecyzować
następujące wnioski:
1. Istnieje niepowtarzalna szansa wybudowania na oryginalnym fundamencie pieca
pudlingowego.
2. W wybudowanym piecu możliwe będzie prowadzenie procesu otrzymywania żelaza
pudlarskiego.
3. Wybudowany piec, prawdopodobnie będzie jedynym pracującym piecem w świecie.
4. Do wybudowania pieca niezbędne są nakłady w wysokości ponad 300 tys. zł i ich
zdobycie w najbliższych latach jest niemożliwe.
5. Zastąpienie większości elementów odlewanych walcowanymi może obniżyć koszty
materiałowe do około 100 tys. złotych.
6. Dla tak zmienionej konstrukcji pieca i rzeczowej pomocy polskich hut stali
wybudowanie pieca pudlingowego jest możliwe w czasie 2-3 lat.
Literatura:
1. M. Radwan, Rudy, kuźnice i huty żelaza w Polsce. WNT Warszawa 1963. Wyd I.
2. H. Łabędzki, Górnictwo w Polsce. Opis kopalnictwa i hutnictwa polskiego pod względem
technicznym, historyczno- statystycznym i prawnym. Tom I, Warszawa 1841. Wydano w
drukarni Juliana Kaczanowskiego, przy ulicy Miodowej nr 493.
Opiekun naukowy
Dr hab. inż. Marian Kieloch
82
NOWA GENERACJA PRZEWODÓW JEZDNYCH Z MIEDZI
SREBROWEJ PRZEZNACZONYCH DO DUŻYCH
PRĘDKOŚCI JAZDY
Paweł Kwaśniewski
Koło Naukowe Przeróbki Plastycznej i Metaloznawstwa
Wydział Metali Nieżelaznych
Akademia Górniczo-Hutnicza im St. Staszica
Tradycyjne przewody jezdne wykonywane są z miedzi elektrolitycznej w gat. ETP. Z
uwagi na ograniczone własności eksploatacyjne (wytrzymałość na rozciąganie, odporność na
ścieranie i działanie podwyższonych temperatur) nie nadają się one do sieci trakcyjnych
przeznaczonych do szybkich pojazdów szynowych (pow. 250 km/h). Własności takie można
uzyskać przez dodanie srebra do miedzi w ilości poniżej 1000 ppm. Potrzeba wdrożenia
takich przewodów do polskich sieci trakcyjnych wynika z faktu aneksji Polski do UE i
dostosowania międzynarodowego układu połączeń do standardów europejskich.
W referacie przedstawiono analizę mechanicznych warunków pracy oraz wymagania jakie
stawia przewodom jezdnym górna część sieci trakcyjnej oraz wyniki badań odporności na
ścieranie i działanie podwyższonej temperatury dla przewodów tradycyjnych i z miedzi w gat.
CuAg0,1. Badania przeprowadzono na oryginalnych specjalnie do tego celu
zaprojektowanych stanowiskach badawczych.
Opiekun naukowy referatu
dr hab. inż. Tadeusz Knych
83
STRUKTURA I WŁAŚCIWOŚCI STALI WCL
(X38CRMOV5-1) PO WSTĘPNEJ OBRÓBCE CIEPLNEJ W
ZŁOŻU FLUIDALNYM
Piotr Komorowski
Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej
Politechnika Częstochowska
Streszczenie
W pracy przedstawiono wyniki badań przeprowadzonych dla stali narzędziowej do pracy
na gorąco WCL ( X38CrMoV5-1) po procesie wstępnej obróbki cieplnej w złożu fluidalnym.
Celem badań było określenie zmian jakie zachodzą w strukturze i właściwościach materiału
po przeprowadzonej obróbce cieplnej w porównaniu do materiału w stanie wyjściowym.
Przeprowadzenie obróbki cieplnej oraz określenie zmian w strukturze oraz
właściwościach wykazać miało, że istnieje możliwość zmiany morfologii struktury
(rozdrobnienie fazy węglikowej, zmiana wielkości byłego ziarna austenitu, co jest szczególnie
ważne dla detali o dużych wymiarach. Uzyskanie podłoża o lepszych właściwościach pozwoli
w dalszych procesach obróbki cieplno – chemicznej na podniesienie dopuszczalność,
odporności na zmęczenie cieplne oraz trwałości eksploatacyjnej.
Wstęp
Szybki rozwój nauki i co za tym idzie technologii z zakresu metaloznawstwa narzędzi,
zmusza inżynierów do opracowywania coraz to nowszych i lepszych materiałów oraz technologii
ich wytwarzania. W związku z powyższym, obecne czasy wymagają od konstruktorów ciągłego
obniżania kosztów produkcji, co można dostrzec we wszelkiego rodzaju technikach obróbki
cieplnej i cieplno – chemicznej. Przykładem tych zmian jest postęp jaki się dokonuje w ciągłym
wdrażaniu i udoskonalaniu obróbki cieplnej w złożu fluidalnym. Jak wynika z ostatnich publikacji
naukowych, stosowanie tej metody jest uzasadnione pod względem ekonomicznym, a także spełnia
ona aspekt ekologiczny.
We wszystkich znanych obecnie obróbkach cieplnych i cieplno – chemicznych można
zaobserwować wyraźny wzrost w kierunku polepszenia powierzchni tworzyw metalicznych.
Przypadek stali narzędziowych do pracy na gorąco, skłania do tworzenia materiałów,
a następnie narzędzi wyróżniających się dobrą korelacją własności warstwy wierzchniej
i rdzenia. W ogólnym zatem ujęciu, narzędzia powinny cechować się dużą twardością, odpornością
na ścieranie oraz wykazywać wysokie własności wytrzymałościowe zwłaszcza w temperaturach
pracy. Własności te skupiają w sobie całego procesu wytwarzani metalu, począwszy od jego
wytopu po obróbki finalne.
Eksploatacja i związane z tym zużycie narzędzi do pracy na gorąco, wynikać może ze złego
przygotowania stali pod względem jej struktury i własności. Opierając się o dane literaturowe z
dziedziny stali narzędziowych, można wnioskować, że za eksploatację oraz zużywanie się narzędzi
odpowiada między innymi obecna w strukturze faza węglikowa. Dlatego priorytetową sprawą przy
produkcji narzędzi uzyskanie odpowiedniego podłoża strukturalnego w stali.
Zagadnienie techniki rozdrobnienia oraz sferoidyzacji węglików w stali WCL przed
dalszymi jej obróbkami jest tematem istotnym, a jednocześnie dość problemowym. Badania
stanowią próbę rozwiązania tego problemu, w aspekcie obróbki cieplnej w złożu fluidalnym.
84
WARSTWA WIERZCHNIA WAŁKÓW ROZRZĄDU PO
PROCESIE EKSPLOATACJI
Piechna Andrzej
Koło Naukowe „ METALOZNAWCÓW ”
Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej
Instytut Inżynierii Materiałowej
Politechnika Częstochowska
Streszczenie
Celem przedstawionej pracy jest analiza mikrostruktury warstwy wierzchniej elementów
wałka rozrządu samochodów osobowych typu: Toyota Lexsus, BMW 320, Ford Escort,
Polonez oraz ocena efektów zużycia.
Wstęp
W nowoczesnym silniku spalinowym występuje duża liczba detali narażonych na
zużycie. Jednym z nich jest wałek rozrządu od którego wymagane jest: przenoszenie
obciążeń, momentu skręcającego oraz eksploatacji w zmiennych warunkach smarowania jest
wałek rozrządu. Obecnie istnieje kilka technologii, z których wykonuje się wałki rozrządu:
- technologia odlewania,
- technologia odlewania z następnym procesem obróbki cieplnej.
Technologia pierwsza wykonane zostały wałki rozrządu od Toyota Lexsusa i BMW
320 a technologią drugą wałki Forda Escorta i Poloneza.
Analiza wyników
Wałki rozrządu od Toyoty Lexsusa i BMW 320 wykonane zostały z żeliwa zabielanego
w krzywce występuje żeliwo białe nadeutektyczne, natomiast w części nie współpracującej
żeliwo szare z grafitem płatkowym. Cechą charakterystyczną ujawnionej mikrostruktury w
krzywce wałka rozrządu jest różny sposób ułożenia i wielkość igieł cementytu pierwotnego w
osnowie ledeburytu przemienionego. Obecność struktury ferrytyczno-perlitycznej z
wydzieleniami grafitu płatowego w części nie współpracującej zapewnia możliwość
przenoszenia momentów skręcających oraz tłumienia drgań.
Wałki rozrządu od Forda Escorta oraz Poloneza został wykonane z żeliwa szarego z
wydzieleniami grafitu sferoidalnego. Warstwę wierzchnią wałka poddano procesowi
hartowania indukcyjnego z następnym odpuszczaniem. Na całej powierzchni widać strefę
zahartowaną składającą się z martenzytu odpuszczonego drobnoziarnistego z wydzieleniami
grafitu. Rdzeń jest wykonany z żeliwa szarego o osnowie ferrytyczno-perlitycznej. Różnica w
technologii polega na różnym kształcie wydzieleń grafitu: grafit płatkowy (Ford Escort),
grafit sferoidalny (Polonez).
Podsumowanie
Wałki rozrządu BMW 320 i Toyoty Lexsus wykonane zostały z żeliwa zabielanego w
procesie technologicznym – odlewanie (krystalizacji pierwotnej). Obecność ledeburytu
przemienionego z igłami cementytu pierwotnego zapewnia dobrą odporność na ścieranie i
zdolność do zachowania tzw „filmu olejowego ” podczas eksploatacji.
85
Wałek rozrządu Poloneza i Forda Escorta wykonany z żeliwa szarego technologia
obróbki cieplnej po procesie odlewania. Wydzielenia grafitu w postaci płatków w warstwie
zahartowanej są miejscami propagacji pęknięć i powodują szybsze zużycie krzywki (Ford
Escort)
Literatura:
[1] Rychte T.: „Mechanik kierowca pojazdów samochodowych”. WSiP, W-wa, 1982.
[2] Kijewski J.: „Silniki spalinowe”. WSiP, W-wa, 1995.
[3] Bomba P.: „Mikrostruktura warstwy wierzchniej elementów mechanizmu rozrządu
po procesie eksploatacji, praca dyplomowa, Częstochowa, 2002
Opiekun naukowy:
Dr hab. inż. Józef Jasiński
86
ROLA SODU W ZAWORACH SILNIKOWYCH
Konieczniak Artur
Koło Naukowe „METALOZNAWCÓW”
Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej.
Instytut Inżynierii Materiałowej
Politechnika Częstochowska
Streszczenie
Niniejszy artykuł prezentuje zadania stawiane zaworom silnikowym oraz technologie
ich wytwarzania. Zwraca uwagę na sposoby zabezpieczania i powłoki ochronne zaworów,
ponadto prezentuje sposoby chłodzenia zaworów silnikowych.
1) Wstęp
Zawory w silnikach samochodowych są istotnymi elementami układu rozrządu. Ich
podstawową funkcją jest zamknięcie przestrzeni roboczej cylindra podczas suwu sprężającego
mieszankę paliwowo-powietrzną i podczas spalania. Wyróżniamy dwa podstawowe typy
zaworów: dolotowe (ssące) i wylotowe.
Zawory wytwarza się ze stali stopowych: stali ferrytyczno-perlitycznej, chromowoniklowej o strukturze austenitycznej oraz chromowo-krzemowej (silchromów).
2) Technologie wytwarzania zaworów
Wśród współczesnych metod wytwarzania zaworów można wyróżnić następujące
metody:
- Metoda wytłaczania przelotowego - jest tania i nie wymaga stosowania specjalnych
obrabiarek.
- Metoda elektrospęczania – jest stosowana gdy przebieg włókien w zaworze nie jest
istotny.
- Metoda wyciskania zaworów na gorąco - Stosuje się gdy wymaga się możliwie
korzystnego rozkładu włókien w grzybkach zaworów.
- Metoda prasowania wypływowego - polega na tym, że materiał wyjściowy jest
podawany z zasobnika za pomocą wypychacza do induktora o wysokiej
częstotliwości, a następnie zabrany przez mechanizm załadowczy i
wprowadzony do pierwszego wykroju matrycy.
3) Powłoki ochronne na powierzchnie zaworów
Na zawory nanoszone są różnego rodzaju powłoki ochronne w celu poprawienia
własności stali. Spośród rodzajów powłok możemy wyróżnić: powłoki stellitowe, powłoki
aluminiowe, powłoki chromowane oraz warstwy azotowane.
4) Sposoby chłodzenia zaworów silnikowych
W celu obniżenia maksymalnej temperatury występującej w zaworach wylotowych
stosuje się rozmaite sposoby ich dodatkowego chłodzenia. Najbardziej skuteczne jest
dodatkowe chłodzenie zaworów wylotowych sodem, częściowo wypełniającym wydrążenia
ich trzonków.
87
5) Podsumowanie
W dziedzinie konstrukcji zaworów dąży się do:
- zmniejszenia średnic zaworów dolotowych, dzięki czemu pozostają w komorze
spalania niewielkie resztki spalin.
- zwiększania liczby zaworów przypadających na jeden cylinder, która w
nowoczesnych silnikach może wynosić nawet pięć zaworów na cylinder.
Literatura:
[1] P. Adamiec, J. Dziubiński, Wybrane zagadnienia materiałów konstrukcyjnych technologii wytwarzania
pojazdów, Gliwice 1998,
[2] A. Ubysz, Współczesne silniki samochodowe, cz. I, Gliwice 1998,
[3] MERCEDES-BENZ: 208D, 210D, 308D, 310D, 408D, 410D, Sprinter 212 D, Warszawa, 1996.
[4] K. Derczyński, Analiza mikrostruktury warstwy wierzchniej zaworów silników spalinowych po eksploatacji.
Praca Dyplomowa numer Z. 118’, Politechnika Częstochowska 2003r.
Opiekun naukowy:
Dr hab. inż. Józef Jasiński
88