Paradoxテーブルのインデックスが大量データに成ると壊れる

解決


さくら  2005-07-15 20:17:31  No: 16389

BDE5.2を利用してParadoxデータを作成していますが、大容量(50,000レコード、20メガ)位になると二次インデックスが壊れる事があります。
修正プログラムを作って、対応していますが、こんなもんなんですか?
何方か教えて下さい。


3K  2005-07-16 00:22:41  No: 16390

>>二次インデックスが壊れる事があります。
DBが壊れるのではなく、二次インデックスが壊れるのですか?

ちなみに私もParadoを結構使っていますが100Mで100万レコード位
問題無く動いてますが...。


なつお  2005-07-17 07:40:06  No: 16391

>こんなもんなんですか?
もちろんParadoxが犯人ではありません。BDEが犯人です。当方も
複雑なindexファイルだとよく壊れています。キャッシュだとかいろい
ろ検索したことを試しましたが、結局解決に至っておりません。


3K  2005-07-19 00:25:51  No: 16392

>>なつお 2005/07/16(土) 22:40:06
>>複雑なindexファイルだとよく壊れています。

今後の参考にさせていただきたいのですが、
どのようなindexファイルだと
壊れやすいのか教えて頂けないでしょうか。


HOta  2005-07-19 04:28:37  No: 16393

FireBirdなんかに乗り換えたらどうですか?


Kenny  2005-07-21 09:41:01  No: 16394

Paradoxを使う場合、BDE環境設定でLOCAL SHAREをTREUにしないと壊れる、と言うTipsを見つけてそのように設定しましたが、扱うデータ量が少ないためかそもそも壊れないので検証できていません…。


峠のおじさん  2005-07-26 02:12:29  No: 16395

BDEのBLOCK SIZEの値を大きくしてみたらどうですか?
ついでにDBの項目名やインデックス名を半角文字にしてみては?


さくら  2005-07-30 01:48:34  No: 16396

皆さん、ご意見、有難う御座いました。
Kennyさんの、ご意見をテストしてみたいと思います。


さくら  2005-08-03 17:43:14  No: 16397

峠のおじさん、ご意見有難うございます。
BDEのBLOCK SIZEの値を大きくしてみると、多少は改善されますがデーター量が増えるとエラーは、発生します。
BDE環境設定でLOCAL SHAREをTREUに100万レコード、300メガほどのデーターでファイルを作りました。結果はの二次インデックスに障害が発生しました。  結論、ファイルはあまり大きくしない。


※返信する前に利用規約をご確認ください。

※Google reCAPTCHA認証からCloudflare Turnstile認証へ変更しました。






  このエントリーをはてなブックマークに追加